PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Ailuros
2014-07-02, 19:46:57
Eigentlich waren diese Bilder bisher immer ein guter Ansatzpunkt.

...und wie viele hatten vor dem launch nach den Bildern GK104 auf nur 294mm2 eingeschaetzt?

AnarchX
2014-07-02, 19:48:27
...und wie viele hatten vor dem launch nach den Bildern GK104 auf nur 294mm2 eingeschaetzt?

Die 294mm² sind ja auch eher "NV calculated" und wohl nicht direkt messbar. Dazu kannte man beim GK104 nicht die Package Größe. GF1x4 war ja nicht ganz so quadratisch.:D

E: Also wenn die Die-Size jetzt auch in Echt um die 60mm² geringer ausfällt, wie vorher bei GK104 vermutet, dann sind wir bei um die 370mm² - das würde ganz gut passen.
Unwahrscheinlich, da die ~430mm² schon auf den 294mm² von GK104 basieren (laut den Bilder GM204 1,45x so groß wie GK104). Mit einem Messchieber misst man da vielleicht sogar 450mm². ;)

Wenn 28nm nun mittlerweile günstig ist, sollte man mit dem Die-Space auch nicht knausrig sein. ;D
Und im Endeffekt bietet sich das wohl auch für einen 20nm Shrink an, wo man bei 256-Bit bleiben kann.

Ailuros
2014-07-02, 20:05:24
Die 294mm² sind ja auch eher "NV calculated" und wohl nicht direkt messbar. Dazu kannte man beim GK104 nicht die Package Größe. GF1x4 war ja nicht ganz so quadratisch.:D

Und wieso soll GM204 diesbezueglich anders sein? Das Ding ist auch rechteckig.

Aber verderben wir den Spekulanten hier nicht den Spass; es ist ein GM210, verbraucht 250W, verdammt gross und schlaegt jeglichen GK110b gruen und blau :freak: :rolleyes: Es ist js dass was sie zeitig lesen wollen ;)

Edgecrusher86
2014-07-02, 20:08:06
Unwahrscheinlich, da die ~430mm² schon auf den 294mm² von GK104 basieren (laut den Bilder GM204 1,45x so groß wie GK104). Mit einem Messchieber misst man da vielleicht sogar 450mm². ;)

Wenn 28nm nun mittlerweile günstig ist, sollte man mit dem Die-Space auch nicht knausrig sein. ;D
Und im Endeffekt bietet sich das wohl auch für einen 20nm Shrink an, wo man bei 256-Bit bleiben kann.

Also wenn es wirklich 400mm²+ sind, bin ich der Letzte, dem das zu viel ist. :biggrin:
Knapp Hawaii-Größe als reiner Gamer-Chip wär schon sehr nett. :)

AnarchX
2014-07-02, 20:13:49
Und wieso soll GM204 diesbezueglich anders sein? Das Ding ist auch rechteckig.

Natürlich ist ein Die rechteckig. Aber die aktuellen NV Dies sind deutlich quadratischer als GF1x4. ;)

Wie gesagt sind die Package-Größen von GK104 und GM204 gleich und dazu haben wir hier eine schöne frontale Abbildung.
Entweder ist das nun eine Photomanipulation oder GM204 ist doch größer 400mm².

Wenn es GK210 oder GM200 sein sollte (GK110 Package Size), wären es wohl knapp über 500mm². Aber bei 8GiB 256-Bit eher unwahrscheinlich. Zumal das auch die Speichergröße der GM204 Samples bei Zauba war.

Vielleicht hat man doch schon ein paar Denver Cores zum "Spielen" verbaut. ;)

Loeschzwerg
2014-07-02, 20:19:54
Ist zu 100% GM204 den wir hier sehen, man muss sich nur die Markierungen/Rahmen auf dem PCB anschauen.

Hier mal als Vergleich GK110 und GK104:
http://techreport.com/r.x/geforce-titan/titan-chip-bare.jpg GK110
http://cdn.wccftech.com/wp-content/uploads/2012/05/GK104-325-A2.jpg GK104

Und die Anzahl der Speicherbausteine passt genau zum 256Bit Interface.


Die Package-Size von GM204 ist die von GK104, insofern ist das ganz manipuliert oder GM204 doch über 400mm² groß.

GK110 ist im Vergleichsbild zu klein dargestellt.

http://cdn.videocardz.com/1/2014/07/GeForce-GTX-880-Maxwell-prototype-1.jpg

Das ist by the way eines von diesen tollen Bring-Up Boards ;) Woran ich das erkenne? An den beiden verpixelten Lüftern auf der rechten Seite :D Ich habe so ein ähnliches ES Board von Nvidia.

Ailuros
2014-07-02, 20:22:01
edit

AnarchX
2014-07-02, 20:22:43
GK110 ist im Vergleichsbild zu klein dargestellt.

Schrieb ich hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10267182#post10267182


http://cdn.videocardz.com/1/2014/07/GeForce-GTX-880-Maxwell-prototype-1.jpg

Das ist by the way eines von diesen tollen Bring-Up Boards ;) Woran ich das erkenne? An den beiden verpixelten Lüftern auf der rechten Seite :D Ich habe so ein ähnliches ES Board von Nvidia.
Das sind die geheimen ARM Cores:
Ofcourse this could be the GM204 core for all we know but the most interesting thing I find is that a very big portion of the GPU is actually pixelated out. So we are hiding something that not even NDA breakers dare reveal. What could that possible be? Well an obvious guess would be an ARM core and that seems likely because when we saw the Darbee variants the ASIC was placed in approximately the same PCB space.
http://wccftech.com/nvidia-geforce-gtx-880-pictured-gm-210-8gb-memory/
;D

Timbaloo
2014-07-02, 20:26:41
Das sind die geheimen ARM Cores:

http://wccftech.com/nvidia-geforce-gtx-880-pictured-gm-210-8gb-memory/
;D
;D:facepalm:

Ailuros
2014-07-02, 20:27:01
Ach der Spinner bei wccftech.....*hilfe* :rolleyes:

Loeschzwerg
2014-07-02, 20:36:01
Schrieb ich hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10267182#post10267182

Achso ok. Sorry, bin etwas durch den Wind, hab heute volle 10 Stunden durchgearbeitet und davon gefühlt die Hälfte der Zeit im Unterboden bzw. bei der Verkabelung von Servern verbracht :crazy:


Das sind die geheimen ARM Cores:

http://wccftech.com/nvidia-geforce-gtx-880-pictured-gm-210-8gb-memory/
;D

Was haben die denn geraucht ;D

Hier mal mein Kärtchen:
http://www.pcgameshardware.de/screenshots/original/2013/08/PCGHX-Promo-Community-Portrait-Loeschzwerg_00020-pcgh.jpg

Godmode
2014-07-02, 21:44:27
Ach der Spinner bei wccftech.....*hilfe* :rolleyes:

Die Denver-Cores sitzen auf den VRMs, damit ihnen nicht so kalt ist. ;D

Super das es endlich Bilder von den Boards gibt. Wenn alles glatt läuft, sollte es in 4-5 Monaten Karten zum Kaufen geben, oder?

Nightspider
2014-07-02, 21:56:07
Ich sage in 2,5 bis 3,5 Monaten.

Timbaloo
2014-07-02, 21:57:31
NV wäre gut beraten zum HW-E-Launch was zu haben.

Ailuros
2014-07-02, 22:05:34
Ab Oktober im besten Fall

Unicous
2014-07-02, 22:11:39
Die shot? DIE SHOT????:uexplode:


Leute. Ich guck hier in den Thread und lese die shot und denke mir: Whuat:eek: wo kommt der denn her. Ich klicke auf den Link und es ist ein: PCB-Shot. Oder ein "Package Shot" (pun intended). Oder ein... mir fällt nichts Doofes mehr ein.:rolleyes:

Und das die videocardz zu dumm zum... Recherchieren sind, müsste man hier ja auch langsam selber wissen. Die haben doch unlängst in einem ihrer Artikel die von hier "geklauten" Zauba Einträge zu stehen. Können sie sich nicht mal die Mühe machen und einfach mal Zahlen vergleichen?

Ganz großes Daumenkino mal wieder.
:uclap:

aufkrawall
2014-07-03, 00:29:02
Was ist der letzte Stand fürs spekulierte SP:DP-Verhältnis des GM204?
Gleich zu GM107?

Nakai
2014-07-03, 01:37:14
Was ist der letzte Stand fürs spekulierte SP:DP-Verhältnis des GM204?
Gleich zu GM107?

Höchstwahrscheinlich, aber möglich, dass man die erhöht hat. Maxwell soll ja im Compute besser werden.

Ansonsten ist es wohl eher so, dass man das Performance-Target, welches man mit 20nm erreicht hätte, einfach auf 28nm übertragen hat.

Ich sage es seit längerem. Maxwell wird stark.

aufkrawall
2014-07-03, 01:44:16
Höchstwahrscheinlich, aber möglich, dass man die erhöht hat. Maxwell soll ja im Compute besser werden.

Nur wofür braucht ein Endanwender DP?
Hoffentlich zielen sie nur mit dem Top Dog aufs professionelle Umfeld.

Nakai
2014-07-03, 01:52:32
Nur wofür braucht ein Endanwender DP?
Hoffentlich zielen sie nur mit dem Top Dog aufs professionelle Umfeld.

Es gab auch eine GK104-Tesla. Die DP-Leistung war zwar unterirdisch, DP ist in vielen Bereichen nicht zwingend Notwendig.
GM204 könnte mit einer besseren DP-Leistung schon etwas absetzen.

GM200 wird der richtige Compute-Chip.

aufkrawall
2014-07-03, 01:59:45
Wieso? Schon GM107 schaut selbst bei unoptimierten OpenCL-Anwendungsfällen im Vergleich zu keiner Radeon schlecht aus, zumindest was die Perf/W betrifft.
Mit SP natürlich.
Dementsprechend wird sich auch ein GM204 dort sehr gut schlagen. Und wenn nicht mehr Platz für DP "vergeudet" wird, um so besser.
Beim f@h-Projekt oder Minern freut man sich jedenfalls schon ziemlich auf die größeren Maxwells. Ebenso können sich die Spielanforderungen mit NextGen-only Titeln recht kurzfristig stärker auf Compute verschieben.

Dural
2014-07-03, 09:48:35
finde den chip für 28nm nicht mal so mega gross, war zu erwarten.

wenn man das auf 16nm umrechnet kommt man auf weniger als es GK104 und GF104 sind.

mczak
2014-07-03, 16:08:33
Dementsprechend wird sich auch ein GM204 dort sehr gut schlagen. Und wenn nicht mehr Platz für DP "vergeudet" wird, um so besser.
Naja also der Unterschied beim Platzbedarf zwischen 1/16 und 1/32 DP dürfte doch eher marginal sein (sicher unterhalb 1% der Chipfläche). Ich sehe aber auch keine wirkliche Notwendigkeit die DP-Rate zu erhöhen. Es sei denn man möchte gerne die DP-Flops der Host-CPU erreichen, was bei einem 4-Kern Haswell ansonsten nicht der Fall ist (wobei vielleicht würde das auch sonst reichen, müsste bei 1/32 in einer ähnlichen Grössenordnung liegen)...

Skysnake
2014-07-03, 17:09:21
Nur das GPU-Flops != CPU-Flops sind.

Bei CPUs kommt in aller Regel deutlich mehr hinter bei rum, im Vergleich zu GPUs. Nen Branch killt ne CPU halt nicht gleich in dem Maße wie ne GPU. usw usw.

Thunder99
2014-07-03, 20:04:40
finde den chip für 28nm nicht mal so mega gross, war zu erwarten.

wenn man das auf 16nm umrechnet kommt man auf weniger als es GK104 und GF104 sind.
Kein Wunder da es wenn du 16nm wirklich meinst es 2 Stufen der Verkleinerung sind ;)

Ravenhearth
2014-07-03, 20:39:01
Er meint wohl TSMCs 16nm FF, also 20nm + FinFets.

Und ja, wenn man ausgehend von den 430mm² ein wenig milchmädchenrechnet, dann dürfte ein GM204@20nm/16nmFF auf sehr deutlich unter 300mm² kommen. Aber wäre das überhaupt möglich (pad area)?

Ravenhearth
2014-07-03, 21:26:22
Imho ist auch nicht die Tatsache beeindruckend, dass GM104 irgendwie 50-80% schneller wird als GK104, sondern dass dies ohne/mit kaum erhöhtem Stromverbrauch in dergleichen Fertigung geschehen soll.

Godmode
2014-07-03, 21:27:49
Imho ist auch nicht die Tatsache beeindruckend, dass GM104 irgendwie 50-80% schneller wird als GK104, sondern dass dies ohne/mit kaum erhöhtem Stromverbrauch in dergleichen Fertigung geschehen soll.

Wenn eine Prozess länger verwendet wird, ist mehr Zeit für Optimierung vorhanden. Irgendwer mit mehr Ahnung als ich hat das irgendwo diesem Thread geschrieben, was ganz schlüssig klang.

Ailuros
2014-07-03, 22:47:41
Nach der letzten Loesch-Orgie von irrelevanten Posts koennen wir glaube ich nun tatsaechlich zum Thema zurueck kommen.

Skysnake
2014-07-03, 22:53:42
Wunderbar!

Also auf der ISC gab es wohl meinen Informationen nach keine Aussagen mehr zu irgendwelcher SecretSouce für den virtual unified Address space. Das hat sich dann wohl erledigt, oder hat sonst noch jemand dahingehend was Neueres gehört?

Dawn on Titan
2014-07-04, 07:27:21
Imho ist auch nicht die Tatsache beeindruckend, dass GM104 irgendwie 50-80% schneller wird als GK104, sondern dass dies ohne/mit kaum erhöhtem Stromverbrauch in dergleichen Fertigung geschehen soll.

Das wird sich zeigen müssen.

Dural
2014-07-04, 09:32:15
irgend wie habe ich das Gefühl das ihr etwas zu viel erwartet :rolleyes:

das ding hat nur 256Bit und somit wahrscheinlich nur 32ROPs und die Vergangenheit hat gezeigt das NV zuerst teildeaktivierte Chips bringt: 8800GT, GTX460 usw.

N0Thing
2014-07-04, 09:37:55
GK104 kam direkt als Vollausbau auf den Markt. Warum sollte das beim GM204 mit ausgereifter Fertigungstechnologie anders sein?

Dural
2014-07-04, 09:47:12
ganz einfach, weil der voll kommen musste wegen der 7970, und sie so wie so etwas später dran waren.
wenn sie nicht müssen, ist NV die erste Firma die keinen vollen Chip bringt.

Das hängt aber natürlich davon ab was AMD macht.

Nakai
2014-07-04, 17:16:05
das ding hat nur 256Bit und somit wahrscheinlich nur 32ROPs und die Vergangenheit hat gezeigt das NV zuerst teildeaktivierte Chips bringt: 8800GT, GTX460 usw.

Wenn NV Denver-Kerne integriert kostet das definitiv Platz. Platz der für SMMs fehlt und somit die Leistung drückt. GM204 ist viel größer, als ich erwartet habe.
Bei ~350mm² wäre Platz für 384Bit SI. Das soetwas nicht integriert wurde, finde ich komisch(vor allem weil GM204 größer als 350mm² werden wird). Entweder das Cache-System bringt soviel oder NV hat wirklich nicht mehr untergekriegt. Cache bei Streamingarchitekturen bringt eher weniger, da Daten nicht lange wiederverwendet werden. Beim Compute ist ein großer Cache schon ziemlich geil. Ich bin zwar nur ein Laie, aber Gaming-GPUs hatten noch nie viel Cache.

Wenn eine Prozess länger verwendet wird, ist mehr Zeit für Optimierung vorhanden. Irgendwer mit mehr Ahnung als ich hat das irgendwo diesem Thread geschrieben, was ganz schlüssig klang.

Grundsätzlich ist NV eh schon ziemlich effektiv, wenn man eine Warpsize von 32 berücksichtigt. Aber ein SMX bei Kepler war einfach riesengroß und Registerproblematiken(nur vier Bänke) hat den effektiven Durchsatz gedrückt.
Das Laden der Operanden, bei SIMD-Einheiten, kostet viel Energie. SMMs sind deutlich besser als SMXs, aber dass der größere Cache viel gebracht hat bei Stromsparen finde ich eher irreführend, weil dann hätte man seit längerem mehr Cache integriert.

N0Thing
2014-07-05, 20:25:36
Wenn NV Denver-Kerne integriert kostet das definitiv Platz. Platz der für SMMs fehlt und somit die Leistung drückt. GM204 ist viel größer, als ich erwartet habe.

Denver-Kerne bei GM204?

john carmack
2014-07-06, 03:33:11
Imho ist auch nicht die Tatsache beeindruckend, dass GM104 irgendwie 50-80% schneller wird als GK104, sondern dass dies ohne/mit kaum erhöhtem Stromverbrauch in dergleichen Fertigung geschehen soll.

50 - 80%
Ähhmm... NEIN!

Ailuros
2014-07-06, 10:04:09
50 - 80%
Ähhmm... NEIN!

Erstens ist es GM204 (fuer Ravenheart) und zweitens was spricht genau gegen +50%? Beide Werte (sowohl +50 als +80%) sind durchaus erreichbar ohne besondere Muehe, es haengt lediglich davon ab wo NV die entgueltigen Produkte preislich bzw. leisstungsmaessig platzieren will.

Nakai
2014-07-06, 10:35:48
Denver-Kerne bei GM204?

Ich weiß es nicht. Aber, wenn Denverkerne integriert sind, kostet das Platz, was für SMMs draufgeht. Ein Cortex A15 kostet irgendwas zwischen 2,5 und 3,0mm² an Fläche, ich glaube es war etwas um 2,8mm². Einen Denverkern sehe ich einfach mal bei 5,0mm². Ich weiß nicht, wie groß ein SMM ist, aber ich schätze irgendwas um die 10mm². Wenn 2-8 Denverkerne verbaut sind, sind das theoretisch 1-4 SMMs weniger, also 128~512SPs.

Erstens ist es GM204 (fuer Ravenheart) und zweitens was spricht genau gegen +50%? Beide Werte (sowohl +50 als +80%) sind durchaus erreichbar ohne besondere Muehe, es haengt lediglich davon ab wo NV die entgueltigen Produkte preislich bzw. leisstungsmaessig platzieren will.

Einfach Analogie GK107 zu GM107 ziehen. Letzterer ist etwa 80% schneller bei ähnlichem Stromverbrauch, bei 25% mehr Diesize. Bei GM204 siehts ähnlich aus. Sicherlich ist die Skalierung der Architektur immer noch ein Kriterium, aber ich denke, dass NV das schon hinkriegt.

Thunder99
2014-07-06, 11:53:11
nur +50% wäre echt mager. GK104 hatte +/- +90% gegenüber dem GF104 (CB Rating, ich weiß nicht gut aber als Richtwert ok)

Da sollte +80% wenn man nicht die Taktraten so hoch ansetzt wie beim GK104 durchaus im Bereich des zu erwarteten sein

Cortana
2014-07-06, 12:05:40
Alles über 50% würde mich doch sehr überraschen.

boxleitnerb
2014-07-06, 12:14:53
Alles über 50% würde mich doch sehr überraschen.

Warum? Wenn man sich GM107 vs GK107 anschaut ist das einfach realistisch. Verstehe die Skepsis absolut nicht?

Loeschzwerg
2014-07-06, 14:24:49
3-Jul-2014 84733010 ICHFC FBGA 45X45 GRAPHIC PROCESSOR INTEGRATED CIRCUITS LOT NO : T6B223.004 Taiwan Banglore Air Cargo NOS 25 451,454 18,058

Das hier könnte GM200 sein. Package Size passt, Hersteller Land (Taiwan) passt, Stückpreis passt und die Lot No zeigt eine aktuelle Produktion.

AnarchX
2014-07-06, 14:41:02
Lässt man wohl nun die Codenamen weg in den Frachtpapieren. ;D

-/\-CruNcher-/\-
2014-07-06, 14:44:46
Es war ja klar das sie es nicht mehr so offensichtlich deklarieren würden zukünftig :)

Loeschzwerg
2014-07-06, 14:48:17
Lässt man wohl nun die Codenamen weg in den Frachtpapieren. ;D

Hm, warum denn nur :biggrin:

Unicous
2014-07-06, 14:50:06
Kannst du mich mal aufklären über den Stückpreis, und warum der "passen" soll?

300 Dollar für einen GM200? Package? 200 Dollar naja, das könnte vllt. noch hinhauen (obwohl ich das auch für deutlich zu hoch halte, eher im $150 Bereich) aber doch nicht $300. GF110 wurde mal auf $120 geschätzt, wie kann zu mehr als einer Verdoppelung kommen?

Oder beziehst du dich auf den geschätzten Verkaufswert?

Loeschzwerg
2014-07-06, 15:02:32
Der Vergleich zu GK104, GM107, GM204 und GK210 Lieferungen passt einfach und deutet auf einen neuen, großen Chip hin.

Unicous
2014-07-06, 15:27:53
Das beantwortet nicht meine Frage.

Ich finde man kann nicht anhand des Stückpreises irgendetwas ablesen, besonders wenn man nicht weiß auf was er sich überhaupt bezieht.

Ist es der Materialpreis? Ist der geschätzte Verkaufswert. Mit ohne/Zollgebühren...whatever.

Und ob die Relation zu den anderen Lieferungen einen Hinweis geben würde ich zum Beispiel aus Mangel an Informationen nicht einfach so konstatieren.


Ich meine das nicht böse, aber die Preise sagen für mich erst einmal nichts aus. Es kann auch einfach sein, dass Nvidia einen imaginären Verkehrswert für den Zoll veranschlagt hat. Ich meine sogar, das ist üblich.

Godmode
2014-07-06, 15:33:35
Das beantwortet nicht meine Frage.

Ich finde man kann nicht anhand des Stückpreises irgendetwas ablesen, besonders wenn man nicht weiß auf was er sich überhaupt bezieht.

Ist es der Materialpreis? Ist der geschätzte Verkaufswert. Mit ohne/Zollgebühren...whatever.

Und ob die Relation zu den anderen Lieferungen einen Hinweis geben würde ich zum Beispiel aus Mangel an Informationen nicht einfach so konstatieren.


Ich meine das nicht böse, aber die Preise sagen für mich erst einmal nichts aus. Es kann auch einfach sein, dass Nvidia einen imaginären Verkehrswert für den Zoll veranschlagt hat. Ich meine sogar, das ist üblich.

Es könnte der Preis sein, den NV bei TSMC für einen Chip bezahlt.

Loeschzwerg
2014-07-06, 15:38:15
Ein imaginärer oder geschätzter Wert ist das sicher nicht, da würde man dann eher "runde" Werte nehmen. Also das machen zumindest wir in der Firma so wenn wir Prototypen verschicken, ein gerundeter Wert der die Material/Fertigungskosten in etwa angibt. Da fallen meines Wissens nach auch keine Zollgebühren an, wird speziell deklariert.

Ich denke der Wert gibt den aktuellen Material-/Fertigungswert an, denn es sind geringe Mengen und da passt dann in etwa der Chippreis.

Unicous
2014-07-06, 16:46:57
Es könnte der Preis sein, den NV bei TSMC für einen Chip bezahlt.

Meinst du das wirklich ernst? 300 Dollar für einen Die?:freak:

Ich sagte bereits, die "Materialkosten" für GF110 wurden auf $120 geschätzt und innerhalb weniger Jahre haben sich diese verdoppelt?

Das ist nicht 100% nicht der Preis für den Die bzw. das Package. Es ist entweder ein von Nvidia willkürlicher (deutlich) über den Materialkosten angesiedelter Preis, der Verkehrswert (http://de.wikipedia.org/wiki/Marktwert), wo Nvidia schon die Marge draufgeschlagen, oder was auch immer sie sich haben einfallen lassen.

Wenn der Die schon 300 Dollar kosten würde,dann gebe es eine 880(Ti) nicht unter 1000 Euro. Nur zur Erinnerung: Nvidia hatte zuletzt eine Bruttomarge von 55% und ich glaube bei Consumer Cards dürfte es deutlich über 40% sein. Das heißt bei einer 500 Dollar SKU wären es 200 Dollar Bruttogewinn.

Zufälligerweise war ja die GTX 580 eine 500 Dollar Karte und die Materialkosten wurden auf etwas über 200 Dollar geschätzt, wovon 120 Dollar allein für die GPU drauf gingen. Also macht der Die allein schon 60% der (Material-)Kosten aus.


edit:
Wenn 300 Dollar der aktuelle Fertigungswert ist, hätte Nvidia aber mal richtig Probleme mit dem Yield, just saying.

Godmode
2014-07-06, 16:48:56
Meinst du das wirklich ernst? 300 Dollar für einen Die?:freak:

Ich sagte bereits, die "Materialkosten" für GF110 wurden auf $120 geschätzt und innerhalb weniger Jahre haben sich diese verdoppelt?

Das ist nicht 100% nicht der Preis für den Die bzw. das Package. Es ist entweder ein von Nvidia willkürlicher (deutlich) über den Materialkosten angesiedelter Preis, der Verkehrswert (http://de.wikipedia.org/wiki/Marktwert), wo Nvidia schon die Marge draufgeschlagen, oder was auch immer sie sich haben einfallen lassen.

Wenn der Die schon 300 Dollar kosten würde,dann gebe es eine 880(Ti) nicht unter 1000 Euro. Nur zur Erinnerung: Nvidia hatte zuletzt eine Bruttomarge von 55% und ich glaube bei Consumer Cards dürfte es deutlich über 40% sein. Das heißt bei einer 500 Dollar SKU wären es 200 Dollar Bruttogewinn.

Zufälligerweise war ja die GTX 580 eine 500 Dollar Karte und die Materialkosten wurden auf etwas über 200 Dollar geschätzt, wovon 120 Dollar allein für die GPU drauf gingen. Also macht der Die allein schon 60% der (Material-)Kosten aus.

Ich denke diese Dies sind noch nicht für die Endkunden und daher noch nicht in der Massenproduktion, daher dieser hohe Preis.

Vielleicht werden am Anfang erstmal nur eine Handvoll Chips produziert um diese dann zu evaluieren. Sollte alles passen, geht der Chip in die Massenproduktion, sonst Respin.

Insgesamt würde ich nicht zuviel in diese Zahl hineininterpretieren, da wir nicht genau wissen wie sie sich zusammensetzt.

Unicous
2014-07-06, 16:55:32
Und genau deswegen kann man aus diesem Preis nichts ableiten. Das sage ich die ganze Zeit.

Und 300 Dollar für einen Die ist einfach Blödsinn. 28nm ist ausgereift, Nvidia dürfte keine Probleme mehr mit dem Yield haben. Der Preis müsste auch bei schlechten Yield die 200 Dollar Marke nicht überschreiten.

Deswegen behaupte ich weiterhin, "the price is not right". Und man kann nicht zwangsläufig etwas davon ablesen. Daher bitte ich euch, diesen "Wert" einfach zu ignorieren.

Loeschzwerg
2014-07-06, 16:58:19
Vielleicht werden am Anfang erstmal nur eine Handvoll Chips produziert um diese dann zu evaluieren. Sollte alles passen, geht der Chip in die Massenproduktion, sonst Respin.

Jup. NV bestellt hier sicher keine 10000 Chips, sondern eher wenige 100 Stück (wenn überhaupt). Zumindest war das die Vorgehensweise um die Jahrtausendwende und ich denke da hat sich nichts geändert ^^

Deswegen behaupte ich weiterhin, "the price is not right". Und man kann nicht zwangsläufig etwas davon ablesen. Daher bitte ich euch, diesen "Wert" einfach zu ignorieren.

Ja was willst denn eigentlich, mir ging es nur darum zu verdeutlichen "da kommt kein 08/15 winzig Chip" und das Verhältnis passt zu den anderen Chips. EOD

Godmode
2014-07-06, 16:59:51
Und genau deswegen kann man aus diesem Preis nichts ableiten. Das sage ich die ganze Zeit.

Und 300 Dollar für einen Die ist einfach Blödsinn. 28nm ist ausgereift, Nvidia dürfte keine Probleme mehr mit dem Yield haben. Der Preis müsste auch bei schlechten Yield die 200 Dollar Marke nicht überschreiten.

Deswegen behaupte ich weiterhin, "the price is not right". Und man kann nicht zwangsläufig etwas davon ablesen. Daher bitte ich euch, diesen "Wert" einfach zu ignorieren.

Und was ist wenn man wirklich nur ein "paar" Wafer bestellt hat? Die Stückkosten pro Die wären dann wohl erheblich höher.

Jup. NV bestellt hier sicher keine 10000 Chips, sondern eher wenige 100 Stück (wenn überhaupt). Zumindest war das die Vorgehensweise um die Jahrtausendwende und ich denke da hat sich nichts geändert ^^

Danke, dann habe ich ja richtig getippt.

Unicous
2014-07-06, 17:11:44
@Loeschzwerg


Was ich will? Dass du nicht den "value" eines vom Zoll überprüften Produktes bzw. mehrerer Einheiten dieses Produktes als Stückpreis auslegst und aus diesem "Preis" dann ableitest, was es für ein Chip ist. Ganz einfach.:rolleyes:
(Besonders wenn man sonst keine weiteren Anhaltspunkte hat, weil Nvidia wohl mittlerweile verschleiern lässt, was da verschifft wird.)

Loeschzwerg
2014-07-06, 17:18:09
Deswegen schrieb ich ja "Das hier könnte GM200 sein". Also bleibt alles reine Spekulation... und wo sind wir hier, genau im Spekulationsforum ;)

Skysnake
2014-07-06, 17:55:56
Ich denke diese Dies sind noch nicht für die Endkunden und daher noch nicht in der Massenproduktion, daher dieser hohe Preis.

Vielleicht werden am Anfang erstmal nur eine Handvoll Chips produziert um diese dann zu evaluieren. Sollte alles passen, geht der Chip in die Massenproduktion, sonst Respin.

Insgesamt würde ich nicht zuviel in diese Zahl hineininterpretieren, da wir nicht genau wissen wie sie sich zusammensetzt.
Sind sicherlich nur eine Handvoll, die durch die ganze Fertigung gelaufen ist. Ob man aber auch nur ein paar bis zu den Metallagen gemacht hat, würde ich nicht sagen.

Wenn man sich relativ sicher ist, dass das funktioniert, kann man auch schon direkt einen kompletten run für die Transistoren machen, und nur für die Metallagen zurückhalten, um noch einen Metalspin zu machen.

Kann aber natürlich auch nur allgemein ein paar Chips überhaupt gemacht haben. Wichtig am Ende ist eh, ob das Ding läuft oder nicht. Wenn nicht, wirds mehr oder weniger teuer.

Jup. NV bestellt hier sicher keine 10000 Chips, sondern eher wenige 100 Stück (wenn überhaupt). Zumindest war das die Vorgehensweise um die Jahrtausendwende und ich denke da hat sich nichts geändert ^^

Ja was willst denn eigentlich, mir ging es nur darum zu verdeutlichen "da kommt kein 08/15 winzig Chip" und das Verhältnis passt zu den anderen Chips. EOD
Ja, seh ich auch so. ne große Menge an Chips wurde da sicherlich nicht gemacht.

Ailuros
2014-07-06, 20:01:48
$300 wäre der pro core Preis momentan mit sehr beschissenen yields (~15 operative chips/wafer) für einen 550er die unter 20SoC :P

Soll jetzt nichts heissen, aber es kann alles oder gar nichts sein.

boxleitnerb
2014-07-06, 21:02:28
Ein Blick hinter die Paywall von S|A:

The short version is that the Maxwell releases are coming in two waves with four GM204 based SKUs in each one. The first wave is set for late Q3 or early Q4, that would be September or October in human-speak, sources say it is likely the latter month though. There will be four Maxwell based parts all of which are 28nm GM204s like we told you last year. These would be, from top to bottom, the GTX 880 Ti, GTX 880, GTX 870, and GTX 860. All four replace the Kepler based GPUs that are 100 GTX units smaller in model number.

The real interesting part is the second phase of releases that come in mid-Q1/2015. These are claimed 16nm Maxwells that look to be simple shrinks of the GM204′s that come out later this year. Nvidia is cunningly calling these new parts GTX 880 Ti, GTX 880, GTX 870, and GTX 860. We strongly suspect they replace the GTX 880 Ti, GTX 880, GTX 870, and GTX 860, respectively.

In short there will be two releases of the same part, one 28nm this year and one 16nm next year with 4-5 months separating them. The timing and volume depends on TSMC more than anything else, at least for the second wave, and so does the performance. If you are a risk-taker, you should probably wait for the 16nm parts, they should be cheaper, cooler, faster, and better in most regards unless TSMC really screws thing up.

As a side note, we said that during Computex Nvidia was blaming the delay from Q4 -> Q1/2015 on excess inventory. We very much doubted this explanation and said as much, technically speaking it was bull. This latest update brings the roadmap back to where we said it would be in October of last year, and it also adds the 16nm shrinks. From the outside it looks like Nvidia was on the fence about taping out and producing 28nm GM204s for <6 months before a shrink. For one reason or other they seem to have un-pulled that plug and it is now a go again. Quite the expensive stopgap part there.S|A

http://www.xtremesystems.org/forums/showthread.php?289252-NVIDIA-GeForce-GTX-880-2nd-Gen-Maxwell&p=5235047&viewfull=1#post5235047

Scheinbar war man sich nicht sicher, ob man Maxwell noch in 28 nm bringen will oder auf 16 nm wartet. Vielleicht wollte man sowohl für Volcanic Islands als auch für das Weihnachtsgeschäft gerüstet sein mit neuen Produkten und hat sich relativ kurzfristig umentschieden.

Die Shrink-Geschichte macht Sinn und hat Präzedenzfälle in der Vergangenheit. Die Wafer sind teuer, dafür sind die Chips kleiner. Takt etwas rauf und man hat ein "neues" Produkt mit evtl. mehr Speicher und weniger Verbrauch mit recht wenig Aufwand geschaffen. Wenn 16 nm reifer ist, kann man einen ganz neuen Chip auflegen, der dann auch wieder größer werden darf. Heißt aber auch, dass es nochmals langsamer vorangeht - abhängig davon, wie gut sich dieser "Refresh" dann takten lassen wird.

Duplex
2014-07-06, 21:08:56
GM204 sollte bis Herbst 2015 ausreichen, wozu GM200 auch in 28nm herstellen? Die Leute kaufen sowieso alles von Nvidia, der Chip muss nicht so früh kommen, GM200 könnte in 16nm zwischen 80-100% auf GM204 drauflegen, vor ende 2015 wird das aber sicher nichts werden.

Timbaloo
2014-07-06, 21:20:24
Also laut PedantOne setzt NV einen GM204 in 28nm auf um ihn 3-4 Montate später durch einen 16FF Shrink zu ersetzen und nennt die Karten dann noch nichtmal um? Korrekt zusammengefasst?

Und ich dachte schon nur mir bekommt die Hitze nicht...

boxleitnerb
2014-07-06, 21:20:30
GM204 sollte bis Herbst 2015 ausreichen, wozu GM200 auch in 28nm herstellen? Die Leute kaufen sowieso alles von Nvidia, der Chip muss nicht so früh kommen, GM200 könnte in 16nm zwischen 80-100% auf GM204 drauflegen, vor ende 2015 wird das aber sicher nichts werden.

GK104 kann man prima ersetzen. Aber GK110...GTX 780 und Titan sind dann 18 bzw. 21 Monate alt im Herbst 2014. Und so viel wird man hier nicht drauflegen können mit GM204 in 28 nm. Auf die 780 vielleicht 50% maximal, auf Titan weniger. Andererseits hat das auch bei GTX 680 für ein neues Produkt gereicht und bei Tahiti auch. Von daher...naja ich bin halt noch verwöhnt von den 70+% Steigerungen von früher :wink:

Also laut PedantOne setzt NV einen GM204 in 28nm auf um ihn 3-4 Montate später durch einen 16FF Shrink zu ersetzen und nennt die Karten dann noch nichtmal um? Korrekt zusammengefasst?

Und ich dachte schon nur mir bekommt die Hitze nicht...

Das ist von Semiaccurate, siehe die letzten Buchstaben. Passt auch vom Schreibstil her. Er hat es wohl irgendwo aufgeschnappt und eben gepostet.

Duplex
2014-07-06, 21:23:16
GTX880 mit GM204 in 28nm zwischen 10-30% schneller als GTX780 Ti,

GTX980 mit GM200 in 16nm dann bis zu 100% mehr als GM204.

Das sollte locker möglich sein.

Unicous
2014-07-06, 21:24:39
PedantOne ist keine seriöse Quelle und boxleitnerb sollte das eigentlich wissen. Ob dass der paywalled S|A Artikel ist kann niemand ohne Zugang mit Sicherheit sagen und ich könnte mir auch vorstellen dass PedantOne einfach ein paar Dinge umgedichtet hat um rumzutrollen. Wäre nicht das erste Mal.:rolleyes:

boxleitnerb
2014-07-06, 21:26:39
PedantOne ist keine seriöse Quelle und boxleitnerb sollte das eigentlich wissen. Ob dass der paywalled S|A Artikel ist kann niemand ohne Zugang mit Sicherheit sagen und ich könnte mir auch vorstellen dass PedantOne einfach ein paar Dinge umgedichtet hat um rumzutrollen. Wäre nicht das erste Mal.:rolleyes:

Was soll dieser Tonfall? Genauso kannst du nicht sagen, dass es nicht stimmt. Er war einer der wenigen, die über das 512-bit SI berichtet haben und er hatte Recht damit. Wir werden es sehen, spekulieren ist hier erlaubt :wink:

GTX880 mit GM204 in 28nm zwischen 10-30% schneller als GTX780 Ti,

GTX980 mit GM200 in 16nm dann bis zu 100% mehr als GM204.

Das sollte locker möglich sein.

Zum ersten: Ja. Würde ich persönlich als GTX 780+ Besitzer nicht kaufen, zu wenig Verbesserung
Zum zweiten: Möglich, allerdings ziemlich spät eben. Hieß es nicht, dass GM200 noch in 28 nm kommt? Wird der dann auch geshrinkt? Und vor allem wann? Generell wundere ich mich über den frühen Einsatz von 16 nm FF.

Duplex
2014-07-06, 21:28:11
PedantOne ist keine seriöse Quelle und boxleitnerb sollte das eigentlich wissen.
Wenn man permanent so denkt macht das spekulieren aber keinen spaß mehr.
Für dich sind doch fast alle Quellen nicht Seriös genug...

Duplex
2014-07-06, 21:33:27
Zum zweiten: Möglich, allerdings ziemlich spät eben. Hieß es nicht, dass GM200 noch in 28 nm kommt? Wird der dann auch geshrinkt? Und vor allem wann? Generell wundere ich mich über den frühen Einsatz von 16 nm FF.
Ich meine gehört zu haben das GM200 in 28nm nur um die 50% schneller als GK110 sein soll, wenn GM204 zwischen 10-30% schneller als GK110 wird, dann lohnt sich kein GM200 als Geforce, besser einen kleineren Chip mit mehr Marge verkaufen, die Kunden kaufen sowieso alles von Nvidia, seit Kepler sind die Margen in dem Bereich sehr weit oben, AMDs leere Kassen tun mir leid.

Unicous
2014-07-06, 21:40:26
Wenn man permanent so denkt macht das spekulieren aber keinen spaß mehr.
Für dich sind doch fast alle Quellen nicht Seriös genug...

Es gibt seriöse Quellen die nicht konstant versuchen Bullshit zu verbreiten. Und es gibt PedantOne.


Und nur weil er etwas postuliert hat, was auf der Hand lag muss man ihn nicht als den ungekrönten Leak-King behandeln, boxleitnerb.:rolleyes:
Ob er das von einer Quelle hat oder sich selbst aus dem Arsch gezogen hat bleibt sein Geheimnis. Ich vermute ja eh, dass er ein nicht unbekannter Pausenclown ist. Aber huldige ihm gerne weiter.:freak:

boxleitnerb
2014-07-06, 22:32:37
Es gibt seriöse Quellen die nicht konstant versuchen Bullshit zu verbreiten. Und es gibt PedantOne.


Und nur weil er etwas postuliert hat, was auf der Hand lag muss man ihn nicht als den ungekrönten Leak-King behandeln, boxleitnerb.:rolleyes:
Ob er das von einer Quelle hat oder sich selbst aus dem Arsch gezogen hat bleibt sein Geheimnis. Ich vermute ja eh, dass er ein nicht unbekannter Pausenclown ist. Aber huldige ihm gerne weiter.:freak:

Ohne Polemik gehts nicht, was? Leak-King, huldigen...lächerlich. Ich nehme deine Posts dann wieder ernst, wenn sie im Tonfall so seriös sind, wie du es von anderen forderst.

P.S.
Nö, hab ich auch nicht behauptet.

Unicous
2014-07-06, 22:34:28
Von dir fordere ich... gar nichts.

occ-kh@Mirko
2014-07-06, 22:39:47
Aber bei einer Spekulation geht es nunmal auch um hypothetische Aussagen, sonst braucht man den Spekulationsthread in einem Forum ja nicht einrichten.

Wenn du genaue Aussagen und Quellen willst, findet man die doch unter den Threads des jeweiligen Themenkomplex. Um eine Hypothese zu wiederlegen musst du schon was Wirkliches liefern. Also einen Link der dann den Standpunkt wiederlegt. Derzeit ziemlich schwer.

Hier schreibt ja niemand das es so ist, sondern eher so sein könnte...;). Glaube du beisst da zu sehr, als lieber eigene Hypothesen zu entwickeln. Es geht hier zuweilen um Möglichkeiten anhand einer neuerlichen Information. Wenn man das so einsortiert, kann man das Thema oder die Diskussion auch am Leben erhalten.

hasebaer
2014-07-06, 23:10:22
Und weil wir hier spekulieren, sag ich die GTX 880Ti wird am 23.Okt vorgestellt,
denn es ist ein Donnerstag und den Dienstag die Woche drauf (28.Okt) soll ja GTA V released werden, wäre perfektes Timing.
Dann schaut auch der letzte technikferne Zocker auf die Balken zu GTA V.

occ-kh@Mirko
2014-07-06, 23:30:34
Und weil wir hier spekulieren, sag ich die GTX 880Ti wird am 23.Okt vorgestellt...
Ich nicht, denn ich glaube Nvidia bringt erst die GTX880...ohne ti., wobei das Namensschema ab GM200 auch GTX980 lauten könnte.

Wer den ganzen Listenkrempel mal ganz spekulativ einsehen will, hier der Link: https://www.zauba.com/import-gm204-hs-code.html

Ailuros
2014-07-07, 09:17:14
Der Ton hat sich bei einigen zu maessigen.

Was jetzt den Artikel betrifft wobei ich nicht weiss wieso und warum die Geschichte veroeffentlicht wurde: von dem was ich gehoert hatte gab es vor diesem Andeutungen dass GM204 nicht mehr dieses Jahr erscheinen wird, obwohl hier die Lieferungs-leaks klipp und klar andeuteten dass NV mit A1 in die Produktion gehen wird irgendwann im Herbst.

Nun kommt dieser writeup und stellt klar dass es doch noch dieses Jahr SKUs auf GM204 basierend geben wird (doh!) und direkt danach wird kunterbunt behauptet dass es sehr bald 16FF shrinks davon geben wird (huh?). Das letzte ist technisch nicht unmoeglich, aber mir fehlt die eigentliche Notwendigkeit da die Herstellung selbst eines chips mit mittlerer Komplexitaet immer noch suendhaft teuer sein wird unter 16FF zu dem Zeitpunkt. Aber es kann sich gerne einer von Euch mal die Muehe machen mir in einfachem Deutsch zu erlaeutern warum 16FF Mitte 15' billiger sein soll als 28nm.

Dawn on Titan
2014-07-07, 09:26:37
Wenn man Mitte 2015 Karten mit 16nmFF GPUs verkaufen wollen würde, dann bräuchte man Volume-Production Q1-Anfang Q2/15 und einen Tape-Out ungefähr jetzt. (davon ausgehend, dass ein neuer Prozess tendenziell eher einen Spin braucht) Das ist völlig abwegig. In 16nmFF hatte afaik noch nichts nennenswertes seinen Tape-Out.
Damit ist die Story imho abwegig und das sogar ohne die Kostenseite zu betrachten.

Dural
2014-07-07, 09:59:58
Jep einfach Blödsinn.

Ende 2015 würde ich sagen, wenn nicht sogar 2016 (GM200)

john carmack
2014-07-07, 10:02:41
Was soll dieser Tonfall? Genauso kannst du nicht sagen, dass es nicht stimmt. Er war einer der wenigen, die über das 512-bit SI berichtet haben und er hatte Recht damit. Wir werden es sehen, spekulieren ist hier erlaubt :wink:



Zum ersten: Ja. Würde ich persönlich als GTX 780+ Besitzer nicht kaufen, zu wenig Verbesserung
Zum zweiten: Möglich, allerdings ziemlich spät eben. Hieß es nicht, dass GM200 noch in 28 nm kommt? Wird der dann auch geshrinkt? Und vor allem wann? Generell wundere ich mich über den frühen Einsatz von 16 nm FF.


Wie lange hat damals die Umstellung von 40nm auf 28nm gedauert?
(Wobei 32nm auch ausgelassen wurde...)

Ich wundere mich sowieso warum das mit den 20nm so lange dauert wobei ja schon bei der 290x gemutmaßt wurde das diese in 20nm kommen könnte.
die Erste 7970 wurde ja schon ende Dez. 2011 in 28nm vorgestellt.

Und jetzt soll allen ernstes die "Dritte" Generation in 28nm kommen?

Hätte nicht gedacht das sich die Entwicklung so verlangsamt hat.
Wobei man auch zugeben muss das man sich Chips mit unglaublichen 10.000.000.000 Transitoren nähert!
Da kann man sich schon vorstellen das es nicht leicht ist sowas zu produzieren.

john carmack
2014-07-07, 11:13:54
16nm FinFet ist somit eine "Fehlbezeichnung"

https://www.semiwiki.com/forum/content/1789-16nm-finfet-versus-20nm-planar.html

Dawn on Titan
2014-07-07, 11:41:33
Das ist nicht neu. Ebenso ist es nicht neu, dass es immer länger dauert bis ein neuer Prozess wirtschaftlicher ist als ein alter und dabei setzte man vergleichbare Prozesse an. 20nm SOC ist aber für GPUs nicht wirklich vergleichbar zu 28nm HP. Der Prozess hat eine andere Zielsetzung (was ja auch in vielen TSMC Folien zu sehen ist). Finfet verdoppelt ungefähr die Produktionskosten bei der Wafer-Lithographie noch einmal gegenüber 20nm SOC (triple-Patterning sei Dank) und erhöht die Produktionskosten insgesamt um rund 40%. Wenn man nun bedenkt, dass die Logik-Dichte gegenüber 28nm deutlich weniger als um Faktor 2 steigt, die Produktionskosten aber deutlich über Faktor 2 steigen (bei gleichen Yields !!) wird jeder einzelne Transistor teurer.

Details:
http://www.google.de/imgres?imgurl=http://www.elektroniknet.de/uploads/media_uploads/images/1370260651-171-foundry-events-01.jpg&imgrefurl=http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/&h=612&w=900&tbnid=QV7Uhseg1hWFbM:&zoom=1&tbnh=90&tbnw=132&usg=__qMXr0dgk96e2HwtBSgIrsOxvwA8=&docid=_BRmYtrhFGlV_M&client=firefox-a&sa=X&ei=4Gi6U9uqJ8nP4QTRyoDYCA&ved=0CGMQ9QEwBw&dur=137

HOT
2014-07-07, 12:08:37
Das könnte auch ein simpler Zahlenfehler sein. Kann einfach sein, dass da einer ne 5 statt ne 6 aufgeschrieben hat. Q1 2016 hört sich absolut plausibel für 16nm an.

Godmode
2014-07-07, 12:12:16
Ich kann mir schwer vorstellen das man nach 4-5 Monaten schon wieder einen neuen Chip bringt. Das gabs früher mal, wo nach 6 Monaten ein Refresh anstand.

Was ich interessanter fände ist, ob dann in 2015 noch ein 28nm GM200 kommt oder nicht.

Loeschzwerg
2014-07-07, 12:20:23
Was ich interessanter fände ist, ob dann in 2015 noch ein 28nm GM200 kommt oder nicht.

Im Hinblick auf Gaming wäre GM200 sicherlich nicht nötig, der GM204 kann das gut überbrücken, aber was bietet NV derweil in den anderen Bereichen?

HOT
2014-07-07, 12:29:19
MMn liegt GM200 bei über 600mm² und ist noch mal schneller als GM204 und kommt dann als TitanII auf den Markt. GM204 wird eine neue Geforce Generation zum Jahreswechsel (mMn erst in 2015) anführen und in 2015 noch mal einen GM200 nachlegen. In Q1 2016 kommt dann der Shrink des GM204 und GM200 und danach Pascal. Hört sich für mich nach einem plausiblen Fahrplan an.

Dawn on Titan
2014-07-07, 12:36:20
Über 600mm² glaube ich nicht. Ich denke knapp unter 600mm² wobei das Delta zu GM204 kleiner sein wird als zwischen GK104 und GK110.

HOT
2014-07-07, 12:45:07
Über 600mm² glaube ich nicht. Ich denke knapp unter 600mm² wobei das Delta zu GM204 kleiner sein wird als zwischen GK104 und GK110.
Oder so. Ist noch plausibler.

Ailuros
2014-07-07, 12:45:49
Wie lange hat damals die Umstellung von 40nm auf 28nm gedauert?
(Wobei 32nm auch ausgelassen wurde...)

Es ist im gegebenen Fall kein Verfuegbarkeits-Problem fuer 16FF in Mitte 2015 sondern eher ein Thema von Kosten pro chip.

Ich wundere mich sowieso warum das mit den 20nm so lange dauert wobei ja schon bei der 290x gemutmaßt wurde das diese in 20nm kommen könnte.
die Erste 7970 wurde ja schon ende Dez. 2011 in 28nm vorgestellt.

Und jetzt soll allen ernstes die "Dritte" Generation in 28nm kommen?

Hätte nicht gedacht das sich die Entwicklung so verlangsamt hat.
Wobei man auch zugeben muss das man sich Chips mit unglaublichen 10.000.000.000 Transitoren nähert!
Da kann man sich schon vorstellen das es nicht leicht ist sowas zu produzieren.

So schlimm ist es nun auch wieder nicht dass Du einiges "verschlafen" hast. 28nm ist der Kosten-effektivste Prozess momentan und wird es auch bleiben. IHVs bezahlen heute ungefaehr 4-4.5k fuer einen 28nm wafer waehrend ein 20SoC wafer ueber 6k kostet, mal tools und andere Nebenkosten gar nicht mitberechnet.

16nm FinFet ist somit eine "Fehlbezeichnung"

https://www.semiwiki.com/forum/content/1789-16nm-finfet-versus-20nm-planar.html

Sie ist keine Fehlbezeichnung und ich weiss schon von was ich rede.

Nakai
2014-07-07, 13:01:22
Also laut PedantOne setzt NV einen GM204 in 28nm auf um ihn 3-4 Montate später durch einen 16FF Shrink zu ersetzen und nennt die Karten dann noch nichtmal um? Korrekt zusammengefasst?

Und ich dachte schon nur mir bekommt die Hitze nicht...

Nein, der Shrink wird Anfang 2015 umgesetzt und kommt End 2015, ergo ein Jahr später. Also kann daraus Q4 2015/Q1 2016 werden.

GM204 ist über 360mm² groß und hat kein 384 Bit SI. Bei einem 20nm FF shrink, wird der Chip etwa 200~250mm² groß, womit ein 256Bit SI noch möglich ist.


mfg

occ-kh@Mirko
2014-07-07, 13:07:50
Also wenn man den Nachrichtengurus dieses Forums Glauben schenkt, auch kein Dogma: http://www.3dcenter.org/news/20nm-grafikchips-mit-weit-weniger-performancegewinn-als-erwartet

Dort wurde ja vermutet das 20nm im Part1 eher effizienter aber nicht bedeutet schneller sein können. Wenn man 28nm jetzt soweit optimiert hat um auf die gleiche Performance zu kommen und dann auch noch eine hohe Ausbeute erzielt und ggf. so wie bei 750ti & Co effiziensgerichtet optimieren kann, wo ist das Problem?

Bei derzeitigen Absatzzahlen steckt keiner irgendwelche unnötigen Investitionen in einen Fertigungsprozess um dann mit 20nm 5% Schneller zu sein aber bedeutet mehr Geld verpulvern zu müssen, da kann ein Die so klein sein wie es will. Das macht keinen Sinn, soweit die Fertigungskosten dann auch noch steigen.

16nm sind schon sinnvoll, nur ob sie so zeitig kommen, ich denke eher nicht. Da wäre eher zuwischendurch ein optimierter 20nm angezeigt, bei dem man dann etwas einspart um dem Ganzen dann noch etwas auf die Sprünge zu helfen.

Nakai
2014-07-07, 13:24:47
Dort wurde ja vermutet das 20nm im Part1 eher effizienter aber nicht bedeutet schneller sein können. Wenn man 28nm jetzt soweit optimiert hat um auf die gleiche Performance zu kommen und dann auch noch eine hohe Ausbeute erzielt und ggf. so wie bei 750ti & Co effiziensgerichtet optimieren kann, wo ist das Problem?

Ich propagiere, dass schon seit Wochen/Monate, dass 20nm kein Effizienzmonster ist und deswegen Probleme verursacht.

Erst 20nm FF bringt das, was man von einem neueren Prozess erwartet.

16nm sind schon sinnvoll, nur ob sie so zeitig kommen, ich denke eher nicht. Da wäre eher zuwischendurch ein optimierter 20nm angezeigt, bei dem man dann etwas einspart um dem Ganzen dann noch etwas auf die Sprünge zu helfen.

20nm wird so ziemlich ausgelassen, seitens der GPU-IHVs.
Nur im ULP-Markt, also SOCs, wird 20nm interessant.

john carmack
2014-07-07, 13:34:21
Sie ist keine Fehlbezeichnung und ich weiss schon von was ich rede.




Und was meinen die dann damit? Oder habe ich jetzt etwas falsch verstanden?

"Given that, the 16nm FinFET process technology is a bit of a misnomer. It was probably named by Marketing people to imply that the resulting performance when transitioning from planar to FinFET in a 20nm lithography process would be “between 20nm planar and 14nm FinFET”."

Unicous
2014-07-07, 13:35:40
@Nakai

Es über Wochen zu propagieren und dann keine Beweise dafür zu liefern lässt mich dann aber doch eher kalt.:ass2:

Effizienzmonster hin, Probleme her.

occ-kh@Mirko
2014-07-07, 13:36:35
20nm wird so ziemlich ausgelassen, seitens der GPU-IHVs. Nur im ULP-Markt, also SOCs, wird 20nm interessant.
Genauso, damit hätte ich mit 28nm überhaupt kein Problem, zumal die Preise in bestimmten Bereichen schon Schmerzgrenzen überschritten haben. Ein optimierter 28nm kann wohl die Kosten etwas senken und somit auch preiswerter erscheinen, wenn man es nicht übertreibt.

Vorerst knüpfen sich eher Vorteile an den optimierten Prozess, es wäre daher Blödsinn auf 20nm komme was wolle zu wechseln. Ein späteres Update macht da schon Sinn.

Natürlich stellt sich die Frage der Neuerungen, aber da gabs in der Vergangenheit genug, wobei man nicht mal neuste Chips bräuchte um diese zu unterstützen.

Die Technologiefutzies werden aufschreien, mir ist das völlig egal soweit man mehr Perfomance mit ausbaufähigen FL und effizientere bzw. dann in bestimmten Bereichen sogar preiswerte Angebote liefern kann.

Ist doch alles gut.

Skysnake
2014-07-07, 14:40:30
Ich kann mir schwer vorstellen das man nach 4-5 Monaten schon wieder einen neuen Chip bringt. Das gabs früher mal, wo nach 6 Monaten ein Refresh anstand.

Was ich interessanter fände ist, ob dann in 2015 noch ein 28nm GM200 kommt oder nicht.
Ich halte das auch für sehr sehr unwahrscheinlich. Wenn überhaupt kann das nur klappen, wenn TSMC einen einfachen shrink (Port) von 28nm auf 20/16nm anbietet. Mir wäre aber nicht bekannt, dass es das gibt.

Und selbst wenn, wird man wohl kaum FinFets einfach so in sein Design bekommen. Zudem wird man im Vergleich zu einem nativen 16/20nm Design wahrscheinlich etwas auf der Strecke liegen lassen an Effizienz.

Also ich glaube nicht wirklich, das man sich die Kosten für eine derart kurze Laufzeit geben wird.

Dawn on Titan
2014-07-07, 14:47:15
http://www.elektroniknet.de/uploads/media_uploads/images/1370261341-171-foundry-events-03.jpg

Einfach mal anschauen.

Dazu


Wie GLOBALFOUNDRIES hat auch TSMC seine erste Generation FinFETs durch den Bau von Testwafern mit ARM-Prozessoren als auch mit anderen Prozessoren getestet. Wafer in 16nm FF, die ein Cortex-A57-Design mit ARMs 7.5-Track-Bibliothek implementierten, zeigen gegenüber einer 20-nm-Umsetzung eine um 16% höhere Taktfrequenz bei gleicher Leistungsaufnahme. Diese wiederum sinkt um 25%, wenn die Taktfrequenz auf demselben Wert wie beim 20-nm-Design gehalten wird. Die Ausbeuten sind nach Angaben des Unternehmens „über Plan.“

In anderen Tests zeigte TSMCs 16-nm-FF-Prozess durchschnittlich 10% höhere Taktfrequenzen oder eine 37%-Reduzierung des Energieverbrauchs im Vergleich zu 20 nm. Die Leckströme sanken um mehr als 69%. Wenn die Spannung erhöht wurde, um die Leckströme auf demselben Niveau zu halten wie in 20-nm-Technologie, lief der 16-nm-Chip 26% schneller. Der einzige Nachteil war, dass die Silizium-Fläche nur um 3% kleiner wurde –eine Folge des Baus der FinFETs auf der 20-nm-Basis.

http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/3/

|MatMan|
2014-07-07, 15:02:40
Ich halte das auch für sehr sehr unwahrscheinlich. Wenn überhaupt kann das nur klappen, wenn TSMC einen einfachen shrink (Port) von 28nm auf 20/16nm anbietet. Mir wäre aber nicht bekannt, dass es das gibt.

Und selbst wenn, wird man wohl kaum FinFets einfach so in sein Design bekommen. Zudem wird man im Vergleich zu einem nativen 16/20nm Design wahrscheinlich etwas auf der Strecke liegen lassen an Effizienz.

Also ich glaube nicht wirklich, das man sich die Kosten für eine derart kurze Laufzeit geben wird.
Das sehe ich auch so.

Ebenso erwarte ich aus den gleichen Gründen keinen simplen Shrink auf 16FF. Bis 2016 vergeht einfach zu viel Zeit um da nicht auch an der Architektur was zu verbessern - was gegen XeonPhi auch benötigt werden wird. Einen Shrink kann es schon geben, nur würde ich das Resultat dann nicht mehr im Highend-Bereich sehen.

Dawn on Titan
2014-07-07, 15:07:47
Ist es so unvorstellbar, dass der Shrink ein Refresh-Chip ist?

Unicous
2014-07-07, 15:14:29
Schwer vorstellbar ist der Zeitraum gepaart mit Nvidias Sparfuchsphilosophie.

Aber lustig, das S|A sonst verteufelt wird, aber wenn jemand scheinbar Zugriff zu einem Bezahl-Artikel hat, wird das für voll genommen und gleich gepostet.

videocardz.com hat es übrigens auch schon verwurstet, von daher wird das für mich immer unheimlicher.

Wäre geil wenn, OBR... oh Entschuldigung PedantOne sich das ausm Arsch gezogen hat, ein paar Floskeln von Charlie geklaut und versucht hat an "Medien" zu verkaufen. Andererseits ist er ja Nvidia-Fan. Genau wie OBR seinerzeit.;)

boxleitnerb
2014-07-07, 15:30:06
So what? Es ist wirklich lächerlich, die persönliche Präferenz für eine Marke mit dem Informationsgehalt einer Meldung/Post in Zusammenhang zu bringen. Es kann eine Auswirkung haben, muss aber noch lange nicht so sein. Das tut man nur dann, wenn man sonst keine Argumente mehr hat.
Was bei SA unhaltbar ist, ist der Bias. Die Informationen mögen teilweise akkurat sein, deren Interpretation ist aber nicht neutral. Über Probleme bei Nvidia und Intel wird ausgiebigst berichtet, bei AMD werden schonmal ein paar Augen zugedrückt. Etwas von SA zu posten ist vollkommen ok, wenn man selbst mitdenken und den Hass, den er auf NV und Intel hat, eben ausblenden kann. Man kann Informationen durchaus kritisch hinterfragen, nur sollte man nicht auf das Niveau sinken, Informationen anhand des Überbringers zu bewerten.

Was jetzt auch geil wäre:
Wenn man zum Thema an sich zurückkommen könnte. Das wäre wirklich sehr sehr geil...

Unicous
2014-07-07, 15:37:50
Ich glaube Ailuros hatte es schon letztes Jahr gepostet. Das ist so der Track Record von PedantOne z.B. bei der Hawaii Spekulation.

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207925&viewfull=1#post5207925

Du müsstest von uns Allen am besten wissen wovon ich spreche, schließlich bist du bei XS angemeldet.:rolleyes:

Ergo kennst du auch die weiteren Auslassungen von PedantOne, dem Menschen der ähnlich wie OBR, im gebrochen Englisch Bullshit auf die Menschheit loslässt.

PedantOne ist nicht seriös, daher macht es auch keinen Sinn sein Auslassungen zu verbreiten.

boxleitnerb
2014-07-07, 16:03:52
Das entscheidest nicht du. Denn es kann immer sein, dass jemand doch mal an richtige Infos rankommt. Es gibt meines Wissens nach keine Zensurrichtlinien in diesem Forum was Spekulationen betrifft.
Genauso wurde über Hawaii als teildeaktiviertem Chip diskutiert, was in Anbetracht von Dave Baumanns Aussage auf b3d genauso unsinnig wäre. Trotzdem bereichern auch haltlose(re) Spekulationen das Forum, sonst gibt es nichts mehr zu spekulieren...das eine stimmt, das andere nicht und wieder andere Sachen liegen irgendwo dazwischen. Big deal...

hasebaer
2014-07-07, 16:43:50
Mal angenommen es ist original von SA abgeschrieben.
Die Behauptung dass 16nm keine 6 Monate nach Release der 28nm Modelle veröffentlicht werden soll,
klingt nach einem klassischen Osborne-Effekt (http://en.wikipedia.org/wiki/Osborne_effect).
Und man könnte SA unterstellen, genau so einen provozieren zu wollen.

Also man nimmt die ohnehin nicht mehr geheime Annahme das Nvidia im Herbst mit GM204 kommen wird.
Jetzt kauft die aber keine Sau, wenn jeder glaubt, dass nur 4-5 Monate später die viel geileren 16nm Maxwell Refresh kommen.

Unicous
2014-07-07, 16:43:51
@boxleitnerb

Seit wann bereichern (vermeintliche) Lügen Spekulationen?

Diese Doppelmoral ist echt putzig.

Charlie Demerjian ist doch scheiße. Aber wenn ich einen (vermeintlichen) Artikel von ihm in die Händ bekomme, ist mir die Sekundärquelle herzlich egal.

:rolleyes:

Mit Trolls verhandelt man nicht, oder wie auch immer dieser Spruch nochmal heißt. Jeder der ihm eine Bühne bereitet macht sich mitschuldig.



Es geht hier übrigens nicht um deine eigenen Spekulationen, sondern um die Spekulationen anderer, die du hier verbreitest. Die kann man ja wohl mal etwas strenger beäugen, oder etwa nicht?


(P.S. PedantOne hatte ja mal behauptet er wäre Deutscher.:rolleyes: OBR wohnt glaube seit 2013 in Berlin. *rotzkotz)

ndrs
2014-07-07, 17:08:44
Solange dazugeschrieben wird, wo die Sachen herkommen finde ich es vollkommen i.O. jegliches Gerücht und Artikel zum Thema anzubringen. Besser so, als dass es irgendwann doch von einer halbwegs seriösen Seite aufgegriffen wird und über diesen Umweg hier landet. Dann wird es nämlich doch nochmal ernsthafter betrachtet, weil die ursprüngliche Qualle irgendwo verloren gegangen ist..

boxleitnerb
2014-07-07, 17:09:31
Der Punkt ist eben, dass niemand den Wahrheitsgehalt letztendlich bestimmen kann. Deswegen heißt es Spekulationsforum.
Das ist keine Doppelmoral - ich schaffe es lediglich, die Information selbst von der Quelle zu trennen. Diskutieren kann und sollte man immer.

Unicous
2014-07-07, 17:16:50
Das ist keine Doppelmoral - ich schaffe es lediglich, die Information selbst von der Quelle zu trennen. Diskutieren kann und sollte man immer.

Dann solltest du vllt. bei WTFtech und Co. anheuern. Die trennen nämlich auch immer die Quelle von der Information.

*scnr

Botcruscher
2014-07-07, 17:47:26
Es ist im gegebenen Fall kein Verfuegbarkeits-Problem fuer 16FF in Mitte 2015 sondern eher ein Thema von Kosten pro chip.

Seit Titan zählt das Argument nur bedingt. Dann gibt es halt die kleine für 1499 und den großen für 1999€.
Zum ganzen kommt noch der Marketingeffekt des Marktführers und die Multiplikatoren. Wir reden hier ja über eine Zeitspanne von mindestens einem Jahr.

Nakai
2014-07-07, 18:04:48
Dann solltest du vllt. bei WTFtech und Co. anheuern. Die trennen nämlich auch immer die Quelle von der Information.

*scnr

Hast du schon mal irgendwelche solche Infos gekriegt?

occ-kh@Mirko
2014-07-07, 18:17:18
@boxleitnerb

Seit wann bereichern (vermeintliche) Lügen Spekulationen?

Diese Doppelmoral ist echt putzig.

Charlie Demerjian ist doch scheiße. Aber wenn ich einen (vermeintlichen) Artikel von ihm in die Händ bekomme, ist mir die Sekundärquelle herzlich egal.

:rolleyes:

Mit Trolls verhandelt man nicht, oder wie auch immer dieser Spruch nochmal heißt. Jeder der ihm eine Bühne bereitet macht sich mitschuldig.



Es geht hier übrigens nicht um deine eigenen Spekulationen, sondern um die Spekulationen anderer, die du hier verbreitest. Die kann man ja wohl mal etwas strenger beäugen, oder etwa nicht?


(P.S. PedantOne hatte ja mal behauptet er wäre Deutscher.:rolleyes: OBR wohnt glaube seit 2013 in Berlin. *rotzkotz)
Woran du dich hier aufschießt, ehrlich gesagt ich kann dir nicht mehr folgen, ist es zu warm?

Der ist Schei**, der auch und der auch...nur man selber nicht. Die hier auch http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidia-Maxwell-Veroeffentlichung-GTX-880-GTX-870-GTX-860-1127852/ weil sie lügen und Unwahrheiten verbreiten wobei sie sich eigentlich nur für aktuelle spekulative Diskussionsthemen interessieren...in der Sommerpause auch nicht schlecht.

Ich raffs nicht mehr, andere als Trolle hinstellen und selber trollen...:uexplode:

/e: ...mit so'ner Handhabe hält man zuweilen die weg, die eigentlich interessante Infos liefern könnten, schon mal drüber nachgedacht?

Unicous
2014-07-07, 18:22:03
Da du OBR offensichtlich nich kennst, verbitte ich mir einen Troll-Vergleich mit ihm.

sulak
2014-07-07, 18:25:10
Gab es bei Zauba auch mal wieder einen GM206 zu sehen? Der war doch einmal aufgetaucht.
Könnte darauf hinweisen, das jemand mal wieder falsch interpretiert. GM204=GTX880/870 und GM206=GTX860/850 - quasi "wie bisher". Und den Refresh Chip in einer kleineren Fertigung gab es ja früher (z.b. G80-G92)

occ-kh@Mirko
2014-07-07, 18:35:08
Da du OBR offensichtlich nich kennst, verbitte ich mir einen Troll-Vergleich mit ihm.
Mensch @unicous, komm doch jetzt wieder zurück zum Thema. Wenn dir etwas an den spekulativen (Eigen-) Betrachtungen nicht gefällt, wiederleg es doch. Technisches Verständnis und Informatives Knowhow hast du aus meiner Sicht genug...;). Und nimm nicht gleich alles persönlich. Irgendwie schießt du übers Ziel hinaus...nicht kennen, naja. Der verbittet sich wahrscheinlich genauso das du in diesem Zusammenhang jemanden als Troll bezeichnest und als Lügner etc. ... liest auch was du schreibst und bist du dir der Aussenwirkung bewusst?

HOT
2014-07-07, 18:38:13
Also für mich ist trollen andere zu beschimpfen, möglichst polemisch zu sein und OT zu bleiben ;). Das trifft hier nur auf einen zu...

Einen reinen Shrink wird es sicherlich nicht geben, eher einen Maxwell-Refresh im neuen Prozess mit DX12-Featureset dann.

Kriton
2014-07-07, 18:43:30
Das ist für mich die interessanteste Frage: Ab wann sehen wir DX12 Support?

HOT
2014-07-07, 18:47:09
Für die jetzigen Chips ist DX12 zu früh. Wenn so ein Ding in Silizium geht, sind dem ja schon etliche Monate an Entwicklung vorausgegangen. Für mich ist die große Frage ob Maxwell 2xx DX11.2 beherrscht und ob er theoretisch Mantle-fähig wäre.

Botcruscher
2014-07-07, 18:52:34
DX12 bringt doch in Hardware nichts neues.

Rente
2014-07-07, 18:54:53
DX12 bringt doch in Hardware nichts neues.
Das ist nicht gänzlich korrekt, Microsoft und auch nVidia haben dazu einfach noch keinerlei Wort verloren.

occ-kh@Mirko
2014-07-07, 18:58:30
Wieso, hat M$ dies nicht bereits als reines Softwareupdate angekündigt? http://www.3dcenter.org/news/microsoft-kuendigt-directx-12-als-software-update-fuer-ende-2015

Locuza
2014-07-07, 19:04:05
Für mich ist die große Frage ob Maxwell 2xx DX11.2 beherrscht und ob er theoretisch Mantle-fähig wäre.
Fermi ist vermutlich schon Mantle fähig.

DX12 bringt doch in Hardware nichts neues.
Conservative Rasterization und einen Pixelsync Pendanten soll es geben.

Wieso, hat M$ dies nicht bereits als reines Softwareupdate angekündigt? http://www.3dcenter.org/news/microsoft-kuendigt-directx-12-als-software-update-fuer-ende-2015
http://techreport.com/news/26210/directx-12-will-also-add-new-features-for-next-gen-gpus

Rente
2014-07-07, 19:04:41
Wieso, hat M$ dies nicht bereits als reines Softwareupdate angekündigt? http://www.3dcenter.org/news/microsoft-kuendigt-directx-12-als-software-update-fuer-ende-2015
Das Update vom 21. März ist der interessante Punkt: http://www.computerbase.de/2014-03/unterstuetzt-directx-12-bedeutet-amd-nvidia/
Es ist unwahrscheinlich, aber nicht gänzlich unmöglich das es auch neue Features geben könnte (ähnlich wie bei Featurelevel 11_1 und 11_2).

Edit: Bzw. siehe den tr-Link von Locuza. ;)
Microsoft hat also sogar 2 Feature angekündigt.

occ-kh@Mirko
2014-07-07, 19:12:38
@Locuza @Rente

Danke für den Link und Hinweis, habs nicht ganz mitverfolgt...;) (zuviel anderen Krempel im Kopf).

Ex3cut3r
2014-07-07, 20:58:14
Full DX12, wäre schon nett zum mitnehmen, und ein starkes Kaufargument, mal abwarten, von meiner OC GTX 770 scheint mir der Sprung auf eine GTX 880 außer beim VRAM etwas zu gering.

Raff
2014-07-07, 21:42:32
Full DX12, wäre schon nett zum mitnehmen, und ein starkes Kaufargument, mal abwarten, von meiner OC GTX 770 scheint mir der Sprung auf eine GTX 880 außer beim VRAM etwas zu gering.

Wenn man beide Chips auf die gleiche Frequenz bringt, ist der Unterschied gewiss riesig (das ist's schon bei GK104 vs. GK110).

MfG,
Raff

Ailuros
2014-07-07, 22:27:42
Und was meinen die dann damit? Oder habe ich jetzt etwas falsch verstanden?

"Given that, the 16nm FinFET process technology is a bit of a misnomer. It was probably named by Marketing people to imply that the resulting performance when transitioning from planar to FinFET in a 20nm lithography process would be “between 20nm planar and 14nm FinFET”."

16FF ist ungefähr auf 17nm Niveau.

Godmode
2014-07-07, 22:27:51
Wenn man beide Chips auf die gleiche Frequenz bringt, ist der Unterschied gewiss riesig (das ist's schon bei GK104 vs. GK110).

MfG,
Raff

Ich möchte diese Runde GM204 auslassen und auf GM200 in 16nm warten. Mal sehen ob ich das durchhalte. :wink:

Ailuros
2014-07-07, 22:34:06
Seit Titan zählt das Argument nur bedingt. Dann gibt es halt die kleine für 1499 und den großen für 1999€.
Zum ganzen kommt noch der Marketingeffekt des Marktführers und die Multiplikatoren. Wir reden hier ja über eine Zeitspanne von mindestens einem Jahr.

Nein wenn Du wirklich weist was im besprochenen Artikel steht.

Unicous und boxleiternerb loesst den Blödsinn via PM. Es reicht mit dem OBR Zeug. Es ist schon die zweite Vorwarnung. Eine dritte wird es nicht geben.

Sonst für die Leser hier da es keiner mit dem ersten Versuch verstanden hat es rudert der Autor lediglich zurück um seinen Dreck zu verdecken. 204 ist mit A1 wohl produktionsreif; können wir auf der Basis aufbauen?

Raff
2014-07-07, 22:34:23
Ich möchte diese Runde GM204 auslassen und auf GM200 in 16nm warten. Mal sehen ob ich das durchhalte. :wink:

Du hast von Titanen auf 780-Ti-Karten aufabgerüstet – daher bezweifle ich das stark. :biggrin: GTX 880: Mit OC +20 Prozent auf die GTX 780 Ti und dazu 4 GiB, wie klingt das? ;)

MfG,
Raff

Ailuros
2014-07-07, 22:47:59
Du hast von Titanen auf 780-Ti-Karten aufabgerüstet – daher bezweifle ich das stark. :biggrin: GTX 880: Mit OC +20 Prozent auf die GTX 780 Ti und dazu 4 GiB, wie klingt das? ;)

MfG,
Raff

Nur mit einer 200W TDP und knapp 400 Euro klingt es umwerfend genug für ein mögliches quad SLi :P

occ-kh@Mirko
2014-07-07, 23:11:57
Nur mit einer 200W TDP und knapp 400 Euro klingt es umwerfend genug für ein mögliches quad SLi
Da müssen bessere Treiber her, aber dann...ja. Mitnehmen.

Ich möchte diese Runde GM204 auslassen und auf GM200 in 16nm warten.
Da glaubste doch selber nicht dran, auslassen??? Vllt. bis Ende 2015 oder Anfang 2016 warten und alle mit einer Performance Karte sind dann schneller??? Da kenne ich andere Egos von ehemaligen Titan-Boys...;).

Zumal schon gesagt wurde das der GM204 nicht unbedingt für GK110 Besitzer gemacht sein muss. Wenn er aber gute OC Eigenschaften mitbringt...dass dürfte wohl so sein + Speicherzuwachs... dann würde ich jedenfalls ein Zwischenupdate vornehmen.

Ex3cut3r
2014-07-07, 23:21:35
GTX 880: Mit OC +20 Prozent auf die GTX 780 Ti und dazu 4 GiB, wie klingt das? ;)

MfG,
Raff

IMO, nicht schlecht :D Aber ich muss es irgendwie schaffen auf den TopDog in 16nm zu warten, und dann nochmal zusätzlich auf den GTX 780 Nachfolger, denn 1000€ für die Titan 2 lege ich nicht auf den Tisch. ;)

Timbaloo
2014-07-07, 23:56:47
Da glaubste doch selber nicht dran, auslassen??? Vllt. bis Ende 2015 oder Anfang 2016 warten und alle mit einer Performance Karte sind dann schneller??? Da kenne ich andere Egos von ehemaligen Titan-Boys...;).
;D

Nakai
2014-07-08, 00:06:32
Du hast von Titanen auf 780-Ti-Karten aufabgerüstet – daher bezweifle ich das stark. :biggrin: GTX 880: Mit OC +20 Prozent auf die GTX 780 Ti und dazu 4 GiB, wie klingt das? ;)

MfG,
Raff

Sehr gut. Das ist btw. etwa GTX770 +80%. Nur mal so: GTX 750Ti hat eine TDP von etwa 65W und Titan ist etwa 3mal so schnell.

Milchmädchen:
Bei 2560SPs sind das 4fache Leistung und +33% auf Titan.

In der Realität wird es wohl nur knapp über Titan sein, bei niedrigeren Auflösung ruhig etwas mehr. Ich bin wirklich auf den Cache gespannt.

aufkrawall
2014-07-08, 00:29:58
Sehr gut. Das ist btw. etwa GTX770 +80%.
Mit einer OCten 780 Ti ist man häufig schon bei 70% vor einer 770.
Wenn GM204 ordentlich Takt mitmacht, dürften mehr drin sein. Tippe auf 90-100%, wenn man beide bei ausgefahrenem Takt vergleicht.

Dawn on Titan
2014-07-08, 07:40:10
GM204 wendet sich eher weniger an die Besitzer vom 780/Titan, eher GK104 und älter / kleiner. Ich könnte mir vorstellen meine 670 damit zu ersetzen, wenn TDP <180W und es leise Herstellerkarten gibt. (Last <1,5 Sone nach PCGH Methode)

Godmode
2014-07-08, 09:31:16
Du hast von Titanen auf 780-Ti-Karten aufabgerüstet – daher bezweifle ich das stark. :biggrin: GTX 880: Mit OC +20 Prozent auf die GTX 780 Ti und dazu 4 GiB, wie klingt das? ;)


Nein ich hab auf ne 760 Ti abgerüstet die momentan nicht genutzt wird. Wenn es wieder mal ein gutes Spiel gibt, dann kann es schon sein das ich wieder auf was stärkeres aufrüste.



Da glaubste doch selber nicht dran, auslassen??? Vllt. bis Ende 2015 oder Anfang 2016 warten und alle mit einer Performance Karte sind dann schneller??? Da kenne ich andere Egos von ehemaligen Titan-Boys...;).


Ich denke schon. Allerdings zocke ich immer Winter doch häufiger als im Sommer, daher könnte ich schon zum Upgrade verleitet werden.

GM204 wendet sich eher weniger an die Besitzer vom 780/Titan, eher GK204 und älter / kleiner. Ich könnte mir vorstellen meine 670 damit zu ersetzen, wenn TDP <180W und es leise Herstellerkarten gibt. (Last <1,5 Sone nach PCGH Methode)

Ein übergangs-SLI bis zum 16nm GM200 wäre damit auch gut machbar.

Ailuros
2014-07-08, 11:17:08
GM204 wendet sich eher weniger an die Besitzer vom 780/Titan, eher GK204 und älter / kleiner. Ich könnte mir vorstellen meine 670 damit zu ersetzen, wenn TDP <180W und es leise Herstellerkarten gibt. (Last <1,5 Sone nach PCGH Methode)

GK204? Ok und wie sieht es mit GP204 dann aus? :freak:

gnomi
2014-07-08, 11:50:13
Mit einer OCten 780 Ti ist man häufig schon bei 70% vor einer 770.
Wenn GM204 ordentlich Takt mitmacht, dürften mehr drin sein. Tippe auf 90-100%, wenn man beide bei ausgefahrenem Takt vergleicht.

Sie sollte auf jeden Fall so schnell wie die besseren 780TI OC Karten laufen und ein paar Goodies wie bspw. erweiterte DX 12 Features und geringeren Stromverbrauch plus mehr Speicher mitbringen.
Ansonsten sehe ich selbst mit meiner GTX 680 noch keinen Aufrüstgrund, denn die GPU Leistung alleine wird etwas unbedeutender, wenn sich jetzt langsam die Softwareseite verbessert.

Dawn on Titan
2014-07-08, 12:03:03
GK204? Ok und wie sieht es mit GP204 dann aus? :freak:

Wie meinen?

Leonidas
2014-07-08, 12:15:52
Wieso, hat M$ dies nicht bereits als reines Softwareupdate angekündigt? http://www.3dcenter.org/news/microsoft-kuendigt-directx-12-als-software-update-fuer-ende-2015


Es wurde so angekündigt. In den Nachträgen steht aber schon drin, daß es allerhöchstwahrscheinlich auch HW-Neuerungen geben wird.

Ailuros
2014-07-08, 12:22:32
Wie meinen?

Es war ein harmloser Scherz da es offensichtlich keinen GK204 gibt. GP204 waere ein hypothetischer Pascal performance chip :P

Dawn on Titan
2014-07-08, 13:04:21
Es war ein harmloser Scherz da es offensichtlich keinen GK204 gibt. GP204 waere ein hypothetischer Pascal performance chip :P

Ach klar, den Fehler hatte ich überlesen als ich es geschrieben habe. :smile:

Godmode
2014-07-08, 13:36:26
Es war ein harmloser Scherz da es offensichtlich keinen GK204 gibt. GP204 waere ein hypothetischer Pascal performance chip :P

2016 dann laut Roadmap :)

http://images.anandtech.com/doci/7900/PascalRoadmap.jpg

Ailuros
2014-07-08, 13:43:08
Pascal ist geziehlt nicht direkt ueber 2016 eingetragen :P

Godmode
2014-07-08, 14:28:31
Pascal ist geziehlt nicht direkt ueber 2016 eingetragen :P

Der Pascal Release hängt wohl davon ab, wann der 16nm GM200 erscheint.

HOT
2014-07-08, 14:53:55
Es ist sicherlich wahrscheinlich, dass es tatsächlich noch einen Maxwell-Refresh in 16nm geben wird und danach Pascal als neue µArch erscheint, so Mitte bis Ende 2016.

Ailuros
2014-07-08, 18:15:11
Moment mal wir hatten ab September 2012 >6 FLOPs DP/W mit GK110, Maxwell GM200 wird wohl den Wert erst Anfang 2015 auf =/>12 FLOPs DP/W steigen und ihr wollt ca. 1.5 Jahr danach gleich >20 FLOPs DP/W sehen? Ich bin wohl der einzige dem es zu optimistisch klingt :rolleyes:

Nakai
2014-07-08, 18:22:54
Wenn NV einen GM200 bringt, wird er, wie GK110, lang halten müssen.
Eventuell sehen wir dann erstmal einen GM210 als Refresh.

AffenJack
2014-07-08, 19:51:22
Moment mal wir hatten ab September 2012 >6 FLOPs DP/W mit GK110, Maxwell GM200 wird wohl den Wert erst Anfang 2015 auf =/>12 FLOPs DP/W steigen und ihr wollt ca. 1.5 Jahr danach gleich >20 FLOPs DP/W sehen? Ich bin wohl der einzige dem es zu optimistisch klingt :rolleyes:

Die Grafik zeigt SGEMM Werte, nicht DGEMM. Wie DP Leistung wird, ist ne andere Frage. Aber ja, ich gehe von GP100 definitiv 2016 aus in Supercomputern, vielleicht sogar H1. GM200 ist nix anderes als nen kurzfristiger Zwischenschieber in meinen Augen. Ich schätze sogar, dass wir erst in GP100 ARM Cores sehen. Deswegen kein Unified Memory bei Maxwell. Pascal ist dann in meinen Augen nix anderes als Maxwell mit ARM Cores und On Package Ram Optimierungen.

Nvidia hat nicht umsonst schon jetzt angefangen für Pascal zu werben. Den ist selber klar, dass Maxwell in 28nm mit stinknormalem Ram überhaupt keine Chancen gegen Xeon Phi hat. Die werden Pascal so schnell raushauen wie nur irgendwie möglich. Mag sein, dass darunter die kleineren Chips leiden werden und wir nur wenig in 2016 von diesen sehen.

Godmode
2014-07-08, 20:19:17
Moment mal wir hatten ab September 2012 >6 FLOPs DP/W mit GK110, Maxwell GM200 wird wohl den Wert erst Anfang 2015 auf =/>12 FLOPs DP/W steigen und ihr wollt ca. 1.5 Jahr danach gleich >20 FLOPs DP/W sehen? Ich bin wohl der einzige dem es zu optimistisch klingt :rolleyes:

Du schreibst immer GM200 aber nie welchen du meinst. Ist GM200 das 28nm Teil oder das 16nm Teil? Ich kann an das 16nm Anfang 2015 nicht so ganz glauben.

Nakai
2014-07-08, 20:24:03
Du schreibst immer GM200 aber nie welchen du meinst. Ist GM200 das 28nm Teil oder das 16nm Teil? Ich kann an das 16nm Anfang 2015 nicht so ganz glauben.

Ich antworte mal für Ail:
GM2xx ist erstmal 28nm und zwar für alle.

Schaffe89
2014-07-08, 20:24:52
GM200 in 28nm Mai/Juni 2015
GM104 in 28nm ende September, Anfang Oktober 2014
GM200 in 16nm Refresh Anfang bis mitte 2016
Pacal dann irgendwann Anfang 2017

Gemeint ist damit nur der Retailmarkt.

Maxwell ist einen Tick vor 2014 eingezeichnet, obwohl der erste Chip erst im April kam.
Pascal ist nach 2016 eingezeichnet, ergo wohl Anfang 2017 oder noch später.

Dural
2014-07-08, 20:45:01
ein klassischer refresh gibt es doch schon lange nicht mehr und sind allgemein sehr selten, denke nicht das wir einen sehen werden.
der letzte wahr GT200 65/55nm

G80 90nm
tesla 65/55nm
fermi 40nm
kepler 28nm
maxwell 28nm (eigentlich 20nm)
Pascal 16nm
etc.

und überhaupt, was will man mit einem 384-bit oder sogar 512-bit chip der dann ca. 300mm gross ist!?! :wink: da wird NV garantiert mehr einheiten rein hauen und den chip überarbeiten "GM210" wenn überhaupt einer kommt...

john carmack
2014-07-09, 08:43:52
ein klassischer refresh gibt es doch schon lange nicht mehr und sind allgemein sehr selten, denke nicht das wir einen sehen werden.
der letzte wahr GT200 65/55nm

G80 90nm
tesla 65/55nm
fermi 40nm
kepler 28nm
maxwell 28nm (eigentlich 20nm)
Pascal 16nm
etc.

und überhaupt, was will man mit einem 384-bit oder sogar 512-bit chip der dann ca. 300mm gross ist!?! :wink: da wird NV garantiert mehr einheiten rein hauen und den chip überarbeiten "GM210" wenn überhaupt einer kommt...


Wurde nicht beim 290/290X relese gesagt das das 512BIT SI kaum Fläche benötigt? bzw. vernachlässigbar klein ist?

So hab ich das in Erinnerung.

Skysnake
2014-07-09, 09:11:54
Da erinnerst du dich falsch ;)

Das 512Bit Interface braucht eine Menge Platz! Es brauch nur! kaum mehr Platz als das 384Bit Interface von Tahiti, weil man es für etwas geingere Frequenzen ausgelegt hat.

Locuza
2014-07-09, 10:05:12
Da erinnerst du dich falsch ;)

Das 512Bit Interface braucht eine Menge Platz! Es brauch nur! kaum mehr Platz als das 384Bit Interface von Tahiti, weil man es für etwas geingere Frequenzen ausgelegt hat.
Laut AMD verbraucht das 512 Bit-Interface 20% weniger Platz, als das 384 Bit breite von Tahiti.

Aber natürlich ist die-platz nicht das einzig wertvolle, höhere Komplexität und Boardkosten sind schließlich keine positiven Aspekte.

Ailuros
2014-07-09, 10:24:42
Die Grafik zeigt SGEMM Werte, nicht DGEMM. Wie DP Leistung wird, ist ne andere Frage. Aber ja, ich gehe von GP100 definitiv 2016 aus in Supercomputern, vielleicht sogar H1. GM200 ist nix anderes als nen kurzfristiger Zwischenschieber in meinen Augen. Ich schätze sogar, dass wir erst in GP100 ARM Cores sehen. Deswegen kein Unified Memory bei Maxwell. Pascal ist dann in meinen Augen nix anderes als Maxwell mit ARM Cores und On Package Ram Optimierungen.

Nvidia hat nicht umsonst schon jetzt angefangen für Pascal zu werben. Den ist selber klar, dass Maxwell in 28nm mit stinknormalem Ram überhaupt keine Chancen gegen Xeon Phi hat. Die werden Pascal so schnell raushauen wie nur irgendwie möglich. Mag sein, dass darunter die kleineren Chips leiden werden und wir nur wenig in 2016 von diesen sehen.

Auf Anfrage warum Pascal nicht direkt ueber 2016 sitzt war die Antwort (und das war direkt danach als der slide erschienen ist) aus Sicherheitsgruenden weil bis jetzt selten ihre Projektionen eingehalten wurden. Das letzte ist durchaus normal fuer alle IHVs da es zu viele Faktoren ausserhalb ihrer Kontrolle gibt. Da nichtmal NVIDIA selber sich sicher sein kann wie Einzehlheiten in 2 Jahren von heute aussehen werden, ist alles stets im "wenn alles nach Plan laeuft'-Bereich fuer die naechsten 2 Jahre.

Du schreibst immer GM200 aber nie welchen du meinst. Ist GM200 das 28nm Teil oder das 16nm Teil? Ich kann an das 16nm Anfang 2015 nicht so ganz glauben.

16FF ist hypothetisch genauso in H1 als auch H2 15' moeglich nur sind mir diejenigen die aehnliches behaupten immer noch eine Erklaerung schuldig warum die Herstellung unter 16FF genau billiger sein soll als unter 28nm.

Godmode
2014-07-09, 21:46:48
16FF ist hypothetisch genauso in H1 als auch H2 15' moeglich nur sind mir diejenigen die aehnliches behaupten immer noch eine Erklaerung schuldig warum die Herstellung unter 16FF genau billiger sein soll als unter 28nm.

Vor allem wird eine GPU niemals so schnell durch eine neue ersetzt. Da könnte man GM204 gleich einstampfen und GK110 bzw. GK104 nochmal etwas höher takten.

Dawn on Titan
2014-07-10, 07:31:50
Das ist völlig egal. Das technisch Machbare ist heute nicht das Problem, sondern das wirtschaftlich Darstellbare. Wenn es sich Ende 2014 nicht lohnt 20nm SOC zu benutzen, dann frage ich mich wie der noch einmal aufwendigere und teuere 16nm FF Prozess Anfang 2015 machbar sein soll?

Ailuros
2014-07-10, 09:13:18
Das ist völlig egal. Das technisch Machbare ist heute nicht das Problem, sondern das wirtschaftlich Darstellbare. Wenn es sich Ende 2014 nicht lohnt 20nm SOC zu benutzen, dann frage ich mich wie der noch einmal aufwendigere und teuere 16nm FF Prozess Anfang 2015 machbar sein soll?

Wenn 16FF wirklich deutlich Strom spart gegenueber 28nm im Gegenteil zu 20SoC ist es dann schon ein Grund genug. Ich koennte mir eventuell schon vorstellen dass wenn moeglich NV den GM200 weiter ausbauen koennte (also ein wirklicher refresh) in H2 unter 16FF nur fuer HPC und dabei waere es auch ziemlich wurscht wenn es sie jeder core Wucherpreise in der Herstellung kostet.

Was ich nicht verstehe sind die Geruechte von 204 bzw. 200 oder wasauchimmer shrinks auf 16FF ziemlich frueh in 2015. Wenn ein 16FF wafer ueber 70% mehr kosten wuerde als ein 28nm wafer dann "gewinnt" man eben NICHT genug die area/Stromverbrauch von 28 auf quasi 17nm um den vorigen Unterschied auszugleichen.

Dawn on Titan
2014-07-10, 09:28:31
Da bin ich völlig bei Dir. Ab H2 205 wäre 16nm FF denkbar. Wobei es bei konstanten Takt ja nur rund 40-50% Vorteil für 16nm FF gegenüber 28HP sein dürften. Sieht man sich nun an, dass die Logikdichte sich weniger als verdoppeln, während sich die Waferkosten mehr als verdoppeln, dann dürfte es für Chips, die das höhere mögliche Transistorbudget nicht brauchen auch in 2015 nicht sehr viel Anreiz geben zeitnah auf 16nm FF zu gehen. Abgesehen davon glaube ich nicht, dass TSMC im H1/15 schon große GPUs zu sinnvollen Yields fertigen könnte. Ich wäre nicht überrascht, wenn wir Ende 2014 bis Ende Q1/15 eine Generation komplett in 28nm sehen, dann im H2/15 eine Ablösung der GM10X Serie in 20nm SOC, gefolgt von einem Refresh der GM20X Serie Ende 15/Anfang 16 in 16nm FF.

HOT
2014-07-10, 09:38:38
DIe Frage ob das geht ist eh rein akademischer Natur. Bisher hat noch niemand Samples gesehen oder von einem entsprechenden Tapeout gehört. Das muss ja schon längst passiert sein, wenn der Q1 kommen soll. Es war garantiert 2016 gemeint, bis dahin hat man auch den Yield, der bei 16nm ja aufgrund der enormen Kosten wichtiger ist als bei allen anderen Prozessen zuvor, um die großen Chips bauen zu können. Dass Chips in dem Prozess kommen ist nicht die Frage, aber die Wirtschaftlichkeit steht nunmal an erster Stelle. Es nützt NV gar nichts, wenn die Chips so teuer werden, dass man sich nicht abverkaufen kann.

Ailuros
2014-07-10, 09:58:10
Es ist "garantiert" NICHT 2016 gemeint im originalen writeup.

Dural
2014-07-10, 10:14:41
Eventuell gibt es auch gar keinen GM200 in 28nm.

Ausgehend vom GM204 der ja ca. 430mm2 gross sein soll wäre dies doch denkbar, schon ein 384Bit SI und die ganzen Pro Erweiterungen würden sicher mit + 100mm zu schlagen und da hat man noch keine einzige SP Einheit mehr drin. Es wäre "nur" ein GM204 mit 1:2 DP

Loeschzwerg
2014-07-10, 11:42:38
8-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 3 66,735 22,245
8-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 2 44,490 22,245

So, da ist er ja endlich ^^

Nur um sinnloserweise Unicous zu ärgern, man beachte den Stückpreis :D *Spaß*

Die Frage die bleibt, ist das Ding 28nm oder 16nm? Möglicherweise eine Erklärung für den hohen Stückpreis? Who knows.

Godmode
2014-07-10, 11:50:17
So, da ist er ja endlich ^^

Nur um sinnloserweise Unicous zu ärgern, man beachte den Stückpreis :D *Spaß*

Die Frage die bleibt, ist das Ding 28nm oder 16nm? Möglicherweise eine Erklärung für den hohen Stückpreis? Who knows.

Oha, dann wird GM200 vielleicht wirklich recht kurz nach GM204 vorgestellt. Klasse!

N0Thing
2014-07-10, 12:00:05
Ich kann mir nicht vorstellen, daß man schon mit einem A1-Stepping in 16FF marktreif ist. Das spricht nach meinem Bauchgefühl eher zu 28nm.

Wo kommt eigentlich die Idee her, daß GM200 so früh in 16FF kommen würde? Das klang ja auch schon vor dem S|A Artikel hin und wieder an.



Die Frage die bleibt, ist das Ding 28nm oder 16nm? Möglicherweise eine Erklärung für den hohen Stückpreis? Who knows.

Welche der Zahlen soll den Stückpreis darstellen?

Thunder99
2014-07-10, 12:09:28
Wie schon mehrfach hier angedeutet gehe ich von 28nm aus. Evt so ein Monster-Chip wie der GT200 in 65nm? Theoretisch machbar und wenn schon GK110 >500mm² ist auch irgendwie notwendig wenn die ein deutliches Leistungsplus hinlegen wollen gegenüber dem GK110 und GM204...

Godmode
2014-07-10, 12:21:46
Ich kann mir nicht vorstellen, daß man schon mit einem A1-Stepping in 16FF marktreif ist. Das spricht nach meinem Bauchgefühl eher zu 28nm.

Wo kommt eigentlich die Idee her, daß GM200 so früh in 16FF kommen würde? Das klang ja auch schon vor dem S|A Artikel hin und wieder an.




Welche der Zahlen soll den Stückpreis darstellen?

Das wird zu 100% 28nm sein. 16FF gibt es dann 2016.

Loeschzwerg
2014-07-10, 12:22:51
Ich kann mir nicht vorstellen, daß man schon mit einem A1-Stepping in 16FF marktreif ist. Das spricht nach meinem Bauchgefühl eher zu 28nm.

Wo kommt eigentlich die Idee her, daß GM200 so früh in 16FF kommen würde? Das klang ja auch schon vor dem S|A Artikel hin und wieder an.




Welche der Zahlen soll den Stückpreis darstellen?

Stückpreis ist die letzte Zahl.

A1 bedeutet auch in 28nm noch keine Marktreife, aber nachdem die Bezeichnung immer noch GM200 lautet gehe ich momentan auch von 28nm aus. 16nm wird man sicher abgrenzen wollen (GM214, GM210 als Beispiele). Wollte nur ein wenig Spekulation ins Spiel bringen :)

Godmode
2014-07-10, 12:25:19
Stückpreis ist die letzte Zahl.

A1 bedeutet auch in 28nm noch keine Marktreife.

War GK110 nicht auch A1?

edit: GK110 auf der Titan war A1: http://de.wikipedia.org/wiki/Nvidia-Geforce-700-Serie

Thunder99
2014-07-10, 12:30:02
Auch auf der GTX780 (geizhals Listungen)

Loeschzwerg
2014-07-10, 12:46:24
Jo, GK110 war A1, aber auch das hat nix zu bedeuten. Ein G80 kam z.B. in A2, ein GF100 erst in A3 (und da nicht einmal Vollausbau) usw.

ndrs
2014-07-10, 12:49:35
War GK110 nicht auch A1?

edit: GK110 auf der Titan war A1: http://de.wikipedia.org/wiki/Nvidia-Geforce-700-Serie
Naja, wer weiß aber wieviele Revisionen von GK100 man vorher schon weggeworfen hat :D

Godmode
2014-07-10, 12:55:10
Jo, GK110 war A1, aber auch das hat nix zu bedeuten. Ein G80 kam z.B. in A2, ein GF100 erst in A3 (und da nicht einmal Vollausbau) usw.

Bei G80 hatte man aber noch diese Custom ALUs, ka ob es damit was auf sich gehabt hat. GF100 war ja von Grund auf kaputt. Bei GM200 haben wir jetzt einen sehr ausgereiften Prozess und das die Architektur prinzipiell funktioniert, konnten wir schon anhand von GK107 sehen. Alles IMHO.

Naja, wer weiß aber wieviele Revisionen von GK100 man vorher schon weggeworfen hat :D

Wie meinst du das?

edit: IIRC gab es keinen GK100.

Loeschzwerg
2014-07-10, 13:06:20
Die Chancen für GM200 in A1 stehen sicher nicht schlecht, aber bei so komplexen Designs kann es immer mal hageln.

GK100 hat vielleicht mal irgendwo auf dem Papier existiert, muss aber dann recht früh durch GK110 ersetzt worden sein.
Es kann aber auch nur GK110 existiert haben und die 1 in der Mitte deutet auf den unterschiedlichen Cluster-Aufbau, im Vergleich zu GK104, hin.

Godmode
2014-07-10, 13:08:29
Die Chancen für GM200 in A1 stehen sicher nicht schlecht, aber bei so komplexen Designs kann es immer mal hageln.

GK100 hat vielleicht mal irgendwo auf dem Papier existiert, muss aber dann recht früh durch GK110 ersetzt worden sein.
Es kann aber auch nur GK110 existiert haben und die 1 in der Mitte deutet auf den unterschiedlichen Cluster-Aufbau, im Vergleich zu GK104, hin.

Ich hoffe einfach das mit A1 alles funktioniert. Fehlerquellen gibt es leider immer genug bei was neuem.

Ailuros
2014-07-10, 13:26:15
Naja, wer weiß aber wieviele Revisionen von GK100 man vorher schon weggeworfen hat :D

Nach all den Jahren und so oft wie es hier im Forum geklaert wurde, ist es nahezu laecherlich immer noch ueber den angeblichen GK100 zu lesen den es einfach NIE gab.


GK100 hat vielleicht mal irgendwo auf dem Papier existiert, muss aber dann recht früh durch GK110 ersetzt worden sein.
Es kann aber auch nur GK110 existiert haben und die 1 in der Mitte deutet auf den unterschiedlichen Cluster-Aufbau, im Vergleich zu GK104, hin.

Die 1 in der Mitte war schon immer da und designierte die zusaetzlichen Faehigkeiten die GK110 als einziger GPU chip von der Kepler Familie hat(-te).

Dural
2014-07-10, 13:45:39
ein chip 22000.- Dollar :confused:

Loeschzwerg
2014-07-10, 13:52:20
Die 1 in der Mitte war schon immer da und designierte die zusaetzlichen Faehigkeiten die GK110 als einziger GPU chip von der Kepler Familie hat(-te).

Ok, das macht Sinn.

Können wir dann schlussfolgern dass es zwischen GM204 und GM200 keine gravierenden Unterschiede geben wird?

@Dural: Rupie (INR) ;)

bloub
2014-07-10, 14:06:40
bei rupie wärs nicht ganz so wild, da bleibt man immerhin noch unter 400 dollar :freak:

Ailuros
2014-07-10, 14:10:35
Ok, das macht Sinn.

Können wir dann schlussfolgern dass es zwischen GM204 und GM200 keine gravierenden Unterschiede geben wird?

@Dural: Rupie (INR) ;)

Ich will hoffen dass beide feature_level DX12 sein werden obwohl es nirgends gesichert ist natuerlich. Dass es NV auf einer slide fuer Maxwell erwaehnt kann auch nur API Unterstuetzung heissen :rolleyes:

Dural
2014-07-10, 14:14:29
400.- gehen ja noch für solche Einzelstücke, ich finde ist das es sogar billig ist.


Ja dann sind die 28nm für GM200 wohl auch gesichert. Im Herbst gibt es die Spannende Frage GM204 oder auf GM200 warten ;)

aufkrawall
2014-07-10, 14:24:22
Für GM200 würde man wohl einen abartigen Preis für nicht so viel mehr Performance gegenüber 204 zahlen.

Godmode
2014-07-10, 14:29:01
Für GM200 würde man wohl einen abartigen Preis für nicht so viel mehr Performance gegenüber 204 zahlen.

Sind wir schon gewohnt und haben wir schon gemacht. :biggrin:

30-50% auf GM204 schätze ich jetzt mal aus dem blauen.

Ravenhearth
2014-07-10, 14:39:27
Imho werden es allerhöchstens 30% im Schnitt.

occ-kh@Mirko
2014-07-10, 14:44:42
GM200 wird dann wohl auf 20nm im Q2/2015 hinauslaufen, wahrscheinlich wieder Februar zu bekannten Preisen? Hoffe nicht das sie Z Wege gehen...

aufkrawall
2014-07-10, 14:52:17
Sind wir schon gewohnt und haben wir schon gemacht. :biggrin:

30-50% auf GM204 schätze ich jetzt mal aus dem blauen.
Titan war künstlich gebremst. Wahrscheinlich, damit sie die Ti deutlicher positionieren konnten.
Einen Salvage-Part brauchen sie gar nicht erst bringen, bei der Größe von GM204.
Wenn der angebliche 600mm2 (wieso funktioniert meine Alt-Taste nicht? :freak: ) Chip von AMD im Consumer-Bereich aufschlägt, können sie sich Titan-Preise schwerlich erlauben. Wenn nicht, vielleicht schon. Es wird durch 28nm ja kein Engpass bestehen.
Wenn es 8GB Varianten von GM204 gibt, würd ich mir lieber so etwas holen.

robbitop
2014-07-10, 15:04:31
Bei G80 hatte man aber noch diese Custom ALUs,
Die ALUs wurden von Hand gelayoutet. Das kostet Zeit und Chipfläche aber man kann idR. deutlich höhere Taktraten fahren.
G80 - Fermi hatten das. So hatten sie eine ziemlich hohe effektive Rechenleistung auf der Straße mit relativ wenigen Ausführungseinheiten.

Offenbar hat das aber mehr Energie und Fläche verschlungen als es eingebracht hat.

Ailuros
2014-07-10, 15:20:09
Offenbar hat das aber mehr Energie und Fläche verschlungen als es eingebracht hat.

Haetten sie nichts dazugewonnen haetten sie es nur ein- oder zwei Mal benutzt. Wie ich schon mehrere Male erwaehnte engineering war ziemlich deutlich darueber dass Einheiten vor und nach G80 jedesmal dafuer untersucht wurden ob und wo hotclocking Sinn macht. Bis zu Kepler waren nur ALUs im deutlichen Vorteil und obwohl sie vor GK1xx einen mid life kicker nur mit Kepler ALUs und Fermi front end geplant hatten wurde dieser dank 32nm Stornierung auch storniert.

Das was sie bei Fermi abgefoegelt hatten war nicht das interconnect das ich seit Jahren wusste sondern auch hier hatte Charlie dearest sein "told you so" denn es der memory controller k.o im GF100.

http://forum.beyond3d.com/showpost.php?p=1629336&postcount=2876

It's not going to change the opinion of the gullible, but 3 years after the fact, it's probably time to settle this once and for all: the issue in GF100-A01 was in a back-end bus that fed the memory controllers. It was not even in the general xbar that interconnects the usual agents. There was a custom designed cell that with a timing violation that was not picked up during characterization.

The net result was a broken MC system (no transactions to external memory at all), but not a bricked chip: major parts could be verified by rendering to PC memory over PCIe. A02 fixed all known bugs, but not those that were hiding behind MC specific paths, so A03 was needed.

GF100-A01 had no issues at all with distributing geometry across GPCs. Distributed geometry never comes up in discussions about power. I don't think it should surprise anyone with a bit of a brain that SMs+TEX are where the power is.

Also: don't fret so much about crossbars in general. It's under control.

(Crawling back into my bear cave...)

Und auch hier:

http://forum.beyond3d.com/showpost.php?p=1825997&postcount=744

Changes in SM is much easier then changes in geometry flow because you can keep interfaces similar or even same. GT200 was smaller change but took longer then planned because it was not high priority project initially. Fermi was as big a change as G80. Very complex. Maybe a bit too much in one go. Kepler was easier.

Ich werde den Kerl natuerlich nicht bei seinem Namen nennen, aber irgendwie hab ich das Gefuehl dass viele hier eine total falsche Vorstellung haben was chip Entwicklung betrifft. Es ist uebrigens auch nicht so dass Fetzen von jeglicher "Handarbeit" der Vergangenheit total verschwunden sind nur weil der hotclock weg ist seit Kepler :P

Edgecrusher86
2014-07-10, 16:56:24
Danke an Loeschzwerg für das Update. ;)

8-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 3 66,735 22,245
8-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 2 44,490 22,245

https://www.zauba.com/import-graphics-processor-hs-code.html

Also von 22245 INR umgerechnet sind das ~274€ / ~$373 pro GM200 derzeit für NV. Schon happig, wenn man bedenkt, dass GM204 bei ~ 126€ lag, iirc. :)
Aber das ist natürlich zu erwarten, bei einem riesen Chip nach Tapeout, GK110 war ja auch sehr teuer. Eventuell wird er ja auch noch etwas größer wie GK110, wenn auch im überschaubaren Rahmen bei derselben Package-Size wie der 110er, mal schauen. :)

Ailuros
2014-07-10, 17:49:52
Ich wundere mich ernsthaft wie sicher sich Erinyes war dass GM200 tatsaechlich auf 28nm hergestellt wird. Entweder ist der chip momentan eine komplette Missgeburt unter 28nm dass er so viel kostet herzustellen oder das Ding ist trotz allem auf 20SoC. Eine andere Erklaerung kann ich mir fuer =/>$300 pro chip nicht vorstellen.

hasebaer
2014-07-10, 18:00:46
Entweder ist der chip momentan eine komplette Missgeburt unter 28nm dass er so viel kostet herzustellen oder das Ding ist trotz allem auf 20SoC.

Risk Production 16FF läuft seit über 6 Monaten laut Fudzilla.
http://www.fudzilla.com/home/item/33402-tsmc-16nm-finfet-in-risk-production

Godmode
2014-07-10, 18:05:08
Risk Production 16FF läuft seit über 6 Monaten laut Fudzilla.
http://www.fudzilla.com/home/item/33402-tsmc-16nm-finfet-in-risk-production

Ok dann wird das gleiche Spiel wie schon bei GK110 ablaufen. Zuerst wird damit der Profimarkt beliefert werden, dann erst die Spieler.

Nightspider
2014-07-10, 18:10:44
Davon kannst du so oder so ausgehen, unabhängig vom Prozess.

Loeschzwerg
2014-07-10, 18:11:31
Ich wundere mich ernsthaft wie sicher sich Erinyes war dass GM200 tatsaechlich auf 28nm hergestellt wird. Entweder ist der chip momentan eine komplette Missgeburt unter 28nm dass er so viel kostet herzustellen oder das Ding ist trotz allem auf 20SoC. Eine andere Erklaerung kann ich mir fuer =/>$300 pro chip nicht vorstellen.

GK110/GK210 hatten ähnlich hohe Preise bei Zauba, das muss alles nicht unbedingt etwas bedeuten.
Gesetzt dem Fall es sollte nicht 28nm sein, macht da 16nm nicht gleich mehr Sinn?

Mandalore
2014-07-10, 18:12:20
Nehmen wir an, dass das TapeOut des GM200 in 16FF war, wann könnte man mit einem Chip rechnen der verkauft wird, sprich Release (Profimarkt First?)?

Ailuros
2014-07-10, 18:18:16
Risk Production 16FF läuft seit über 6 Monaten laut Fudzilla.
http://www.fudzilla.com/home/item/33402-tsmc-16nm-finfet-in-risk-production

Und der tape out des GM200 (wahrscheinlich unter 28nm) fand erst vor einem Monat statt. Im allerbesten Fall gehen sehr bescheidene chips zumindest 1 Jahr nach dem start der risk production in die Massenproduktion, aber falls es einen Gegenfall gibt und sogar so etwas verdammt kompliziertes wie GM200 darfst Du mich gerne darauf verlinken.

Edgecrusher86
2014-07-10, 18:18:42
Hm, also wenn man grob mit GM204 vergleicht, der vermutlich im Oktober oder November auf den Markt kommt (Tapeout April), könnte wenn alles nach Plan läuft, Dezember oder Januar als Risk Production drin sein für GM200 Teslas - rein spekulativ. Desktop-Karten sind dann vermutlich mindestens ein halbes Jahr später zu erwarten. Zumindest wäre dies wohl unter 28nm möglich, mit 16FF kann man natürlich deutlich drauf rechnen.

Allerdings bei sehr schlechten Yields, wenn die $373 für 28nm gelten würden...verschiebt sich das auch deutlich nach hinten, wie Ailuros angeführt hat.

Ailuros
2014-07-10, 18:19:08
GK110/GK210 hatten ähnlich hohe Preise bei Zauba, das muss alles nicht unbedingt etwas bedeuten.
Gesetzt dem Fall es sollte nicht 28nm sein, macht da 16nm nicht gleich mehr Sinn?

Warum wird es dann GM200 genannt?

Loeschzwerg
2014-07-10, 18:23:21
Keine Ahnung, neues Verwirrspiel bei NV :D

Wie ich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10275397&postcount=3420) ja schrieb, ich gehe wegen dem Namen auch von 28nm aus.

Edit: Ich bin gerade am Überlegen Wen ich bei mir in der Arbeit ausquetschen könnte bezüglich Chipkosten... der SPARC64 X ist immerhin 587mm² dick bei 28nm @ TSMC.

Edgecrusher86
2014-07-10, 18:25:50
Oder GM2xx steht nur für Feature Level 12_0. Einher gehend vermutlich auch mit einer neuen CUDA Core-Version. Mal sehen. ;)

hasebaer
2014-07-10, 18:30:23
Und der tape out des GM200 (wahrscheinlich unter 28nm) fand erst vor einem Monat statt.

Wie du schon sagtest bei ~300 USD pro Chip müsste das Design verkackt sein.
Oder aber es ist besagte 16FF Risk, und der Codename GM200 hat nix mit der Art der Produktion zutun.
GM200 war dann schon immer, nur für etwas was kleiner als 28nm ist geplant.
Ist ja auch logisch, wenn GM200 nochmal deutlich schneller als GM204 werden soll und für GM204 (als reinen Gamingchip) schon irgendwas zwischen 350-420mm^2 im Raum stehen.

Ailuros
2014-07-10, 18:32:34
OT aber SA scheint ziemlich angepisst zu sein (vollkommen gerechtfertigt) mit videocardz. Ich wuerde mich totlachen wenn Charlie mit Absicht eine Leiche in seinen Artiklen gepflanzt hat nur um potentiell Abschreiber damit laecherlich zu machen und ja natuerlich geht auch gleich die Q1 15' 16FF These fuer einen 204 shrink sofort poof :freak::eek::rolleyes:

Wie du schon sagtest bei ~300 USD pro Chip müsste das Design verkackt sein.

Ich sagte auch dass es alles oder gar nichts bedeuten koennte. NV ist wohl nicht so bloed ihre Plaene schon jetzt so leicht zu veroeffentlichen.

Oder aber es ist besagte 16FF Risk, und der Codename GM200 hat nix mit der Art der Produktion zutun.

Der Codename hat sehr wohl mit der Produktion zu tun; brauchen alle IHVs sonst stiftet es zu viel Verwirrung selbst intern. 16FF risk ist nicht moeglich bei einem GM200 nur knapp einen Monat nach seinem finalen tape out.

GM200 war dann schon immer, nur für etwas was kleiner als 28nm ist geplant.

Nur heisst das Ding auf der roadmap eben nicht GM200 glaub mir.

Ist ja auch logisch, wenn GM200 nochmal deutlich schneller als GM204 werden soll und für GM204 (als reinen Gamingchip) schon irgendwas zwischen 350-420mm^2 im Raum stehen.

Siehe meine Notiz weiter oben ueber SA's Artikel.

Loeschzwerg
2014-07-10, 18:43:56
Wie du schon sagtest bei ~300 USD pro Chip müsste das Design verkackt sein.


4-Sep-2013 84733010 ENGR GK180-INT5156-A1 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GK180-INT5156-A1 Taiwan Banglore Air Cargo NOS 8 134,918 16,865
7-Apr-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GK210-INT5156-A1 Taiwan Banglore Air Cargo NOS 8 218,650 27,331

:confused:

Dawn on Titan
2014-07-10, 18:44:28
Wert eines Protoypen ~ 300$ - warum nicht.

hasebaer
2014-07-10, 18:50:22
Der Codename hat sehr wohl mit der Produktion zu tun; brauchen alle IHVs sonst stiftet es zu viel Verwirrung selbst intern.

ich will ja nicht mit Leichen ankommen, aber beim GT200 war nur der Zusatz "b" der Indikator dafür ob 65 oder 55nm. ;)


16FF risk ist nicht moeglich bei einem GM200 nur knapp einen Monat nach seinem finalen tape out.

Aber zu 100% sicher ist es auch deines Wissens nach nicht, ob das 28nm war oder wie?!

Gipsel
2014-07-10, 19:52:55
Risk Production 16FF läuft seit über 6 Monaten laut Fudzilla.
http://www.fudzilla.com/home/item/33402-tsmc-16nm-finfet-in-risk-productionJa, mit miesen Yields (high risk) selbst für (Test-)Chips mit sehr hoher Redundanz (FPGA/SRAM) oder ASICS knapp über Streichholzkopf-Größe. Schau Dir doch einfach mal an, ab wann es 28nm risk production gab und ab wann 28nm Produkte.

hasebaer
2014-07-10, 20:02:17
Ok, also ist das GM200 Design unter 28nm im Arsch.

occ-kh@Mirko
2014-07-10, 20:08:17
@Gipsel
Wäre es nicht möglich den GM200 in 20nm dann im Juni/Juli 2015 in den Desktop-Markt zu entlassen, bis dahin dürfte auch die Yield steigen (was die Preise eventuell sinken lässt), bzw. könnte man genug Chips aussortiert haben die nicht Teslafähig sind? Ich kann mich mit diesen 16nm einfach nicht anfreunden.

http://wccftech.com/tsmc-begins-20nm-volume-production-gpus-node/

Ravenhearth
2014-07-10, 20:45:15
Die $373 entsprechen ganz sicher nicht den finalen Preisen. Das sind doch Einzelstücke u.a. zu Testzwecken. Ich weiß gar nicht, wie man darauf kommt, daraus die regulären Preise abzuleiten. :confused:

Godmode
2014-07-10, 20:55:50
Die $373 entsprechen ganz sicher nicht den finalen Preisen. Das sind doch Einzelstücke u.a. zu Testzwecken. Ich weiß gar nicht, wie man darauf kommt, daraus die regulären Preise abzuleiten. :confused:

Das wurde schon vor ein paar Seiten erklärt. Man kann aber zumindest andere Teile damit vergleichen, zb. den alten GK110 oder GK104.

Skysnake
2014-07-10, 22:01:17
Ja, mit miesen Yields (high risk) selbst für (Test-)Chips mit sehr hoher Redundanz (FPGA/SRAM) oder ASICS knapp über Streichholzkopf-Größe. Schau Dir doch einfach mal an, ab wann es 28nm risk production gab und ab wann 28nm Produkte.
Ich seh Riskproduction auch eher als Testballon für einzelne Sachen wie SerDes, SRAM+Controller usw. Also eher kein ganzer Chip, sondern einzelne Funktionsblöcke.

N0Thing
2014-07-11, 01:38:15
Ich wäre jetzt auch davon ausgegangen, daß der Preis auf Grund kleiner Stückzahlen zu Stande kommt. Von einer Massenproduktion zu diesem Zeitpunkt geht doch wohl keiner aus.

Und wenn ein regulärer Chip mit $120 zu Buche schlägt, sind $370 für eine handvoll Wafer für meinen Geschmack im Rahmen des Möglichen.

Leonidas
2014-07-11, 06:50:20
Ich wundere mich ernsthaft wie sicher sich Erinyes war dass GM200 tatsaechlich auf 28nm hergestellt wird. Entweder ist der chip momentan eine komplette Missgeburt unter 28nm dass er so viel kostet herzustellen oder das Ding ist trotz allem auf 20SoC. Eine andere Erklaerung kann ich mir fuer =/>$300 pro chip nicht vorstellen.


Ich sehe den Preis nicht als Problem an. Das ist der Warenwert dieses Einzelstücks aus einer Vorserien-Fertigung. Der Warenwert der Serienfertigung kann deutlich darunter liegen.

Würde man den geschäftlichen Wert dieses Prozessors angeben (was er wert wäre, wenn ihn jemand klaut), dann müssten da hunderttausende Euro darstehen.

hasebaer
2014-07-11, 09:16:37
PCGH hat auch eine interessante Sichtweise, was die Preise angeht.



Das liegt offenbar an den geringen Stückzahlen, ...

Die kleinen Mengen könnten praktisch an drei Gründen liegen:

Nvidia hält die Auslieferungen künstlich knapp, um die hohen Preise zu erzielen.
- http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidia-Maxwell-GM200-Tape-Out-1128258/

Dural
2014-07-11, 10:52:00
ihr diskutiert jetzt nicht wirklich ernsthaft an den Prototypen Preisen rum? :freak:

Anderes Thema, 20nm könnte ich mir noch vorstellen, auch wenn es nicht viel bringt im Vergleich zu 28nm benötigt NV aber eventuell einfach mehr Platz und der Preis ist in diesem Bereich wahrscheinlich auch egal (Tesla)

Ailuros
2014-07-11, 11:27:20
ihr diskutiert jetzt nicht wirklich ernsthaft an den Prototypen Preisen rum? :freak:

Ja und es zwingt Dich keiner es zu lesen.

Ich sehe den Preis nicht als Problem an. Das ist der Warenwert dieses Einzelstücks aus einer Vorserien-Fertigung. Der Warenwert der Serienfertigung kann deutlich darunter liegen.

Würde man den geschäftlichen Wert dieses Prozessors angeben (was er wert wäre, wenn ihn jemand klaut), dann müssten da hunderttausende Euro darstehen.

Nur bleibt bei mir ein logisches Loch an der ganzen Geschichte; GM200 hatte schon seit einem Monat A1 tape out Silizium. Nur werden natuerlich bis zur Massenproduktion test samples fuer N Gruende hin und her geschickt, aber ich kann mir nicht vorstellen dass selbst ein >550mm2 GM200@28nm heutzutage nur ca. 12-13% yields haben um einen $300 "Warenwert" zu gerechtfertigen. "Druck mir mal 1/8 des wafers" klingt mir auch nicht realistisch. Ich muss hier wesentliches verpassen.

Monsta
2014-07-11, 11:38:23
Der Vorgang hat so viele Variablen es macht keinen Sinn darüber zu diskutieren.
In der zerspanenden Metallverarbeitung zalhlt unsere Firma mal gerne das 5-10 Fache des Serienprodukts. Wenn wir nur 2 Teile haben wollen. Ein großer Teil der Arbeit ist die Einrichtung der Maschine. Das wird bei der Chipproduktion nicht anders sein.

HOT
2014-07-11, 11:52:21
<=4000 Shader in 28nm mit 384Bit und 1/3 DP/SP auf 600 mm² dürfte die wahrscheinlichste Variante sein.

Unicous
2014-07-11, 11:53:45
:rolleyes:

Ailuros
2014-07-11, 12:04:19
Der Vorgang hat so viele Variablen es macht keinen Sinn darüber zu diskutieren.
In der zerspanenden Metallverarbeitung zalhlt unsere Firma mal gerne das 5-10 Fache des Serienprodukts. Wenn wir nur 2 Teile haben wollen. Ein großer Teil der Arbeit ist die Einrichtung der Maschine. Das wird bei der Chipproduktion nicht anders sein.

Ist ja auch verstaendlich; nur hier bei chips muessen diese eben auf einen wafer "gedruckt" werden. Dass die foundry jetzt 5 cores fuer NV mit 10 cores fuer X und 20 cores von Y auf einen wafer druckt halt ich fuer unwahrscheinlich. Ausser es gibt irgendwelche mini Spezial-wafer die nur fuer testchips gedacht sind. Es geht hier lediglich ueber technische Neugierde sonst nichts ;)

Timbaloo
2014-07-11, 12:38:41
Ausser es gibt irgendwelche mini Spezial-wafer die nur fuer testchips gedacht sind. Es geht hier lediglich ueber technische Neugierde sonst nichts ;)
Irgendwelche Mini-Wafer glaube ich nicht. Die gesamte Produktionskette dürfte recht stark auf Serien-Wafergröße ausgerichtet sein.

Ich glaube ja NV hat die ganze Zauba-Geschichte absichtlich gemacht um später die hohen Kartenpreise rechtzufertigen :freak:

Ailuros
2014-07-11, 12:41:27
Irgendwelche Mini-Wafer glaube ich nicht. Die gesamte Produktionskette dürfte recht stark auf Serien-Wafergröße ausgerichtet sein.

Ich glaube ja NV hat die ganze Zauba-Geschichte absichtlich gemacht um später die hohen Kartenpreise rechtzufertigen :freak:

ROFL nein zum zweiten; da ich in der Vergangenheit mehr als ein Stueck hw von NV zugeschickt bekam gaben sie stets den echten Wahrenwert an fuer den lokalen Zoll.

Gipsel
2014-07-11, 13:31:20
Ist ja auch verstaendlich; nur hier bei chips muessen diese eben auf einen wafer "gedruckt" werden. Dass die foundry jetzt 5 cores fuer NV mit 10 cores fuer X und 20 cores von Y auf einen wafer druckt halt ich fuer unwahrscheinlich. Ausser es gibt irgendwelche mini Spezial-wafer die nur fuer testchips gedacht sind. Es geht hier lediglich ueber technische Neugierde sonst nichts ;)Dieses Sharing von Wafern gibt es tatsächlich (hier mal beispielhaft von TSMC angeboten (http://www.tsmc.com/english/dedicatedFoundry/services/cyberShuttle.htm)), das lohnt sich allerdings vorwiegend für kleinere Projekte. Der Sinn dahinter ist übrigens, daß man für einen Prototypen natürlich trotzdem ein komplettes Maskenset benötigt, welches etliche Millionen kostet (und das für eine Handvoll georderte Wafer somit den überwiegenden Teil der Kosten ausmacht). Teilt man sich das mit mehreren anderen Projekten, teilt man sich natürlich auch diese Kosten (und auf dem Wafer ist dann entsprechend ein bunter Mix aus Chips drauf).

Aber so oder so, auch wenn nV nicht diese "shared CyberShuttle® prototyping services" nutzt sondern private Masken hat, läßt sich TSMC natürlich kleinere Waferruns (deutlich) höher bezahlen als mass production runs. Das ist schlicht "economy of scale", wie auch schon andere anmerkten.

Da keiner hier die genauen Abmachungen zwischen TSMC und dessen Kunden kennt (und wie sich die vielleicht mit der Zeit geändert haben) und auch nicht, wieviele Wafer nV für die jeweiligen Samples geodert hat (bei mehr sinkt wie gesagt der Stückpreis), sind alle Schlußfolgerungen aus irgendwelchen Wertangaben auf irgendwelchen Zollformularen reine Kaffesatzleserei. Es kann eine gewisse Korrelation geben, muß aber nicht.

robbitop
2014-07-11, 13:43:39
Ich finde es für Prototypenchips jetzt nicht unbedenklich, dass die Dinger mehr kosten. Das ist ja keine Massenfertigung. Also hat man da deutlich mehr Aufwand pro Chip und deutlich mehr Deckungsbeiträge pro Chip. Prototypen machen fast immer deutlich mehr Aufwand. Ich würde darüber nicht mal großartig nachdenken, solange das keine Serienpreise sind. Denn IMO kann man sich bei diesem Nachdenken dann grundlos verrennen/verbeißen.

Ailuros
2014-07-11, 13:44:55
Dieses Sharing von Wafern gibt es tatsächlich (hier mal beispielhaft von TSMC angeboten (http://www.tsmc.com/english/dedicatedFoundry/services/cyberShuttle.htm)), das lohnt sich allerdings vorwiegend für kleinere Projekte. Der Sinn dahinter ist übrigens, daß man für einen Prototypen natürlich trotzdem ein komplettes Maskenset benötigt, welches etliche Millionen kostet (und das für eine Handvoll georderte Wafer somit den überwiegenden Teil der Kosten ausmacht). Teilt man sich das mit mehreren anderen Projekten, teilt man sich natürlich auch diese Kosten (und auf dem Wafer ist dann entsprechend ein bunter Mix aus Chips drauf).

Aber so oder so, auch wenn nV nicht diese "shared CyberShuttle® prototyping services" nutzt sondern private Masken hat, läßt sich TSMC natürlich kleinere Waferruns (deutlich) höher bezahlen als mass production runs. Das ist schlicht "economy of scale", wie auch schon andere anmerkten.

Da keiner hier die genauen Abmachungen zwischen TSMC und dessen Kunden kennt (und wie sich die vielleicht mit der Zeit geändert haben) und auch nicht, wieviele Wafer nV für die jeweiligen Samples geodert hat (bei mehr sinkt wie gesagt der Stückpreis), sind alle Schlußfolgerungen aus irgendwelchen Wertangaben auf irgendwelchen Zollformularen reine Kaffesatzleserei. Es kann eine gewisse Korrelation geben, muß aber nicht.

Na auf jeden Fall klingt es jetzt um einiges logischer. Danke :)

Blediator16
2014-07-11, 13:52:58
Was scheißt ihr euch wegen den Preisen ein. Kepler wurde gekauft wieso sollte Maxwell Midrange nicht auch für 600€ verkauft werden. Selbst Schuld sag ich da nur.

hasebaer
2014-07-11, 19:25:19
Selbst Schuld sag ich da nur.

Der NV10 der Geforce 256 war 111 mm^2 klein,
Der NV15 der Geforce 2 Ultra war 90 mm^2 klein,
Der NV20 der Geforce3 war 128mm^2 klein,
Der NV25 der TI 4600 war 142mm^2 klein,
Der NV30 der FX 5800 war 200mm^2 klein,
Der NV40 der 6800 Ultra war 305mm^2 klein,
Der G71 der 7900 GTX war 196mm^2 klein,

... und die Karten haben alle über 500€ gekostet.

Coda
2014-07-11, 19:29:11
Auch steigen sinken die Kosten pro Transistor nicht mehr wirklich, das heißt der Die-Size-Vergleich hinkt eh.

Godmode
2014-07-11, 19:30:15
Der NV10 der Geforce 256 war 111 mm^2 klein,
Der NV15 der Geforce 2 Ultra war 90 mm^2 klein,
Der NV20 der Geforce3 war 128mm^2 klein,
Der NV25 der TI 4600 war 142mm^2 klein,
Der NV30 der FX 5800 war 200mm^2 klein,
Der NV40 der 6800 Ultra war 305mm^2 klein,
Der G71 der 7900 GTX war 196mm^2 klein,

... und die Karten haben alle über 500€ gekostet.

Allerdings war das damals das was wirtschaftlich möglich gewesen ist. Er hat teilweise schon recht.

hasebaer
2014-07-11, 19:40:21
Ich kann dir grad nicht ganz folgen.
Warum war das damals wirtschaftlich möglich?
Was heißt das?

CountDoku
2014-07-11, 21:41:29
GM204 zur Weihnachtszeit für um die 300 bitte. Das dürfte ein Verkaufsknüller sein. Bitte nVidia. Laut den Infos sieht es ja so aus GM204 zur Weihnachtszeit und GM200 ein paar Monate später. Liege ich da in meiner Ansicht verkehrt oder gebt ihr mir da Recht?

Ich meine wie ist eure Meinung wenn ich denke das es bei nVidia möglich sein könnte das der GM204 für um die 300 bis 330 zur Weihnachtszeit verkauft wird? (Damit würde nVidia ganz klar das Weihnachtsgeschäft gewinnen. Mantle hin und her)

Skysnake
2014-07-11, 21:50:42
Nur bleibt bei mir ein logisches Loch an der ganzen Geschichte; GM200 hatte schon seit einem Monat A1 tape out Silizium. Nur werden natuerlich bis zur Massenproduktion test samples fuer N Gruende hin und her geschickt, aber ich kann mir nicht vorstellen dass selbst ein >550mm2 GM200@28nm heutzutage nur ca. 12-13% yields haben um einen $300 "Warenwert" zu gerechtfertigen. "Druck mir mal 1/8 des wafers" klingt mir auch nicht realistisch. Ich muss hier wesentliches verpassen.
kleine Waferruns sind grundsätzlich teurer als große Runs. Zudem vergisst du, das man, sofern es eben die gleichen Masken sind, wie fürs finale Design, wovon ich bei nVidia ausgehe, du ohne nen komplettes Package rein gar NICHTS mit dem Chip anfangen kannst.

Und FlipChip packages sind in kleinen Stückzahlen schweine teuer...


Ist ja auch verstaendlich; nur hier bei chips muessen diese eben auf einen wafer "gedruckt" werden. Dass die foundry jetzt 5 cores fuer NV mit 10 cores fuer X und 20 cores von Y auf einen wafer druckt halt ich fuer unwahrscheinlich. Ausser es gibt irgendwelche mini Spezial-wafer die nur fuer testchips gedacht sind. Es geht hier lediglich ueber technische Neugierde sonst nichts ;)
Kuckst du hier ->

geteilte Masken sind was völlig normales für Testchips. Da haste teils richtig richtig viele auf einem einzigen Wafer. Anders kannste dir das auch gar nicht leisten. Es gibt dafür wohl auch immer wieder Submissionen, an denen man sich beteiligen kann. Da bekommste dann halt was weiß ich 1x1 2x2 oder 5x5 mm und gut ist.

Wenn ich mein eigenes Design rechtzeitig fertig bekomme, wird das z.B. auf so nen Testwafer mit drauf gepackt. Ich befürchte aber, das ich es einfach zeitlich nicht schaffe, trotz 60h+ Woche :(


Dieses Sharing von Wafern gibt es tatsächlich (hier mal beispielhaft von TSMC angeboten (http://www.tsmc.com/english/dedicatedFoundry/services/cyberShuttle.htm)), das lohnt sich allerdings vorwiegend für kleinere Projekte. Der Sinn dahinter ist übrigens, daß man für einen Prototypen natürlich trotzdem ein komplettes Maskenset benötigt, welches etliche Millionen kostet (und das für eine Handvoll georderte Wafer somit den überwiegenden Teil der Kosten ausmacht). Teilt man sich das mit mehreren anderen Projekten, teilt man sich natürlich auch diese Kosten (und auf dem Wafer ist dann entsprechend ein bunter Mix aus Chips drauf).

Aber so oder so, auch wenn nV nicht diese "shared CyberShuttle® prototyping services" nutzt sondern private Masken hat, läßt sich TSMC natürlich kleinere Waferruns (deutlich) höher bezahlen als mass production runs. Das ist schlicht "economy of scale", wie auch schon andere anmerkten.

Da keiner hier die genauen Abmachungen zwischen TSMC und dessen Kunden kennt (und wie sich die vielleicht mit der Zeit geändert haben) und auch nicht, wieviele Wafer nV für die jeweiligen Samples geodert hat (bei mehr sinkt wie gesagt der Stückpreis), sind alle Schlußfolgerungen aus irgendwelchen Wertangaben auf irgendwelchen Zollformularen reine Kaffesatzleserei. Es kann eine gewisse Korrelation geben, muß aber nicht.
100% sign :up:

Nur nen kleiner Einwurf. Sofern sich nVidia auch nur halbwegs sicher ist, dass das Ding laufen wird, also ohne kompletten Respin, max also Metalspin auskommt, wird man sich seine eigenen Masken nehmen. Die Shared Masken kannste meines Wissens ja ansonsten einfach wegschmeisen, und sooo viel Platz bekommste auch nicht, und selbst wenn, ist der Unterschied zu ner eigenen Maske dann auch nicht mehr so groß.

Skysnake
2014-07-11, 21:52:55
GM204 zur Weihnachtszeit für um die 300 bitte. Das dürfte ein Verkaufsknüller sein. Bitte nVidia. Laut den Infos sieht es ja so aus GM204 zur Weihnachtszeit und GM200 ein paar Monate später. Liege ich da in meiner Ansicht verkehrt oder gebt ihr mir da Recht?

Ich meine wie ist eure Meinung wenn ich denke das es bei nVidia möglich sein könnte das der GM204 für um die 300 bis 330 zur Weihnachtszeit verkauft wird? (Damit würde nVidia ganz klar das Weihnachtsgeschäft gewinnen. Mantle hin und her)
vergiss es. Bis dahin schaffen die never ever die Validierung der ganzen I/O Interfaces usw. GM200 hat ja dann doch viele Änderungen, und so ein großer Chip will gut getestet sein. Zumal er 100% sicher PCI-E 3.0 unterstützen wird, und allein das zu validieren braucht seine Zeit.

CountDoku
2014-07-11, 21:56:56
Ja aber der GM200 wird doch schon verschifft also ist der nicht schon nahe der Produktion? Und nochmal. Wie wahrscheinlich ist ein GM204 zur Weihnachtszeit für um die 300-330 Euro?

Ich denke sollte nVidia das so machen wäre AMD gewaltig unter Zugzwang. Die können da ja nicht gegen anstinken!

Denn der GM204 wird ja schneller als die GTX780Ti. Oder nicht? Ich meine um die 3000 Shader mit Maxwell.

mac_skull
2014-07-11, 22:08:43
In meinen Augen sehr unwahrscheinlich.
Momentan kostet die 780 Ti ja noch weit über 500 Euro. Wenn GM204 tatsächlich schneller sein sollte und AMD nicht rein zufällig einen ebenso guten Chip für unter 400 Euro zu diesem Zeitpunkt im Sortiment hat, dann rechne ich felsenfest mit Preisen über 500 Euro...erst Recht zu Release und in der Weihnachtszeit, in der das Geld bei vielen eh lockerer sitzt.

CountDoku
2014-07-11, 22:13:17
Ja, man sollte den GM200 abwarten der nicht soviel später erscheinen wird. Er liegt doch quasi auf dem Schiff;) Aber mal abwarten zur Weihnachtszeit. Gerüchte gibt es das der Nachfolger billiger als der Vorgänger wird. Und der GM204 ist der Nachfolger der GK104.

Ich bin wirklich auf nVidias Preisgestaltung zur Weihnachtszeit gespannt.

Ja wo kann AMD denn im Bereich GM204 kontern? Ich sehe da garnichts. Oder hab ich was verpasst?

Schnoesel
2014-07-11, 22:16:10
1. GM 204 wir kaum günstiger wie GK 100. Ich tippe auf um die 650€ UVP.
2. GM 200 kommt sicher nicht vor dem 2. Quartal 2015.

Meine Prognose.

occ-kh@Mirko
2014-07-11, 22:19:01
@Countdoku
Mensch...;), da wurden zu Testzwecken 5 Sample in ein hauseigenes Nvidia-Labor nach Indien verschifft, nicht zu einer Produktionsstätte...also zusosagen von einer Produktionsstätte (TSMC) ins Labor. Das dauert noch. Hier war's das A1 Stepping, möglich ist das der Chip erst im A2 Stepping auf den Markt kommt.

CountDoku
2014-07-11, 22:19:45
nVidia bezeichnet den Maxwell Chip GM204! Jetzt denke ich mal das ist nicht der Enthusiast Chip. Liege ich da falsch?

Und der GM204 kommt noch vor Weihnachten das ist so sicher wie das Amen in der Kirche.

Schnoesel
2014-07-11, 22:23:00
Geh doch mal 2 Jahre in die Vergangenheit.

GK 104 die damalige GTX 680 UVP 500€. Und die Leute habens gekauft. Das war auch nicht der Enthusiastenchip. Wenn du denkst du bekommst von Nvidia oder AMD Leistung oberhalb der GTX 780 TI für 300€ kann ich dir nicht helfen. Das wird nicht passieren.

Gipsel
2014-07-11, 22:24:21
Nur mal so ganz zusammenhanglos eine Erinnerung an konstruktives Verhalten in Diskussionsforen:
http://abload.de/img/dfttgvbbg.gif

Ailuros
2014-07-11, 23:55:15
Zurueck zum Thema bitte.

Dural
2014-07-12, 17:27:49
ich sehe keinen grund wie so GM204 zu weihnachten keine 300.- kosten kann. Ist mit seinen 400mm2 zwar recht gross aber die Fertigung dürfte sehr ausgereift sein und das SI ist auch nur 256Bit gross.

NV hat schon 500mm2 Chips mit deutlich grösserem SI für diesen Preis verkauft.

Wenn AMD was vernünftiges liefern kann und NV in den Preiskampf einsteigen muss ist 300.- ganz klar möglich. Jedoch sehe ich seitens AMD leider nichts in diese Richtung. Und so muss man halt wieder mit 500.- rechnen.

Unicous
2014-07-12, 17:43:28
Es sprechen mehrere Gründe dagegen.

1. Nvidias Preispolitik

2. Nvidias Preispolitik.

3. ... Warum sollte auf einmal ein neuer Chip der zu dem Zeitpunkt wohl im Bestfall ein paar Woche in den Läden steht eine Trendwende in Nvidias Preispolitik einleiten?

4. Nv.... Weihnachten. Warum zum Teufel sollte Nvidia zur Zeit der fettesten Umsätze (B2S und Holiday Season) ihre Preise und dadurch den Gewinn drücken... bei einem neuen Produkt?

Vor ein paar Jahren hat man sich darüber aufgeregt, dass AMD und Nvidia ihre Mitteklasse/Enthusiasten auf High End Preisniveau angehoben hat und nun soll gerade Nvidia von diesem Pfad wieder abweichen.:rolleyes:


Wovon träumt ihr eigentlich nachts?;D

-/\-CruNcher-/\-
2014-07-12, 17:57:21
Sehe ich leider genauso die Rechtfertigung für den Preis wird der niedrigere Energieverbrauch werden bei besserer Performance (vor allem Compute), mit so einem Vorteil kann man schon minimum den selben Preis verlangen aber abheben können sie diesmal nicht sonst würde AMD das wieder nutzen.
Vor allem wird es interessant wenn sie Anfangen für Gameworks die Kerne auszutauschen aber wahrscheinlich exestieren diese Branch switches schon für Maxwell Karten das erstemal ja schon angepasst bei der 750/TI bei Ubisoft und AC4 :)

occ-kh@Mirko
2014-07-12, 18:05:06
Die werden eh wieder bei 479-499 liegen wenns scheller ist als die 780ti wird eher mehr, wer was anderes glaubt soll es tun. Und damit wäre man wohl noch gut bedient. Die Preise haben dem Absatz von Nvidia nicht geschadet warum sollen sie sie senken?

Die 500 Euro haben sich in dem Segment für Neuerscheinungen mittlerweile manifestiert, da gibt es kein zurück mehr.

ilibilly
2014-07-12, 18:11:45
Die schnellsten Karten haben ja schon immer soviel gekostet,meine Diamond Monster 8mb hatte damals 599 Dm gekostet ,was jetzt wohl kaufkraftmäßig um die 500€ entspricht.
Für einen niedrigen Preis brauchts keine günstige Produktion sondern Konkurrenzkampf und der fehlt zwischen amd und Nvidia ,seit jähren erleben wir ja nur noch 15-20% Steigerungen.
Irgendwie hat man das Gefühl als ob beide Hand in Hand diese kleinen Schritte machen,ein gutes Pferd springt nur so hoch wie es muss und nicht wie es kann :)
Ist ja bei intel vs amd nicht anders.

Dawn on Titan
2014-07-12, 18:19:41
Wenn sie schneller als die 780ti ist, wird sie nicht billiger. Bisher scheinen die Preise den Absatz bei NV nicht zu bremsen.