Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Timbaloo
2014-02-21, 20:06:43
ich denke einfach dass es nun schwerer wird einfach große Verbesserungen zu erzielen
Hmmm, also spätestens seit dem GK107 Release bin ich vom Gegenteil überzeugt.

Wenn Maxwell jetzt noch gut skaliert und 20SoC nicht total Grütze ist sollte doch ein ordentlicher Sprung rauskommen.

Ailuros
2014-02-21, 20:07:26
Danke für die Erkläung :smile:
Bleibt das Verhältnis FP64 je SMM bei GM2xx gleich?

Bis zum top dog/GM200 wohl ja; das letzte sieht dann eher nach um einiges hoeheren Anzahl von FP64 units pro cluster aus. GK110 hat 64 FP64/SMX.

Was hat den NV am Interconnect verändert? Bei GF100 war es ja noch ein riesen Problem.

Sehr wenig; es gab beim GF100 irgend ein Problem mit dem fabric, aber es wurde bei GF110 beseitigt.

Godmode
2014-02-21, 20:16:06
Wie ist der Interconnect eigentlich aufgebaut? Ist das so etwas wie ein Switch im Netzwerkbereich oder ganz was anderes?

@GM200: Wenn der L2 Cache mit den SMMs mitskaliert, dürfte man hier noch mehr rausholen können.

fondness
2014-02-21, 20:18:43
Ich stelle mir die Frage wie "gut" sich die ganzen low power und "SoC" Prozesse für GPUs eignen. Kaum eine Foundry bietet bei 20nm noch eine High performace Prozess an. Das könnte deutlich Taktraten kosten.

Ailuros
2014-02-21, 20:23:48
Wie ist der Interconnect eigentlich aufgebaut? Ist das so etwas wie ein Switch im Netzwerkbereich oder ganz was anderes?


Ich lass mich gerne eines besseren belehren, aber ich stelle es mir wie eine Art crossbar mit sehr vielen kleinen faser-artigen Verbindungen vor.

Ich stelle mir die Frage wie "gut" sich die ganzen low power und "SoC" Prozesse für GPUs eignen. Kaum eine Foundry bietet bei 20nm noch eine High performace Prozess an. Das könnte deutlich Taktraten kosten.

GK20A im K1 taktet maximal bei 951MHz unter 28HPm. Klingt Dir die Frequenz zu klein? Noch besser CPUs takten schon heute bei 2,5GHz wie der Krait im S80x auf 28HPm. Chips sollen gefaelligst in die Breite gehen denn zu hohe Frequenzen waren schon immer und ueberall eine Schnappsidee.

HPVD
2014-03-06, 21:38:56
na das wird ja mal spannend - ob die kommenden Maxwell v2 wohl bereits das heute angekündigte DirectX 12 unterstützen?

Rente
2014-03-06, 22:14:01
Da wir nicht wissen welche Voraussetzungen Microsoft für DX12 setzt, könnte theoretisch bereits GK104/110 alles notwendige unterstützen, bis zum 20.03. wird man sich allerdings wohl noch gedulden müssen.

Timbaloo
2014-03-06, 22:21:27
Was ist am 20.3.?

Ailuros
2014-03-06, 22:24:56
Da wir nicht wissen welche Voraussetzungen Microsoft für DX12 setzt, könnte theoretisch bereits GK104/110 alles notwendige unterstützen, bis zum 20.03. wird man sich allerdings wohl noch gedulden müssen.

Αlles bis zu Maxwell GM107 ist nicht mal DX11.2 sondern "nur" DX11.0. Wieso sollte ploetzlich jeder von diesen DX12 sein oder besser was verpass ich gerade?

Rente
2014-03-06, 22:35:43
Αlles bis zu Maxwell GM107 ist nicht mal DX11.2 sondern "nur" DX11.0. Wieso sollte ploetzlich jeder von diesen DX12 sein oder besser was verpass ich gerade?
Du gehst wohl davon aus, dass für DX12 alle Funktionen aus FL11.1 zwingend unterstützt werden müssen, darauf würde ich persönlich aktuell aber einfach noch nicht wetten.
NVidia sitzt schließlich auch in den entsprechenden Gremien, wenn die ihren Sonderweg weiter fahren wollen, werden sie sich sicherlich bei DX12 entsprechend eingebracht haben bzw. einbringen.

Aber letztendlich hat hier wohl keiner eine funktionierende Glaskugel und damit heißt es aus meiner Sicht eben warten auf den 20.03. (Game Developer Conferences in San Francisco)...

Ailuros
2014-03-07, 00:11:24
Du gehst wohl davon aus, dass für DX12 alle Funktionen aus FL11.1 zwingend unterstützt werden müssen, darauf würde ich persönlich aktuell aber einfach noch nicht wetten.

In welchem Fall war es denn historisch je anders?


Aber letztendlich hat hier wohl keiner eine funktionierende Glaskugel und damit heißt es aus meiner Sicht eben warten auf den 20.03. (Game Developer Conferences in San Francisco)...

Ich frag lediglich weil ich in mehreren Stellen diverse Anspielungen lese dass DX12 angeblich ein "sw only" upgrade sein soll. Wenn es sich um die "Glaskugel" handeln sollte wuerde ich eher einfache Logik stattdessen benutzen.

-/\-CruNcher-/\-
2014-03-07, 00:43:41
Weitere Reduktion des Overhead und vielleicht hat man es geschaft einige der Mobile (APP specific) features auf Desktop zu bringen, könnte ich mir denken da einige Hardware durchaus im Stande dazu wäre einige der Scaler features z.b zu supporten ;)

Dawn on Titan
2014-03-07, 07:28:52
Wenn man nur in Richtung Mantle gehen will, dann kann DX12 durchaus ein SW Update sein.

Iruwen
2014-03-07, 08:33:11
Man wird bestimmt nicht Features die in DX11.1/2 verpflichtend waren plötzlich wieder optional machen. Das würde ja potentiell knallen wenn jemand sich bei FL >11_0 drauf verlässt, dass Features garantiert vorhanden sind. Dafür gibts ja die FL, sonst könnte man gleich jedes Feature einzeln prüfen.

HOT
2014-03-08, 10:50:34
Αlles bis zu Maxwell GM107 ist nicht mal DX11.2 sondern "nur" DX11.0. Wieso sollte ploetzlich jeder von diesen DX12 sein oder besser was verpass ich gerade?
Exakt. GM204, 206 und 207 sind sicherlich 20nm, aber haben zu 99% genau das gleiche Featureset wie GM106 und GM107, sonst wären es keine Maxwell. DX12 ist noch viel zu neu und von DX11.1/2 hält NV offenbar einfach nicht viel. Ist wie bei DX10.0 zu DX10.1.

Duplex
2014-03-08, 12:58:18
Es sollte bestimmt nicht komplizierter als DX11 sein DX12 in Maxwell einzubauen, einfach mal an RV770>RV870 denken, da muss sich kaum was ändern bei der Architektur, nächstes Jahr wird man mit 16nm wahrscheinlich schon DX12 Chips sehen, sowohl von Nvidia als auch von AMD, mit Windows 9 wäre das sinnvoll.

Mandalore
2014-03-08, 13:32:25
Auf der GTC13 hat doch der nvidia CEO 3 Punkte genannt, die Maxwell ausmachen. 1)UVM 2)Extreme Perf/watt und 3) irgendeine visuelle "groundbreaking" Neuheit. Könnte das was mit DX12 zu tun haben?

Glaube nämlich, da die XboxOne auch DX12 unterstützen soll kanns ja nix "interessantes" werden.

Blediator16
2014-03-08, 16:33:52
Ein DX zu unterstützen soll nun eine "groundbreaking" Neuheit sein? Ich glaube eher nicht.

Nightspider
2014-03-08, 16:38:49
SLI wo sich der VRAM beider Karten addiert oder SLI mit 100% Skalierung wäre groundbraking.

Iruwen
2014-03-08, 17:53:13
Aber nicht visuell ;)

Ailuros
2014-03-08, 19:37:13
SLI wo sich der VRAM beider Karten addiert oder SLI mit 100% Skalierung wäre groundbraking.

Geht schon wenn man den AFR-Scheiss loswird und anstaendigerweise etwas in hw dafuer reingiessen wuerde.

StefanV
2014-03-08, 20:12:01
3) irgendeine visuelle "groundbreaking" Neuheit. Könnte das was mit DX12 zu tun haben? Nein, sicher nicht.
Und wie man nVidia kennt, wird hier wieder irgendein Wasserglas Sturm aufgebauscht, wie dieses G-Sync Teil...




Da würde ich eher offizielles Downsampling vermuten als andere Dinge...
Oder sowas wie Sweet FX...

Hübie
2014-03-08, 20:46:52
Geht schon wenn man den AFR-Scheiss loswird und anstaendigerweise etwas in hw dafuer reingiessen wuerde.

Amen! Der Dreck verfolgt mich seit Jahren! Ich wette damit is aber eher was in Richtung G-Sync gemeint...

Nightspider
2014-03-08, 20:55:21
G-Sync ist auch nicht gerade groundbraking und hat vor allem mehr mit Monitoren als mit Grafikkarten zu tun. (Zumindest wenn man nicht gerade John Carmack fragt)

Hübie
2014-03-09, 02:51:34
Bei nVidia ist ALLES groundbraking. Wann merkt das auch der Hinterletzte? :rolleyes:

StefanV
2014-03-09, 03:28:13
Bei nVidia ist ALLES groundbraking. Wann merkt das auch der Hinterletzte? :rolleyes:
Sehr schön, dass wir hier in diesem Punkt gleicher Meinung sind :)

Aber, wo wir beim Thema wären: Die FSAA Filter bei AMD wären auch etwas, was nVidia als 'Groundbreaking' bezeichnen würde...

Ailuros
2014-03-09, 08:48:22
Sehr schön, dass wir hier in diesem Punkt gleicher Meinung sind :)

Aber, wo wir beim Thema wären: Die FSAA Filter bei AMD wären auch etwas, was nVidia als 'Groundbreaking' bezeichnen würde...

Bei jedem IHV ist jeder neue Furz "groundbreaking" wenn Ihr wirklich objektiv sein wollt (wo es wohl noch einiges an Willem hier fehlt) :P

Fuer mich sieht DX12 zunehmend nach einer sw low level Orientierung aus und wir haben schon eine Unmenge an DX12 GPUs unter uns wobei NV GPUs nicht unbedingt darunter liegen muessen.

Sonst waere nichtmal anstaendiger LOD fuer Tessellation in DX12 fuer mich "groundbreaking" weil es eine "Einzelheit" ist dass dem Zeug von Anfang an fehlt.

Kurz das einzige "groundbreaking" von Microsoft ist mal wieder dass sie uns einen Haufen Scheisse vorgaukeln.

N0Thing
2014-03-09, 11:23:51
Amen! Der Dreck verfolgt mich seit Jahren! Ich wette damit is aber eher was in Richtung G-Sync gemeint...

Kann ich mir weniger vorstellen. G-Sync ist zwar was besonderes, aber das wurde schon angekündigt, vorgeführt und auf den Markt gebracht und funktioniert auch schon mit den Kepler-Karten. Da sehe ich keinen Raum für eine besondere Funktion mit Maxwell.

Knuddelbearli
2014-03-09, 11:57:52
hmm 7650TI wäre doch sicher eine nette PhysiX Karte für eine Radeon oder? Verbrauch extrem niedrig, vor alem der wichtige idle Verbrauch.
Mal gucken wann die Custom Treiber die unterstüzen.

ShinyMcShine
2014-03-09, 12:11:03
hmm 7650TI wäre doch sicher eine nette PhysiX Karte für eine Radeon oder?

Das habe ich mir auch schon gedacht!
Wird so eine Karte bei PhysiX-Berechnungen überhaupt an Ihre Leistungsgrenzen gebracht? Ggf. ist der Verbrauch dann sogar noch niedriger, als unter Grafik-Volllast?

VG
Shiny

Knuddelbearli
2014-03-09, 12:29:16
kommt auf die Radeon Grafikkarte an und aufs Spiel.
bei Single GPU ( auch einer 290X ) dürfte man aber vermutlich sogar noch gut Underclocking und Volting betreiben.
Und wenn man die Leistung nicht braucht schaltet man die Radeon ab und nutzt die NV ^^ ( ist jetzt nur eine Idee weiß gerade nicht ob das überhaupt geht. NV treiberpanel ist ja gesperrt )
Doof ist halt immer die Abhängigkeit von Custom Treiber. Jede GPU und jedes Spiel muss eigens eingepflegt werden (AC4 und Batman origins geht meines Wissens noch nicht ). Allerdings gibt es da einen recht aktiven Modder auf PCGH.de.

ShinyMcShine
2014-03-09, 17:11:07
Wenn man eine andere NV Karte im Rechner hat, sollte das ja kein Problem darstellen, oder? Habe das noch nie probiert, eine 2. Grafikkarte als extra Physikbeschleuniger, aber eine GTX 750 Ti würde mich schon irgendwie reizen.

Gibt es irgendwo Werte, was die Karte verbraucht, wenn sie nur als Physikbeschleuniger genutzt wird?

VG
Shiny

Nightspider
2014-03-09, 17:19:36
Das Gleiche habe ich ja auch schon im 750ti Review-Thread gefragt aber keine Antwort bekommen.

Bisher weiß ja auch noch keiner ob die Maxwell Architektur bei PhysX-Berechnungen schneller rechnet als Kepler oder nicht.

Knuddelbearli
2014-03-09, 17:32:11
Also eine GT 460 boostet in AC4 um 26% bei PhysiX hoch
und braucht ca 50W mehr, bei spielen sind es aber eher 140W die eine 460 verbraucht.

Für mehr Infos einfach aktuelle PCGH kaufen ;-)

Hübie
2014-03-09, 18:02:32
Kann ich mir weniger vorstellen. G-Sync ist zwar was besonderes, aber das wurde schon angekündigt, vorgeführt und auf den Markt gebracht und funktioniert auch schon mit den Kepler-Karten. Da sehe ich keinen Raum für eine besondere Funktion mit Maxwell.

Du hast mich missverstanden. Ich meinte (und schrieb) sowas in die Richtung wie G-Sync. Sprich etwas in Hardware gegossen was die smoothness vereinfacht ;) 'Know what i mean?

OC_Burner
2014-03-09, 20:06:44
Wenn man eine andere NV Karte im Rechner hat, sollte das ja kein Problem darstellen, oder? Habe das noch nie probiert, eine 2. Grafikkarte als extra Physikbeschleuniger, aber eine GTX 750 Ti würde mich schon irgendwie reizen.

Gibt es irgendwo Werte, was die Karte verbraucht, wenn sie nur als Physikbeschleuniger genutzt wird?

VG
Shiny

Die Tage kann ich das gerne mal testen. Der Mehrverbrauch dürfte mit GTX 750 Ti aber sehr gering ausfallen. Borderlands 2 hob vor ein paar Tagen bei kurzen Tests die Auslastung der GPU gerade mal 10-20% an.

ShinyMcShine
2014-03-09, 20:08:03
Die Tage kann ich das gerne mal testen. Der Mehrverbrauch dürfte mit GTX 750 Ti aber sehr gering ausfallen. Borderlands 2 hob vor ein paar Tagen bei kurzen Tests die Auslastung der GPU gerade mal 10-20% an.

Wäre super!

N0Thing
2014-03-09, 23:17:25
Du hast mich missverstanden. Ich meinte (und schrieb) sowas in die Richtung wie G-Sync. Sprich etwas in Hardware gegossen was die smoothness vereinfacht ;) 'Know what i mean?

Ah, okay. Dachte du meinst mit "in Richtung" etwas "für g-sync" und nicht "wie g-sync". ;)

OC_Burner
2014-03-10, 19:36:16
Wäre super!

Im groben Durchschnitt kann man sagen das die GTX 750 Ti das System zusätzlich um 30W bis 45W belastet wenn PhysX Effekte im Spiel ausgiebig genutzt werden.

Getestet mit Metro Last Night, Borderlands 2, Passions Leads Army (PLA) Benchmark. Habe noch kurz mit FluidMark getestet aber das stellt kein realistisches Szenario dar, da die PhysX GPU (ganz im Gegensatz zu Spielen) unverhältnismäßig hoch ausgelastet wird.

Unterstützt wurde eine Geforce GTX Titan, wobei deren Auslastung immer nahe der 100% war. Die Geforce GTX 750 Ti wurde in den drei Spielen nie über 30% ausgelastet. Im Schnitt ist die Auslastung eher 10% bis 20%.

Blediator16
2014-03-10, 20:22:51
Eine 1000€ Grafikkarte und eine ded. Physx Karte? Lächerlich.

OC_Burner
2014-03-10, 20:49:00
Eine 1000€ Grafikkarte und eine ded. Physx Karte? Lächerlich.

Deine Behauptung einfach mal dahin gestellt ich würde die 750 Ti wirklich als PhysX-Beschleunigerkarte einsetzen, so macht es in der Tat wenig Sinn die kleine Karte mit einer Titan zu kombinieren. Der Performancegewinn hält sich sehr in Grenzen.:rolleyes:

ShinyMcShine
2014-03-10, 20:50:57
Im groben Durchschnitt kann man sagen das die GTX 750 Ti das System zusätzlich um 30W bis 45W belastet wenn PhysX Effekte im Spiel ausgiebig genutzt werden.

Getestet mit Metro Last Night, Borderlands 2, Passions Leads Army (PLA) Benchmark. Habe noch kurz mit FluidMark getestet aber das stellt kein realistisches Szenario dar, da die PhysX GPU (ganz im Gegensatz zu Spielen) unverhältnismäßig hoch ausgelastet wird.

Unterstützt wurde eine Geforce GTX Titan, wobei deren Auslastung immer nahe der 100% war. Die Geforce GTX 750 Ti wurde in den drei Spielen nie über 30% ausgelastet. Im Schnitt ist die Auslastung eher 10% bis 20%.

Danke für diese Werte! Wenn die GTX 750 Ti mit PhysiX "nur" eine derartige AUslastung hat, sollte sie auch gut leise bleiben.

Sind Maxwell-Kerne eigentlich besser geeignet für PhysiX-Berechnungen als Kepler- oder Fermi-Kerne (bzw. ist die Architektur der GPU relevant)?

VG
Shiny

Knuddelbearli
2014-03-10, 21:15:31
erhöht trotzdem die fps/€uro ^^ und zwar teilweise deutlich

Unicous
2014-03-10, 22:20:10
Laut heise munkelt man über Q4 2014 bzw. Anfang 2015

In zahlreichen Gesprächen war zu hören, dass es noch eine Weile dauern wird, bis die richtig großen GPU-Kracher in 22-nm-Fertigung kommen. So dürfte Nvidias großer Maxwell-Ableger noch viele Monate auf sich warten lassen. Einige Quellen sprachen vom vierten Quartal 2014, eine Person sogar von Anfang 2015.
http://www.heise.de/newsticker/meldung/Grafikkarten-Neuheiten-Naechste-GPU-Generation-wohl-fruehestens-im-zweiten-Halbjahr-2139532.html

Ich hoffe mal "22nm" ist ein Tippfehler (und nicht einfach Unwissenheit) oder haben Nvidia und AMD einen geheimen Deal mit Intel gemacht?:freak:

Timbaloo
2014-03-10, 22:31:51
"Nvidias großer Maxwell-Ableger"... ja was meinen sie denn? GK200? Oder alle GK2xx? Manchmal nervt dieses unpräzise Gewäsch einfach nur...

Hübie
2014-03-10, 22:46:32
Für mein Verständnis: GM2XX Ende 2014 und top dog Anfang 2015. So in etwa.

Unicous
2014-03-10, 23:03:49
Wäre jetzt keine gute Idee zu versuchen diese Aussagen zu deuten.

Das kann Alles und Nichts bedeuten. Und auch falsch sein.:wink:

Und ich denke nicht, dass das zwei verschiedene Produkte sind, sonst hätten sie das auch so gesagt, sondern verschiedene Quellen. Wie sagte man so schön, "eine Person" macht noch keine GPU-Produktion. Oder so ähnlich.

Hugo78
2014-03-10, 23:40:53
Ein gutes Pferd springt nur so hoch wie es muss, sprich es ist doch klar das GK204 Vollausbau der Topdog im Desktop werden wird.
Solang das Teil 15-30% vor der GTX 780Ti landet und dabei unter 200W bleibt, reicht das für die erste 20nm Maxwell Gen.

dildo4u
2014-03-24, 17:57:01
GTC 2014 Opening Keynote Morgen ab 17Uhr

http://www.twitch.tv/nvidia

Timbaloo
2014-03-24, 19:27:20
Über Maxwell wird doch da nicht viel kommen (können)?

Hübie
2014-03-24, 19:37:37
GTC 2014 Opening Keynote Morgen ab 17Uhr

http://www.twitch.tv/nvidia

CET? Oder wie? :smile:

Nightspider
2014-03-24, 23:34:03
Angeblich wird doch ein 20nm Maxwell präsentiert:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/30342-gtc-2014-nvidia-wird-maxwellq-in-20-nm-praesentieren.html

Knuddelbearli
2014-03-24, 23:39:18
Wieder mit Holzfüllung? :biggrin:

Unicous
2014-03-24, 23:41:57
Na hoffentlich wird das nicht wieder sone Fermi Aktion.:wink:

Diesen magischen Trick kann man nur einmal bringen. Vor 5 Jahren auf der GTC


mJOv3VlkEjQ

Hübie
2014-03-24, 23:43:16
...und groundbreaking outstanding bwsanabmannhirschgeweihleuteverarsche ;D

scnr

Ich muss aber zugeben dass ich mir keynotes mit Jensen immer gern ansehe :freak:

Unicous
2014-03-24, 23:51:41
Für mich ist JHH das Hauptproblem von Nvidia.

Seine Vorträge versuchen immer Apple/Jobs zu kopieren. Mit tollen buzz words wie "The Soul of a Supercomputer in the body of a GPU"

The Fuck?:freak:

Steve Jobs hätte das so verkaufen können, aber Jensen ist einfach nicht charismatisch genug dafür. Und dieser "Snake Oil Salesman"-Charme macht es mir auch sehr schwer Jensen ernst zu nehmen.

Aber das ist OT. Mal sehen was für schicke Buzzwords dieses Mal fallen. Denn auf dieses Bullshit bingo freue ich mich definitiv.:biggrin:

-/\-CruNcher-/\-
2014-03-25, 00:02:55
...und groundbreaking outstanding bwsanabmannhirschgeweihleuteverarsche ;D

scnr

Ich muss aber zugeben dass ich mir keynotes mit Jensen immer gern ansehe :freak:

Er ist ein Engineer und hat Charisma bei ihm merkst du es noch mehr als wie bei Bill Gates schon allleine wie er das Quanten Problem der GPU bei ECC anspricht und es versucht den leuten zu erklären :)

Er ist überzeugt von dem was er sagt er ist überzeugt von "seiner" GPU :)

Hübie
2014-03-25, 00:12:11
Ohne ihn gäbe es kein nVidia. Er ist ein wenig wie Morris Chang: 90% wirtschaftlich 10% technisch eingestellt. Nur hat er einfach noch nicht diese Reife. Er ist letzten Monat übrigens 52 geworden.

Ich bin jedenfalls gespannt was es alles über Maxwell zu berichten gibt. Das Rad wird defintiv nicht neu erfunden, aber wieder etwas runder ;D

Konami
2014-03-25, 00:16:42
Ach was, Jensen ist cool. Niemand rockt eine Lederjacke wie er. ;)

Coda
2014-03-25, 00:18:18
Huang hat sicherlich mehr auf dem Kasten als die ganze Schwätzerbande in diesem Thread schon wieder.

Hübie
2014-03-25, 00:22:57
Na sag ich doch. Ohne ihne gäbe es nVidia nicht. Ich weiß nicht warum du uns alle schon wieder herabsetzen musst. Scheiß Tag gehabt oder was? :rolleyes:

Thunder99
2014-03-25, 00:26:41
Evt zeigen die ein Prototyp mit Denver CPU und GM107 ^^

Nakai
2014-03-25, 00:46:58
Scheiß Tegra gehabt oder was? :rolleyes:

;D

Ich hab mich initial tatsächlich verlesen...^^

Ailuros
2014-03-25, 06:59:31
JHH hat ueber die Jahre viel geliefert aber man kann es eben nicht immer und in allen Faellen wiederholen. Die ueberheblichen Einzel-Satz-Klugscheissereien koennen sich manche auch sparen, denn es ist wohl auch ein paar Ewigkeiten her wo sie einen Realitaets-check hatten.

So und jetzt zurueck zum Thema.

AffenJack
2014-03-25, 07:57:00
Evt zeigen die ein Prototyp mit Denver CPU und GM107 ^^

Naja, die Aussage : Preview of the new 20nm high-end Maxwell GPU architecture (GM10x/GeForce 8xx) with unified virtual memory
ist ja schon recht eindeutig, dass man schon etwas über nen größeren Maxwell reden wird. frage ist nur ob GM100 oder eher GM104 und wieviel Details man erwarten kann. Ich glaube nicht allzu viel, aber finds schonmal gut, dass es jetzt nen Preview gibt. Dann können die Chips nicht allzu weit weg sein.

Die früheren Spekus aus diesem Thread mit GM206,204,200 als 20nm Maxwells scheinen damit aber auch falsch, wie in der Überschrift zu sehen.

Timbaloo
2014-03-25, 08:04:58
Die früheren Spekus aus diesem Thread mit GM206,204,200 als 20nm Maxwells scheinen damit aber auch falsch, wie in der Überschrift zu sehen.
Raff ich jetzt nicht? :confused:

AffenJack
2014-03-25, 08:11:10
Raff ich jetzt nicht? :confused:

Ähh, Überschrift, quote von der Ankündigung mein ich. 20nm high-end Maxwell GPU architecture (GM10x/GeForce 8xx)

Also entweder die haben ihre eigene Keynoteankündigung verhauen oder 20nm Maxwells sind auch GM10X und nicht GM20x

Dawn on Titan
2014-03-25, 08:18:15
GM104. Namen sind doch nur Schall und Rauch.

Iruwen
2014-03-25, 10:59:06
Auch der ganze Superlativbullshit muss einfach nicht sein.... Klar gibt ihm der Erfolg teilweise Recht, aber man ruiniert sich auf Dauer einfach das Image. Und ist die Schar an nVidia-Jüngern das wirklich wert?

Hat bei Apple immerhin gereicht um die wertvollste Firma der Welt zu werden.

AnarchX
2014-03-25, 11:11:56
Das mit den Namen verwirrt mich schon seit Jahren. Ich kapier bis heute nicht warum GK104 (kleiner als 7) der schnellere Chip als GK107 ist, während GK110 (größer als 7) auch schneller als 107 ist und warum man keine 109 benutzt. Also lassen wir das mal alles so stehen. Da könnte auch Mickey Maus stehen, denn das ist auch nur ein Name. ;)
Mittlerweile ist das schon systemamtischer als noch bei NV3x/NV4x oder eben G7x mit G72.

Aber wie schon öfters diskutiert, wäre es wohl langfristig nicht verkehrt für NV die Codenamen wie AMD zu gestalten. So hat die Konkurrenz mehr Probleme die konkrete GPU während ihrer Entwicklung einzuordnen und der Endkunde weiß nicht für welches Marktsegment sie ursprünglich entwickelt wurde.

gnahr
2014-03-25, 11:16:35
Das mit den Namen verwirrt mich schon seit Jahren.
erste ziffer arch,
zweite refresh
dritte leistungsklasse (reziprok der leistung).

104 würde zu 114 refresht werden.
deshalb ist 104 schneller als 107, aber vielleicht langsamer als 110.
immer noch unklar?

Schaffe89
2014-03-25, 11:50:50
Gibt's da einen Livestream den man sich geben kann?

Thunder99
2014-03-25, 12:04:27
Gibt's da einen Livestream den man sich geben kann?
Ja: "Die Keynote zur GTC wird um 17:00 Uhr heute Abend per Livestream (http://www.twitch.tv/nvidia) übertragen."

robbitop
2014-03-25, 13:17:54
Und bestimmt wird uns mit GM104 wieder ein Mainstream Chip als High End verkauft werden. Ich hasse diese Salamitaktik.

Godmode
2014-03-25, 13:21:55
Und bestimmt wird uns mit GM104 wieder ein Mainstream Chip als High End verkauft werden. Ich hasse diese Salamitaktik.

Natürlich und um mindestens 500 Euro. :tongue: Und alle werden sich freuen wie wenig Strom er braucht.

Godmode
2014-03-25, 13:27:48
woodscrew anyone? :D

Der ist schon lange nicht mehr witzig.

Nightspider
2014-03-25, 13:27:51
Vielleicht stellt man auch das vor: LightBoost Sequel: Ultra Low Motion Blur (ULMB)

http://www.blurbusters.com/lightboost-sequel-ultra-low-motion-blur-ulmb/

Wenn man den Lightboost-Hack offiziell anbietet, hat man kostenlos ein neues Feature.^^

robbitop
2014-03-25, 13:28:07
Danach wird der große Chip dann auch 2x verkauft. Einmal teildeaktiviert und einmal vollaktiv. :-(

Wie schön war es noch, als es alle 1,5 - 2 Jahre "volle" High End GPUs mit ca. Faktor 2 mehr an Leistung gab...

AnarchX
2014-03-25, 13:42:25
Oder mittels Speicher-Embargos 3-mal (Titan 6GiB -> 780 Ti 3GiB -> Titan Black 6GiB). :ugly: Mittlerweile war man aber immerhin so gütig, die 6GiB 780 Non-Ti freizugeben...
Aber weniger jährliche Leistungssteigerung ist nicht nur ein Problem des High-Ends: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10157318#post10157318

Naja, vielleicht kündigt Jensen heute Abend einen Ausweg daraus an...

mrck
2014-03-25, 13:45:57
...

Timbaloo
2014-03-25, 13:48:39
Da mache ich mir keine Sorgen. GK107 kommt als 750ti schon mit 2GB @ 128Bit SI. Man wird sicher keine Karte mit 256Bit SI mit nur 2GB verkaufen, das wäre dann schon arg albern.

mac_skull
2014-03-25, 13:55:25
Ist Nvidias Preisgestaltung nicht auch davon abhängig, was AMD bringt? Wenn ich mich recht erinnere war doch die GTX680 damals nur so teuer, weil Nvidia mit ein wenig mehr Takt gut mit AMDs Highend konkurrieren konnte. Falls AMD also im gleichen Fertigungsprozess ähnliche Werte liefert aber es als Performance Chip im entsprechenden Preissegment anbietet, dürfte Nvidia doch kaum dazu in der Lage sein die gleiche Preisschiene wie damals zu fahren. Bzw. wenn es AMD gelingen sollte gleich eine Karte wie die 290 zu veröffentlichen, könnte Nvidia eine 770 nicht für 500 Euro aufwärts auf den Markt bringen, oder bin ich da auf dem Holzweg?

MfG

AnarchX
2014-03-25, 13:56:04
Da mache ich mir keine Sorgen. GK107 kommt als 750ti schon mit 2GB @ 128Bit SI. Man wird sicher keine Karte mit 256Bit SI mit nur 2GB verkaufen, das wäre dann schon arg albern.

4GiB muss ein GM104/204 schon haben um in 780 Ti/R9 290 Klasse mitzuspielen. Mit den 4Gbit GDDR5 Chips ist das auch kein großer Aufwand mehr.

Interessanter ist da eher, ob es schon 8Gbps GDDR5 geben wird. Testmaschinen dafür sind wohl schon für die Speicherhersteller käuflich: https://www.advantest.com/CN/products/ictestsystems/ADVCNT009867

Ist Nvidias Preisgestaltung nicht auch davon abhängig, was AMD bringt? Wenn ich mich recht erinnere war doch die GTX680 damals nur so teuer, weil Nvidia mit ein wenig mehr Takt gut mit AMDs Highend konkurrieren konnte. Falls AMD also im gleichen Fertigungsprozess ähnliche Werte liefert aber es als Performance Chip im entsprechenden Preissegment anbietet, dürfte Nvidia doch kaum dazu in der Lage sein die gleiche Preisschiene wie damals zu fahren, oder bin ich da auf dem Holzweg?

Grob muss sich NV natürlich an AMD orientieren, wenn auch in den letzten Jahren für NV ein gewisser Premiumauschlag möglich war.
Wenn GM204 es nur mit der zweitschnellsten AMD-GPU aufnehmen kann, wären wohl >=$499 utopisch. Außer es existieren Absprachen, dass dann AMD seinen Top-Chip für $999 anbietet.

Nightspider
2014-03-25, 14:14:08
Die Frage ist nur ob 4GB schon für HighEnd reichen. Immerhin will der geneigte HighEnder demnächste NextGen-Games in UHD genießen mit MSAA. Spätestens bei eine GTX 880 SLI Gespann sollte man zu 8GB Karten greifen.

Es ist ja nicht mal sicher, ob GM104 auch nur 256 Bit SI besitzt. Falls ein 384 Bit SI verbaut wird, sehen wir wieder 6 GB bei der GTX 880.

robbitop
2014-03-25, 14:40:32
Wenn GM104 deutlich schneller werden will als GK110, braucht er auch die passende Bandbreite. Unter 384 bit SI wird da sicher nichts laufen. GM200 wird dann ggf. auf 512 Bit laufen.

Ich kann mir vorstellen, dass AMD auch zunächst keinen Top Dog bringt. Immerhin will man die Prozessreserven (dank steigenden Kosten und erhöhter Zykluszeit) länger nutzen.

Falls ein 384 Bit SI verbaut wird, sehen wir wieder 6 GB bei der GTX 880.
Oder 3 GiB. :(

HOT
2014-03-25, 14:51:53
GM204 ist ein Ersatz für GK104 in effizienter und etwas schneller. Ob der wirklich GK110 ersetzen kann und soll, steht in den Sternen. Wenn ist er nicht schneller als GK110. Das ist wieder so ein 300mm²-Teil.

AnarchX
2014-03-25, 14:55:29
GM204 ist ein Ersatz für GK104 in effizienter und etwas schneller. Da wird gar nix im GK110-Bereich ersetzt. Das ist ja wieder ne Wunschträumerei, die hier abgeht...

Seit Fermi boten die 4er GPUs dank neuer Architektur und Prozesswechsel durchaus eine Mehrleistung, die es ihnen erlaubte die alten High-End-Modelle zu ersetzen. Insofern ist das keine "Wunschträumerei". ;)

edit: OK, du hast es mittlerweile etwas abgeschwächt... ;)

Duplex
2014-03-25, 15:01:14
GM204 sollte sich locker 20-30% vor der GTX780 Ti positionieren.

StefanV
2014-03-25, 15:11:00
Seit FermiSeit Fermi? Das ist mal gerade eine Generation...
GM204 sollte sich locker 20-30% vor der GTX780 Ti positionieren.
Warum?

robbitop
2014-03-25, 15:15:29
GM204 ist ein Ersatz für GK104 in effizienter und etwas schneller. Ob der wirklich GK110 ersetzen kann und soll, steht in den Sternen. Wenn ist er nicht schneller als GK110. Das ist wieder so ein 300mm²-Teil.
Wenn er nicht schneller wird als GK110 macht er (für den Kunden) wenig Sinn. Dann wird der nicht gekauft. Gx104 Karten waren schon immer ein gutes Stück schneller als der Topdog der letzten Generation.
Ich gehe davon aus, dass GM104 sicherlich 30 % schneller wird als GK110.
Dank 20 nm und Maxwell µ-Arch sollte es kein Problem sein, das in 300 sqmm hinzubekommen. Und dann kann NV damit auch gut "absahnen".

Seit Fermi? Das ist mal gerade eine Generation...


Ich glaube er inkludiert dabei Fermi. Also Fermi und Kepler. Also immerhin schon seit 4 Jahren.

kunibätt
2014-03-25, 15:16:02
Wegen Fortschritt und so :rolleyes:

robbitop
2014-03-25, 15:42:38
Wegen Fortschritt und so :rolleyes:
Ach Fortschritt ist total überbewertet. :D

HOT
2014-03-25, 15:48:23
GM204 sollte sich locker 20-30% vor der GTX780 Ti positionieren.
Ein Wort: Quatsch ;).
Wenn er nicht schneller wird als GK110 macht er (für den Kunden) wenig Sinn. Dann wird der nicht gekauft. Gx104 Karten waren schon immer ein gutes Stück schneller als der Topdog der letzten Generation.
Ich gehe davon aus, dass GM104 sicherlich 30 % schneller wird als GK110.
Dank 20 nm und Maxwell µ-Arch sollte es kein Problem sein, das in 300 sqmm hinzubekommen. Und dann kann NV damit auch gut "absahnen".

Sicher wird er gekauft. Ich hatte mich ja schon korrigiert. Er wird sicherlich ähnlich schnell werden wie zumindest die kleinere GK110-Variante. Wenn er effizienter und billiger ist, ist der Verkauf sicher kein Problem. Und man kann dann im nächsten Jahr noch einen GK110-Nachfolger nachlegen. Aber du überschätzt den 20nm-Prozess, dazu neigen ja leider viele. Der Effizienzsprung ist erheblich kleiner als von 40 zu 28nm beispielsweise. Die Maxwell-µArch wird hier mMn mehr ausmachen als der Prozess.

Nightspider
2014-03-25, 15:48:25
Mein Tipp wären auch rund 30% mehr Leistung als bei der 780ti.

In einigen Games werden es 50% sein und in einigen Games nur 20%.

Deswegen glaube ich auch nicht, das man das Kärtchen nur mit läppischen 3GB VRAM ausstatten wird.
Die NextGen-Games werden schon alleine 3-4GB durch Texturen belegen bei 1080p.
Will man dann noch mit MSAA, in 1440p oder sogar mit beidem Spielen sind 3GB VRAm definitiv zu wenig. Ganz zu schweigen von 2160p.
Denn selbst wenn man in 2160p nicht alle Details maximieren kann, so will man doch wenigstens die maximale Texturequalität genießen.

robbitop
2014-03-25, 16:12:29
Ein Wort: Quatsch ;).
Kannst du das auch begründen und belegen? Spekulation ist IMO niemals "Quatsch", solange es keine richtigen Quellen gibt, die das widerlegen.

Sicher wird er gekauft. Ich hatte mich ja schon korrigiert. Er wird sicherlich ähnlich schnell werden wie zumindest die kleinere GK110-Variante. Wenn er effizienter und billiger ist, ist der Verkauf sicher kein Problem. Und man kann dann im nächsten Jahr noch einen GK110-Nachfolger nachlegen. Aber du überschätzt den 20nm-Prozess, dazu neigen ja leider viele. Der Effizienzsprung ist erheblich kleiner als von 40 zu 28nm beispielsweise. Die Maxwell-µArch wird hier mMn mehr ausmachen als der Prozess.
Keiner von uns kann die Vorteile des 20 nm Prozess quanitfizieren. Auch du nicht. AFAIK hätte ein reiner Shrink von Fermi auf 28 nm auch nicht sonderlich viel gebracht. Die Architektur tat ein Großteil dazu bei. Maxwell zeigt ja, dass auch jetzt wieder ein Sprung möglich ist.

20 nm bringt vor allem den Vorteil, dass man mehr Transistoren bei gleicher Größe verbauen kann. Und vielleicht noch 15-20 % höhere Effizienz. Maxwell steigerte ggü Kepler die Effizienz nicht unerheblich.
Die Gx104 liegt traditionell im Bereich um die 300 sqmm. Warum diesmal nicht auch? In 300 sqmm sollte man in 20 nm sicherlich ca. 2560 SPs hinbekommen. Damit bleibt noch genug Luft nach oben für GM200. Da Maxwells Recheneinheiten ~ 35 % effizienter sind als Keplers, kommt man dort also auf gute 30 % Vorteil. Zumindest gegenüber dem ursprünglichen Titan. Und noch grob 20 % gegenüber Titan Black/780 Ti.

Wenn ich jetzt grob GM107 vervierfache, komme ich auf eine TDP von 240 W. Bringt 20 nm ca. 20 % Vorteile gegenüber 28 nm, bin ich bei einer TDP von 192 W. Das ist für eine GTX 880 (analog zu einer GTX 680 im Jahr 2012 - 190 W TDP) absolut im Rahmen.

Bis GK200 hätte man sogar noch genug Zeit, den Fertigungsprozess und das Design zu optimieren, so dass der Top Dog deutlich unter 300 W laufen wird. (bei Titan waren ja im vergleich mit GK104 alle über den geringen Verbrauch überrascht)

Wir können ja gern eine Wette abschließen. Das hat in der Generation Kepler hervoragend funktioniert und NV hat daran gut verdient. Warum sollen sie die gleiche Taktik nicht auch bei Maxwell machen.

Duplex
2014-03-25, 16:36:52
Ich denke auch das Nvidia bei Maxwell auf eine ähnliche Strategie wie bei Kepler setzen wird.

GM204 / GTX880 > 30-35% schneller als GTX780 Ti
GM200 / GTX980 > 80-100% schneller als GTX780 Ti

GM204 wird für Nvidia ein sehr wichtiger Chip, ich denke das der richtig gut optimiert wird, wahrscheinlich kommen die Karten mit 256 Bit SI & 4GB Speicher, Preise um die 450-600 € sollten kein Problem sien, das sind sehr hohe Margen für Nvidia.

GM200 wird dann mitte 2015 alles im oberen Bereich ersetzen, 512 Bit SI & 8GB Speicher kann ich mir vorstellen, vermutlich wird man GM200 Chips noch dieses Jahr im Profi Segment sehen...

robbitop
2014-03-25, 16:39:52
Wenn bei der Frequenz von GDDR5 nicht noch etwas passiert, wird man GM104 mit 384 Bit SI ausstatten müssen. Ansonsten verpufft die Leistung an Mangel von Bandbreite.

-/\-CruNcher-/\-
2014-03-25, 16:41:39
Die Wichtigste Karte wird die im PB von 200-250 (was mal die x60er Serie war) und dann was AMD anbieten kann

Duplex
2014-03-25, 16:48:28
Wenn bei der Frequenz von GDDR5 nicht noch etwas passiert, wird man GM104 mit 384 Bit SI ausstatten müssen. Ansonsten verpufft die Leistung an Mangel von Bandbreite.
Exakt! Die Speicherfrequenz habe ich vergessen zu erwähnen.
Umso wahrscheinlicher das dann GM200 auf 512 Bit SI setzen wird.

AnarchX
2014-03-25, 17:04:12
Allgemeine Diskussion zum GTC Webcast: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10157527#post10157527

AnarchX
2014-03-25, 19:50:59
GTC-Roadmap: http://images.anandtech.com/doci/7894/GTC-2014-021.jpg

DX12 als Neuerung bei Maxwell, obwohl Basis-DX12 für Fermi + angekündigt wurde. Und Unified Memory ist offenbar in Maxwell nicht umsetzbar.

Einzig interessant ist vielleicht die dort abgebildete Platzhalter-GPU (die bisher immer einer realen GPU entsprach):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=48301&stc=1&d=1395765852
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10157609#post10157609

5 Strukturen (GPCs?) mit jeweils 16 bzw. 8 länglichen Einheiten? Das Speicherinterface wirkt auch eher klein.

Möglicherweise kommt das aber auch nur der Fantasie-Die-Shot-Schmiede wie die Tegra Shots.

Ailuros
2014-03-25, 19:53:16
Oder ist einfach ein realer GM107 die shot :wink:

-/\-CruNcher-/\-
2014-03-25, 19:56:47
Das Problem es lässt immernoch spekulationen offen bevor Microsoft nicht die neuen Features verät und Nvidia veröffentlicht welche genau Maxwell supportet ist Speku time ;)

und man sollte sich die vorhergehende roadmap nochmal anschauen da steht bei Maxwell "Unified Virtual Memory" und das ist auch der Fall durch den support von Cuda 6

Pascal scheint mir aber eher eine ganze Platform zu werden es fehlt nur noch der Denver CPU Kern

Vieleicht plannt er es als die Next Generation Steam Machines Powered by ARM, Quasi Nvidias Low Power High Efficient ARM Konsole :)

Die ganze sache mit den Konsolen scheint doch nicht so ganz an ihm vorbei zu laufen und der Verlust an AMDs APU und die Nutzung von AMDs GPU Exclusiv

AffenJack
2014-03-25, 20:01:26
GTC-Roadmap: http://images.anandtech.com/doci/7894/GTC-2014-021.jpg

DX12 als Neuerung bei Maxwell, obwohl Basis-DX12 für Fermi + angekündigt wurde. Und Unified Memory ist offenbar in Maxwell nicht umsetzbar.


Fang jetzt nicht auch noch an DX-Version und Feature-Level zu vermischen.
Das wird wohl dann das volle DX12 inkl. 11.2 sein.
Nvidia hat doch schon geäußert, dass DX12 neue Features bringen wird.
Scheint so, als wenn Nvidia diesmal wirklich neue Features in Maxwell 2nd Gen bringt.

Ailuros
2014-03-25, 20:04:23
Dann will ich hoffen dass GM107/108 die einzigen erster Generation Maxwells sind.

-/\-CruNcher-/\-
2014-03-25, 20:33:18
Fang jetzt nicht auch noch an DX-Version und Feature-Level zu vermischen.
Das wird wohl dann das volle DX12 inkl. 11.2 sein.
Nvidia hat doch schon geäußert, dass DX12 neue Features bringen wird.
Scheint so, als wenn Nvidia diesmal wirklich neue Features in Maxwell 2nd Gen bringt.

Wer darauf Spekuliert und deswegen Maxwell kauft ohne das es bestätigt ist durch Microsoft und unbedingt die Features mit Maxwell möchte und davon seine Kaufentscheidung abhängig macht der sollte warten bis das auch so klar wie kloßbrühe ist.
Momentan ist hier überhaupt nichts wirklich klar alles nur eine große Morastig aussehende Fläche in der du jeder Zeit versinken kannst ;)

Nightspider
2014-03-25, 20:50:09
AMD wird sich freuen, das sie jetzt noch eine Weile länger die Aufmerksamkeit behalten mit ihren nun schon etwas älteren Hawaii Chips und Mantle.

Dennoch hätte ich gern schon etwas von Maxwell gesehen. Gut möglich das Maxwell erst im Herbst (~Oktober) aufschlägt.

aufkrawall
2014-03-25, 20:57:54
War eh nie früher in 20nm mit zu rechnen.

DanyW
2014-03-25, 21:12:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=552106 Hab das mal darüber verlinkt...;).

Rente
2014-03-25, 21:14:45
@Cruncher
The Witcher 3 kommt erst nächstes Jahr, darüber hinaus wird nVidia sicherlich nicht die eigene Produktpolitik an einem Spiel ausrichten.

Ich hoffe wir sehen den kleinen Maxwell Ende des Jahres noch, ich glaube aber nicht so recht daran.

-/\-CruNcher-/\-
2014-03-25, 21:17:07
Naja sie haben schon ordentlich in das Game investiert gehabt und hätten es sicher gern Zeitgleich gesehen mit dem Midrange Maxwell steht noch Watchdogs zur Auswahl das würde so in etwa hinkommen wo ich das Release vom Midrange auch schon von Anfang an vermutet habe sogar etwas früher.

Um so länger sich das jetzt alles hinzieht umso schneller wird AMD mit ihrem nächsten R&D Zyklus bereit stehen jeder Monat Verzögerung ist ein Gewinn für AMD.

Fetza
2014-03-25, 22:10:48
Ähm, kurze Frage: Sollte heute nicht die Performanceversion des Maxwellchips in 20nm Strukturbreite vorgestellt werden? Und wollte NV nicht auch die optimierten DX11 treiber vorstellen?

Rente
2014-03-25, 22:13:42
Nein, das waren nur Spekulationen von diversen Newsseiten.

Fetza
2014-03-26, 07:46:34
Oh, schade - aber danke für die Info!

fondness
2014-03-26, 22:01:38
Sehe ich das jetzt eigentlich richtig das Maxwell offenbar keine neuen Features bringt? Unified Memory wurde wieder verschoben, alles was dabei steht ist DX12 was man selbst bei Fermi dazu schreiben könnte.

Skysnake
2014-03-26, 22:40:41
Scheint so

Hugo78
2014-03-27, 07:22:15
Selbst ein BF4 braucht nicht mehr Features, sondern ne Karte die mindestens dreimal schneller ist als jede SGPU Karte die es heute gibt. (für > 100fps auf Shanghai wenns ordentlich brennt und kracht)
Gleiches gilt für die diversen ENB Grafik Mods, ohne die heute die meisten Last-Gen Konsolen Ports auf dem PC kaum besser aussehen, als ebend besagte uralt Konsolen.

Knuddelbearli
2014-03-27, 07:34:20
ne GPU die 3 mal so schnell ist? wozu den das ab grob 80 fps limitiert doch eh die CPU. Gerade das krachen im großen Stil ( inkl Kaputter Häuser Bäume usw ) ist vor allem CPU lastig.

Hugo78
2014-03-27, 07:44:20
Der Einsturz ist als reines Skript Ereigniss sicherlich rein CPU lastig und auf einem 64er Server ist bei 100 fps CPU-seitig schluss,
aber d.h. nicht das man die minimum FPS nicht hochhalten kann mit noch mal deutlich mehr GPU Speed. Und das ist verdammt nötig im Gefecht.

aufkrawall
2014-03-27, 08:24:01
Exakt. Wobei mit Radeons und D3D man vielleicht doch ins CPU-Limit rennt. :D

fondness
2014-03-27, 08:28:39
Exakt. Wobei mit Radeons und D3D man vielleicht doch ins CPU-Limit rennt. :D

Wohl eher mit einer geforce und d3d. Auf einer radeon hat man schließlich Mantle. ;-)

aufkrawall
2014-03-27, 08:43:19
Das führen wir noch an anderer Stelle fort.

Mandalore
2014-03-28, 13:25:37
Interessante Artikel

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Nvidia-kein-20-nm-Prozess-Spekulationen-1115226/


Originalquelle:

http://techsoda.com/no-20nm-graphics-amd-nvidia/

Was denkt ihr dazu? Könnte es stimmen? Das würde aber Nvidias Pläne wirklich zerstören, wie Pascal und Maxwell so auch Tegra...

Knuddelbearli
2014-03-28, 13:34:04
würde mich nicht verwundern. bisher war ja 16nm ( also 20nm mit 3D ) ja 1 ja später angedacht. Falls sich jetzt 20nm bisschen verschoben hat und die Trigate implementierung davon unabhängig ist würde es deutlich zusammenschmelzen.

Nightspider
2014-03-28, 13:50:20
Wenn NV 20nm überspringen würde, würden sie noch einen großen Maxwel 1 Chip in 28nm herausbringen mit 550-600mm².

Bei AMD bedarf es sonst auch nur ein neues Stepping für Hawaii für eine 1,2Ghz-Edition mit gutem Kühler um die 780ti zu verhauen.^^ (Oder zumindest 1,1Ghz)

Beide Hersteller würden niemals bis 2015 warten, also ~1,5 Jahre oder länger bis sie einen neuen HighEnd Chip herausbringen.
Für einen großen 28nm Chip würde auch sprechen das mehr Kapazitäten frei werden, wenn diverse SoC Fertiger auf 20nm wechseln. 28nm dürfte ja mittlerweile schön "billig" sein.

AffenJack
2014-03-28, 13:52:02
hab ich schon länger her gelesen und glaube nicht daran, alles deutet eher auf das Gegenteil hin, dass 16Finfet sich verspäten wird

Knuddelbearli
2014-03-28, 14:05:50
1,2Ghz hawaii? und wie soll man das Kühlen? Nene lieber ein 560mm² Hawaii.
Bei dann 900Mhz und +30% R9 290X Leistung bei 85C°

Nightspider
2014-03-28, 14:39:45
AMD müsste nur bessere Kühler verbauen. Schafft NV ja auch.^^

aufkrawall
2014-03-28, 16:23:19
Ob die MSI 290X Gaming auch so einfach 1,25Ghz mitmacht wie das 780 Ti-Pendant? ;)

horn 12
2014-03-28, 16:31:00
Nun, nicht alle OC bis aufs Maximum
Meine Sapphire im Referenz haltet den Takt und wird um die 85-88 Grad heiss bei 947 Mhz und -60 mV und wenn ich den Takt auf 1060 Mhz OHNE Spannungserhöhung hochziehe bleibt die GPU Temperatur bei die 92-93 Grad, bei Games gar knapp um die 90 Grad.

Dafür zieht die Karte soviel Strom wie eine GTX 780 TI und ist vielleicht 10 bis 15% langsamer als eine GTX 780 TI@ 1250 Mhz aber um den halben Preis gekauft als eine TI ... :-)

aufkrawall
2014-03-28, 16:35:45
Wie toll schnell eine 290 mit 1,1Ghz ist, hab ich bei BF4 oder Grid 2 gemerkt...

Hoffentlich macht NV nicht den gleichen Scheiß mit dem 512 Bit Speichterinterface und zu hoher Packdichte bei Maxwell, GK110 lässt sich unendlich geiler takten als Hawaii.

horn 12
2014-03-28, 16:44:24
Und der Verbrach ist dann den NV Indianern wieder piepegal, aber wehe AMD braucht unter Last 15 bis 20 Watt mehr, dies geht mal gar nicht...
Besser OC lässt die der GK110 Ohne Zweifel, aber zu welchem Anschaffungspreis, dies sollte aber auch bedacht werden. (335 Euro gegenüber >=530 Euro)

aufkrawall
2014-03-28, 16:47:22
Kannst auch ne non-Ti kaufen.
Der Verbrauch explodiert auch mit dem Takt nicht sonderlich. Ich hab hier die MSI Gaming Ti, die ist sehr klein und leicht. Trotzdem gehen unter Luft ohne Probleme +1250Mhz in Spielen, es bleibt dabei sogar ziemlich leise.
Das kannste mit ner 290 komplett knicken, einfach weil du für die Taktraten (die auch meist komplett nicht möglich sind) schon derbe die Spannung aufrotzen musst.

Raff
2014-03-28, 17:00:59
Ob die MSI 290X Gaming auch so einfach 1,25Ghz mitmacht wie das 780 Ti-Pendant? ;)

Nicht mal die Lightning. ;) Aber die schafft immerhin – im Gegensatz zu anderen Karten – 1,2 GHz und 'nen dicken Speichertakt jenseits von 3 GHz unter Luft. Durchdachte Designs werden auch bei Maxwell helfen, wenn da ab Werk etwas schief läuft.

MfG,
Raff

HarryHirsch
2014-03-29, 22:48:28
Kannst auch ne non-Ti kaufen.
Der Verbrauch explodiert auch mit dem Takt nicht sonderlich. Ich hab hier die MSI Gaming Ti, die ist sehr klein und leicht. Trotzdem gehen unter Luft ohne Probleme +1250Mhz in Spielen, es bleibt dabei sogar ziemlich leise.
Das kannste mit ner 290 komplett knicken, einfach weil du für die Taktraten (die auch meist komplett nicht möglich sind) schon derbe die Spannung aufrotzen musst.

Jup, ist leider so. Da hilft nicht mal mehr ne Spannungserhöhung, außer man packt nen Pot drauf.
Tahiti ging wesentlich besser.

robbitop
2014-03-30, 06:35:57
Ist doch völlig behämmert, sich an 10 % mehr GPU Takt "hochzuziehen". Das macht im Spiel keinen fühlbaren Unterschied.

Ailuros
2014-03-30, 08:21:42
Interessante Artikel

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Nvidia-kein-20-nm-Prozess-Spekulationen-1115226/


Originalquelle:

http://techsoda.com/no-20nm-graphics-amd-nvidia/

Was denkt ihr dazu? Könnte es stimmen? Das würde aber Nvidias Pläne wirklich zerstören, wie Pascal und Maxwell so auch Tegra...

BS hoch 10.

HOT
2014-03-30, 10:45:09
BS hoch 10.
Absolut nicht. Es ist durchaus denkbar, dass der SoC-Prozess schlicht ungeeignet ist und beide Foundries keine 20nm HP(M) anbieten. In dem Falle wären 20nm-Grafikchips quasi tot.

robbitop
2014-03-30, 10:48:06
NV hatte IIRC bereits angekündigt, dass weitere Maxwellableger (2. Gen) im Verlauf diesen Jahres kommen sollen. Wenn 20 nm ungeeignet für GPUs wäre, wüssten die IHVs das seit langem...

Timbaloo
2014-03-30, 11:26:32
Ich glaube TSMC wollte trollen als sie den Prozess SoC genannt haben :freak:

robbitop
2014-03-30, 11:36:33
Vielleicht wollte man ihn ja "20 Trollometer" nennen und ist dann umgeschwenkt. :eek: :D

Viel getrollter finde ich die Namensgebung des Nachfolgeprozesses von GF: 14XM. Der impliziert ja einen Shrink, obwohl das gar nicht der Fall ist. Bei TSMC das Gleiche: 16 nm.

Bezüglich 20 nm SoC. Die Hauptumsätze sollten tatsächlich durch SoCs kommen. Davon werden ja jährlich hunderte Millionen verkauft. GPUs ein paar Größenordnungen weniger. Ist doch klar, dass man irgendwann (bei der derzeitigen Kostenexplosion) die SHP Prozesse rausschmeißt und nur noch Mobileprozesse entwickelt. Den kann man bestimmt noch ein bisschen auf GPUs tweaken - ich vermute aber, dass die Prozessanforderungen für die Entwicklung wohl dominanter aus dem SFF Bereich kamen.

Knuddelbearli
2014-03-30, 11:44:22
Naja GloFo nennt ihn zumindest XM statt nm.
Außerdem macht Intel das doch schon seit Jahren ( immer?). Nur fällt es da nicht so auf da keine Auftragsfertiger also bekommt das der Normalo nicht mit.

robbitop
2014-03-30, 11:54:26
Naja GloFo nennt ihn zumindest XM statt nm.
Außerdem macht Intel das doch schon seit Jahren ( immer?). Nur fällt es da nicht so auf da keine Auftragsfertiger also bekommt das der Normalo nicht mit.
Deswegen sagte ich ja "implizieren". 14XM impliziert einen Shrink, sagt es aber nicht explizit. Für mich ist das Getrolle.

Intel liefert wenigstens entsprechend. Ja inzwischen auch mit kleineren Verspätungen. Aber trotzdem noch fast alle 2 Jahre. Und das sind dann auch Prozesse die schon seit 1-2 Jahren vor Marktstart liefen und getweakt worden sind. Da gibt es aber Marktstart des Produktes sehr gute Yields. Das müsste man an Vorsprung noch oben drauf rechnen. Und die Performance der jeweiligen Intelprozesse ist auch einmalig. Ich würde davon ausgehen, dass sogar Intels 32 nm Prozess mit aktuellen TSMC/GF 28 nm Prozessen den Boden aufwischt.

fondness
2014-03-30, 12:09:08
Intels 22nm Prozess ist auch kein 22nm Prozess, von daher holen das die anderen mehr oder weniger nur nach. GF nennt den Prozess als einziger zumindest nicht nm sondern xm, was schon verdeutlicht das es eben kein "normaler" Shrink ist.

Knuddelbearli
2014-03-30, 12:11:26
Siehe Fondness das meinte ich mit Intel nicht besser.

robbitop
2014-03-30, 12:12:53
Und alle Affen machen nach? Dadurch wird es nicht besser.

Knuddelbearli
2014-03-30, 12:21:08
wann hast du bei Intel darüber gemeckert? und da Intel jetzt auch ins Auftragsgeschäft einsteigt ist es eben für die anderen ein Nachteil. Die Firmen wissen eh was Sache ist aber wenn das eine Handy mit Top Octa CPU in 20nm beworben wird und das andere mit Toop Octa CPU in 14nm ists halt ein handfester Nachteil.

N0Thing
2014-03-30, 13:02:48
NV hatte IIRC bereits angekündigt, dass weitere Maxwellableger (2. Gen) im Verlauf diesen Jahres kommen sollen. Wenn 20 nm ungeeignet für GPUs wäre, wüssten die IHVs das seit langem...

Die Aussage, es wird weitere Maxwellableger in diesem Jahr geben, schließt ja eine Fertigung im bisherigen 28nm Format nicht aus. ;)

Andererseits, fand ich zwar die Namensgebung mit 20 SoC schon immer befremdlich für die GPU-Fertigung und 20mn SoC wurde als Nachfolger von 28nm HPL auf den Roadmap angekündigt, aber Ailuros hat ja sehr vehement darauf hingewiesen, daß Namen nur Schall und Rauch seien. Was für seine Aussagen spricht und gegen die Vermutung, daß AMD und Nvidia 20nm SoC überspringen, ist die Roadmap von TSMC und GloFo. Dort sind auch die FinFet-Prozesse auf dem Powernivau* der 20nm Fertigung eingereiht, oder gehen sogar noch weiter Richtung low power.

Ich kann mir tatsächlich beide Varianten vorstellen, tendiere aber noch zu GPUs auf 20nm SoC.

*Im Sinne von HP, HPM, HPL, LP bei 28nm

Unicous
2014-03-30, 13:17:48
All das Geschummel ist doch egal wenn nicht geliefert wird. Ja, Intel schummelt bei den Parametern bzw. ist mal hinter mal vor der Konkurrenz (gate pitch bla bla). Aber wichtig ist: Intel liefert ab. Das wird zwar sich in den nächsten Jahren ändern, behaupte ich. Man sieht es an 14nm und keiner weiß wie es danach wird (EUV, 450 Wafer MIA).
Aber TSMC hatte andauernd Probleme mit ihren Prozessen, hat sie einfach mal gecancelt und GF ist ja auch ein Trauerspiel. Ich sehe sogar bei GF mehr Chancen stärker in den Wettbewerb einzutreten als TSMC, denn sie haben auch eine Menge Know How und sie emanzipieren sich allmählich von den "tollen" Designvorgaben seitens IBM.

Ich glaube aber dennoch nicht, dass AMD und Nvidia TSMC einen Laufpass geben.
Bis jetzt gibt es keinerlei Hinweise außer irgendeinem dahergelaufenen Blogeintrag. Das ihr euch davon beeinflussen lasst sagt ja viel über eure Bullshit-Meter aus. (Mal neu kalibrieren bitte:tongue:)

Timbaloo
2014-03-30, 13:52:45
Ich glaube aber dennoch nicht, dass AMD und Nvidia TSMC einen Laufpass geben.
Bis jetzt gibt es keinerlei Hinweise außer irgendeinem dahergelaufenen Blogeintrag. Das ihr euch davon beeinflussen lasst sagt ja viel über eure Bullshit-Meter aus. (Mal neu kalibrieren bitte:tongue:)
Wie bitte kommst du jetzt darauf?

robbitop
2014-03-30, 13:55:15
wann hast du bei Intel darüber gemeckert? und da Intel jetzt auch ins Auftragsgeschäft einsteigt ist es eben für die anderen ein Nachteil. Die Firmen wissen eh was Sache ist aber wenn das eine Handy mit Top Octa CPU in 20nm beworben wird und das andere mit Toop Octa CPU in 14nm ists halt ein handfester Nachteil.
Nagut, dann habe ich halt vergessen über Intel zu meckern. :freak:
Aber es fällt bei Intels Performance und Execution nunmal schwer über solche Dinge zu meckern. TSMC und GF bieten da einfach wesentlich mehr Angriffsfläche, da sie immer weiter zurückhängen.

Die Aussage, es wird weitere Maxwellableger in diesem Jahr geben, schließt ja eine Fertigung im bisherigen 28nm Format nicht aus. ;)
Wäre möglich. Aber 28 nm ist schon ziemlich ausgereizt. Nicht energiemäßig - aber flächenmäßig. GK110 könnte man bei vergleichbarer Fläche mit ~35 % besiegen. Wäre für eine neue Generation nicht so der Brüller, wenn es vergleichbar groß und energiehungrig ist.
Außerdem hat Ailuros (der ja recht gute Quellen hat) gesagt, dass ein 28 nm GM104 gecanclet worden ist IIRC.

Unicous
2014-03-30, 14:09:31
Wie bitte kommst du jetzt darauf?

Immer wieder schön mit zwei Sätzen zitiert zu werden und dann gefragt zu werden wie kommt du denn darauf? Auf was genau bitte?:confused:

AMD und Nvidia werden bei TSMC 20nm Chips fertigen lassen und dass noch innerhalb dieses Jahres. War es diese Aussage oder soll ich weiter rätseln?

Skysnake
2014-03-30, 15:08:45
Ich glaube TSMC wollte trollen als sie den Prozess SoC genannt haben :freak:
Oder man versteht die Aussagen dahinter einfach nicht ;)

SOCs ist ein sehr sehr großes Thema, und in SOCs haste alles drin. Angefangen von analogen Schaltungen, über lowPower-Digitalschaltungen bis hin zu HighPower-Digitalschaltungen, z.B. in den ALUs, wo man alles aus den Transistoren rauskitzen will, was nur irgendwie geht.

Ein "SOC"-Prozess ist da eigentlich auch als Vorteil zu sehen. Du musst halt nicht mehr die Kompromisse eines LP oder HP Prozesses eingehen, sondern kanns dir die Transistoren so aussuchen, wie du Sie halt gerade eben an der Stelle brauchst.

Für nen SOC-Designer wäre das ne feine Sache.

Coda
2014-03-30, 16:01:29
Und alle Affen machen nach? Dadurch wird es nicht besser.
Die nm-Zahl ist eh relativ unbedeutend. Contacted gate pitch ist die eigentliche density und dann gibt es noch zig andere.

N0Thing
2014-03-30, 16:05:30
Aber TSMC hatte andauernd Probleme mit ihren Prozessen, hat sie einfach mal gecancelt und GF ist ja auch ein Trauerspiel. Ich sehe sogar bei GF mehr Chancen stärker in den Wettbewerb einzutreten als TSMC, denn sie haben auch eine Menge Know How und sie emanzipieren sich allmählich von den "tollen" Designvorgaben seitens IBM.

Ich hab den Eindruck, daß TSMC bei jedem neuen Prozess die Bude eingerannt wird und bei GloFo abseits von AMD kaum Kunden vorhanden sind. In der Hinsicht hat GloFo natürlich noch mehr Luft nach oben.



Ich glaube aber dennoch nicht, dass AMD und Nvidia TSMC einen Laufpass geben.
Bis jetzt gibt es keinerlei Hinweise außer irgendeinem dahergelaufenen Blogeintrag. Das ihr euch davon beeinflussen lasst sagt ja viel über eure Bullshit-Meter aus. (Mal neu kalibrieren bitte:tongue:)

Warum sollten AMD und Nvidia TSMC den Laufpaß geben? In dem Artikel wurde anhand der Hinweise doch nur abgeleitet, daß der 20nm SoC Prozess bei der GPU-Produktion übersprungen wird.

Unicous
2014-03-30, 16:42:53
Den Laufpass bei 20nm. Meine Güte ich hab es doch schon präzisiert.

Könnt ihr auch mal Beiträge im Kontext lesen und nicht immer einzelne Zitate herauspicken?

Warum wird TSMC wohl die Bude eingerannt. Weil sie die einzige Foundry sind die ihre Kapazitäten für andere öffnen.

GF hat einfach zulange am IBM'schen Rockzipfel gehangen. Die letzten SOI-Prozesse waren fürn Arsch und mussten über Monate und Jahre gefixt werden. Und warum? Weil IBM für ihre POWER Server-Chips ganz andere Anforderungen gestellt hat aber ihre Prozess-Designentscheidungen in die Common Platform durchgedrückt haben. IBM hat jetzt eigene Probleme und will wohl die eigenen Fabs verkaufen. Bei 28nm war bei GF offensichtlich auch der Wurm drin und dadurch ist man ins Hintertreffen geraten. Aber dennoch haben sie schon Verträge mit den unterschiedlichsten Firmen abgeschlossen (Mediatek z.B., wohl auch Qualcomm) und hat TSMC Kunden geklaut.
Und jetzt fertigt AMD sogar schon Kabini bei GF. Sehr unerwartet, denn man ging ja davon aus, dass TSMC die "Katzen" weiter alleine fertigt.
Die Konsolen-Chips sollen auch mal bei GF gefertigt (2014 haben sie gesagt), vllt. ist das ja jetzt schon der Fall, Kabini ist auf jeden Fall ein Indikator.

GPUs könnten dementsprechend auch bei GF gefertigt werden. 14XM ist ist ja für dieses Jahr angekündigt, bzw. könnte es 2015 etwas werden mit der mass production.

TSMC hatte bis dato keine wirklich Konkurrenz, wenn es darum ging, Kapazität für ein Design zu ordern. Samsung ist mit sich selbst beschäftigt, UMC erscheint mit nicht als konkurrenzfähig (ist deren 28nm Produktion überhaupt schon gestartet, ich hatte etwas von Ende 2014 gehört).
Sonst gibt es da nicht viel. Intel vergibt nur Kapazitäten an elitäre Kreise und schon gar nicht an Nvidia oder AMD.

GF hat sich jahrelang um sich selbst gedreht und war in einer beiderseitigen Abhängigkeit mit AMD und IBM hat auch noch dazwischengefunkt. Ich denke man kann da durchaus noch mehr erwarten in der Zukunft.

Ailuros
2014-03-30, 17:20:27
Absolut nicht. Es ist durchaus denkbar, dass der SoC-Prozess schlicht ungeeignet ist und beide Foundries keine 20nm HP(M) anbieten. In dem Falle wären 20nm-Grafikchips quasi tot.

Deinen Hirngespinsten kann und will ich nicht folgen. Es wird hoechste Zeit dass sich manche von Euch gefaelligst demenstrechend informieren anstatt nur mit Duenschiss herumzuschmeissen. Beim ersten Mal geht es noch; aber nach dem zweiten und dritten Mal muessten man einsehen koennen wie stark man sich damit laecherlich macht.

20SoC hat 22nm vor einiger Zeit ersetzt.

Den Laufpass bei 20nm. Meine Güte ich hab es doch schon präzisiert.

Könnt ihr auch mal Beiträge im Kontext lesen und nicht immer einzelne Zitate herauspicken?

Warum wird TSMC wohl die Bude eingerannt. Weil sie die einzige Foundry sind die ihre Kapazitäten für andere öffnen.

Es ist keine foundry daran schuld wenn ULP SoCs tonnenweise hergestellt werden muessen und das groesste Volumen regelt den Markt.

GF hat einfach zulange am IBM'schen Rockzipfel gehangen. Die letzten SOI-Prozesse waren fürn Arsch und mussten über Monate und Jahre gefixt werden. Und warum? Weil IBM für ihre POWER Server-Chips ganz andere Anforderungen gestellt hat aber ihre Prozess-Designentscheidungen in die Common Platform durchgedrückt haben. IBM hat jetzt eigene Probleme und will wohl die eigenen Fabs verkaufen. Bei 28nm war bei GF offensichtlich auch der Wurm drin und dadurch ist man ins Hintertreffen geraten. Aber dennoch haben sie schon Verträge mit den unterschiedlichsten Firmen abgeschlossen (Mediatek z.B., wohl auch Qualcomm) und hat TSMC Kunden geklaut.

Was stellt denn QCOM bzw. MTK tolles bei GloFo her?

Und jetzt fertigt AMD sogar schon Kabini bei GF. Sehr unerwartet, denn man ging ja davon aus, dass TSMC die "Katzen" weiter alleine fertigt.
Die Konsolen-Chips sollen auch mal bei GF gefertigt (2014 haben sie gesagt), vllt. ist das ja jetzt schon der Fall, Kabini ist auf jeden Fall ein Indikator.

Herstellung ist bei GloFo nicht ausschliesslich falls Du das meinen solltest. TSMC konnte nicht die gesamte Kapazitaeten aufnehmen selbst wenn sie es wollten.


TSMC hatte bis dato keine wirklich Konkurrenz, wenn es darum ging, Kapazität für ein Design zu ordern. Samsung ist mit sich selbst beschäftigt, UMC erscheint mit nicht als konkurrenzfähig (ist deren 28nm Produktion überhaupt schon gestartet, ich hatte etwas von Ende 2014 gehört).
Sonst gibt es da nicht viel. Intel vergibt nur Kapazitäten an elitäre Kreise und schon gar nicht an Nvidia oder AMD.

GF hat sich jahrelang um sich selbst gedreht und war in einer beiderseitigen Abhängigkeit mit AMD und IBM hat auch noch dazwischengefunkt. Ich denke man kann da durchaus noch mehr erwarten in der Zukunft.

Ich muss hier etwas wesentliches verpassen aber was hat der ganze Unfug mit 20SoC/GPUs und TSMC genau zu tun?

Damit wir es auf endlich auf einen Basis bekommen: nur weil es 20SoC genannt wurde und es quasi ein Nachfolger fuer 28HPm ist und nicht fuer 28HP heisst es noch lange nicht dass der Prozess ungeeignet sein wird fuer GPU chips. Wenn dem so waere dann ist 16FF bzw. weiter in die Zukunft 10FF dann genauso nutzlos ("angeblich") fuer GPU chips.

Da wir hier in einem NVIDIA thread sind, NV hat stets die Tendenz ueber TSMC zu meckern u.a. und jegliche Herumfuchtelei (u.a. auch manche flirts mit anderen foundries) ist nur um bessere Vertraege bzw. niedrigere Preise in diesem erpressen zu koennen.

Maxwell top dog aka GM200 passt NICHT in 28HP rein und es gibt sonst auch keine logischen Alternativen dafuer ausser Intel hat ihre foundry-Tuer fuer NVIDIA aufgemacht und stellt dort her was ich momentan fuer unwahrscheinlich halte weil wir davon gehoert haetten.

***edit:

1. IBM als foundry hatte NV zum letzten Mal bei NV4x ausprobiert; nicht zufrieden zurueck zu TSMC.
2. NV wird eher GPU IP von IMG lizenzieren fuer Tegra als bei GloFo je herzustellen (absichtliche Uebertreibung).
3. Intel wird wohl schwer je etwas tun dass das Leben NV's erleichtern wuerde.
4. Im letzten Jahr haben sie einen testchip zu Samsung geschickt zu einem Vertrag kam es nie....zurueck zu TSMC.

Unicous
2014-03-30, 18:01:09
@Ailruos

Es gibt leider nur die konkrete (weil zitierbare) Aussage von Ajit Manocha, dass sie neue Kunden für 28nm haben und die "Vermutung" dass z.B. der MT6572 bei GF gefertigt wird.
http://www.digitimes.com/news/a20130904PD208.html

Qualcomm und Allwinner wurden auch schon genannt. Letztendlich wissen kann man es nicht, denn auf solchen Chips steht so gut wie nie "Made in" (außer es ist im Produkt Code enthalten) und China Tablets und Phones werden von ifixit und Co. so gut wie nie nach Herstellern aufgeschlüsselt.

Das Volumen regelt hier den Markt (und der Preis natürlich). Und das TSMC den Preis macht, da bekommen ganz viele Schluckauf von. Apple z.B. interessiert das nicht, die werden ihre Preisvorstellungen schon durchdrücken und wenn nicht finanzieren sie einfach ne Fab. :biggrin:
Qualcomm und andere ARM-Hersteller schauen sich aber schon ne Weile um.


Und natürlich wird AMD die Konsolenchips nicht ausschließlich bei GF ordern, es ging mir um Second Source. Das finden Sony und Microsoft ja sicherlich auch gut.

Das restliche war Zukunftsmusik und was wäre wenn. TSMC wird (mE) in Zukunft nicht mehr so konkurrenzlos dastehen und ob Nvidia über ihren riesigen Schatten springt oder nicht, ist dabei egal. Solange AMD ihr langfristiges Ziel, GPUs auch bei GF herzustellen irgendwann in die Tat umsetzen wird auch TSMC eine Krokodilsträne vergießen. Anscheinend hat/te AMD eh nicht so den tollen Stand bei TSMC, warum auch immer.


Dass Nvidia sich an TSMC festkettet, ist mir auch klar. Aber vllt. schicken sie ja doch mal einen Testwafer nach Dresden/New York.

Ailuros
2014-03-30, 18:42:13
@Ailruos

Es gibt leider nur die konkrete (weil zitierbare) Aussage von Ajit Manocha, dass sie neue Kunden für 28nm haben und die "Vermutung" dass z.B. der MT6572 bei GF gefertigt wird.
http://www.digitimes.com/news/a20130904PD208.html

Keine Ahnung ob es stimmt; mit digitimes hab ich stets so manche Vorbehalte; aber der 6572 ist wirklich der absolute Benjamin unter den SoCs. 2*A7 als CPU. Koennte entweder ausschliessliche Herstellung bei GloFo sein wenn es ueberhaupt stimmt oder sogar dual sourcing, denn hier brauchen sie verdammt hohe Volumen da es sich um Material fuer $50 smartphones handelt. Ein besonderes Risiko geht man mit so etwas nicht ein; ich wuerde es sogar eher als process cleaner Schachzug annehmen.

Qualcomm und Allwinner wurden auch schon genannt. Letztendlich wissen kann man es nicht, denn auf solchen Chips steht so gut wie nie "Made in" (außer es ist im Produkt Code enthalten) und China Tablets und Phones werden von ifixit und Co. so gut wie nie nach Herstellern aufgeschlüsselt.

Es sollte wohl klar sein dass jeder der grossen nicht genug Kapazitaeten nur bei einer foundry finden wird.

Das Volumen regelt hier den Markt (und der Preis natürlich). Und das TSMC den Preis macht, da bekommen ganz viele Schluckauf von. Apple z.B. interessiert das nicht, die werden ihre Preisvorstellungen schon durchdrücken und wenn nicht finanzieren sie einfach ne Fab. :biggrin:
Qualcomm und andere ARM-Hersteller schauen sich aber schon ne Weile um.

Ich befuerchte dass Apple bei TSMC nur eine Art Eintagsfliege war um Samsung zu einem neuen Vertrag zu erpressen. Apple wird auch in Zukunft wohl zu dual sourcing kommen aber nicht unbedingt mit TSMC.


Das restliche war Zukunftsmusik und was wäre wenn. TSMC wird (mE) in Zukunft nicht mehr so konkurrenzlos dastehen und ob Nvidia über ihren riesigen Schatten springt oder nicht, ist dabei egal. Solange AMD ihr langfristiges Ziel, GPUs auch bei GF herzustellen irgendwann in die Tat umsetzen wird auch TSMC eine Krokodilsträne vergießen. Anscheinend hat/te AMD eh nicht so den tollen Stand bei TSMC, warum auch immer.

Dass Nvidia sich an TSMC festkettet, ist mir auch klar. Aber vllt. schicken sie ja doch mal einen Testwafer nach Dresden/New York.

Selbst wenn NV mal so weit geht (Du wirst es nicht so leicht aus moralischen Gruenden sehen) dann heisst es noch lange nicht dass sie je dort besonders viel herstellen werden.

Hier geht es aber um ganz etwas anderes: die angebliche Behauptung dass 20SoC als Prozess ungeeignet fuer GPUs ist. So und jetzt erzaehlt mal was Intel, IBM, GloFo, UMC, Samsung oder weiss der Geier sonst wer einen geeigneteren Prozess fuer GPUs genau hat im Vergleich zu 20SoC. Selbst fuer SoCs gehen naehmlich ARM und IMG u.a. hauptsaechlich zu TSMC um fuehr deren Prozesse ihre GPUs zu optimieren.

Unicous
2014-03-30, 19:01:16
Nvidias Sticheleien gegen AMD kommen immer nur aus der PR/Marketing und von der Führungsriege. Auf Engineer-Ebene gibt es da keine Animositäten. Die kennen sich doch eh alle.

Falls GF ein gutes Angebot vorlegt, steht mE nur JHH im Weg, der vllt. immer noch gekränkt ist, dass er nicht der CEO von AMvidia geworden ist.:tongue:


Und um ehrlich zu sein bin ich mir auch nicht so sicher was 20SOC kann. Bis jetzt jedenfalls nicht viel. Und dass ARM und IMG zu TSMC gehen und ihre süßen Cluster zum Testen auf den Wafer ätzen lassen, sagt ja noch nichts über 200mm²+ GPUs aus, oder?

Bis jetzt habe ich nicht viel von TSMC gehört, außer "Daumen hoch", wir sind toll.

AffenJack
2014-03-30, 19:15:56
TSMC kann zumindest soviel, dass sie mittlerweile die 20nm Produktion gestartet haben. Wann wird Gf das denn machen? Bei Gf kann man sich nichtma sicher sein, dass das noch dieses Jahr was wird, so hervorrangend wie die entwickeln. Bisher war es eher ein Armutszeugniss, wielange es mit 28nm gedauert hat, bis mal was von Gf kam.

Ailuros
2014-03-30, 19:16:58
Nvidias Sticheleien gegen AMD kommen immer nur aus der PR/Marketing und von der Führungsriege. Auf Engineer-Ebene gibt es da keine Animositäten. Die kennen sich doch eh alle.

Das ist ueberall so.

Falls GF ein gutes Angebot vorlegt, steht mE nur JHH im Weg, der vllt. immer noch gekränkt ist, dass er nicht der CEO von AMvidia geworden ist.:tongue:

Mag zwar als Witz gut klingen aber.....

Und um ehrlich zu sein bin ich mir auch nicht so sicher was 20SOC kann. Bis jetzt jedenfalls nicht viel. Und dass ARM und IMG zu TSMC gehen und ihre süßen Cluster zum Testen auf den Wafer ätzen lassen, sagt ja noch nichts über 200mm²+ GPUs aus, oder?

....du hast keine besonderen GPU orientieren Optimierungen bei allen anderen foundries. Kann sein dass Intel z.B. fuer 14nm und KNL etwas fundamentales geaendert hat (bleibt abzusehen) aber bisher sind ihre Prozesse hauptsaechlich fuer CPUs optimiert. Schafft es Intel bis jetzt schnellere GPUs in ihre smartphone SoCs zu integrieren als Apple und wenn ja dann warum nicht?

Nochmal es geht darum ob 20SoC fuer GPUs geeignet ist oder nicht. Wer hat denn sei neuestem fuer GloFo N-Prozess selbst seine Zwerg GPU fuer SoCs genau optimiert? Der Punkt ist hier lediglich dass BEVOR man irgendwelchen Scheiss in die Luft schmeisst wie dass 20SoC nicht geeignet ist fuer GPUs man zumindest einen alternativen Prozess bei einer alternativen foundry dafuer haben sollte. Im Gegenteil gibt es nichtmal ULP SoC GPU Optimierungen bei anderen, ganz zu schweigen dass so mancher SOI Prozess wirklich der letzte Dreck fuer eine GPU sind.

Bis jetzt habe ich nicht viel von TSMC gehört, außer "Daumen hoch", wir sind toll.

Ja weisst Du wenn es anders rum waere und es gaebe etwas besseres dort draussen waeren sowohl AMD als auch NVIDIA saubloed wenn sie es nicht selbst teilweise benutzen wuerden. Dank fehlenden Beweissen sind die Gegenargumente wohl unter Null momentan. Wenn in der Zukunft auch andere foundries mehr in die Richtung investieren koennen IHVs auch mehr Optionen untersuchen.

N0Thing
2014-03-30, 19:21:14
Hier geht es aber um ganz etwas anderes: die angebliche Behauptung dass 20SoC als Prozess ungeeignet fuer GPUs ist. So und jetzt erzaehlt mal was Intel, IBM, GloFo, UMC, Samsung oder weiss der Geier sonst wer einen geeigneteren Prozess fuer GPUs genau hat im Vergleich zu 20SoC. Selbst fuer SoCs gehen naehmlich ARM und IMG u.a. hauptsaechlich zu TSMC um fuehr deren Prozesse ihre GPUs zu optimieren.

In dem Kontext spielen die anderen Foundries keine Rolle, soll doch die Produktion bei TSMC bleiben, nur angeblich 20nm SoC übersprungen werden. Ob eine Smartphone GPU und eine >300mm² Desktop-GPU ideal auf ein und dem selben Fertigungsverfahren optimiert werden können, weißt du sicher besser als ich. Geht das problemlos?

Unicous
2014-03-30, 19:37:11
Es ging mir um den theoretischen Fall, dass sowohl AMD und Nvidia den 20SOC für ihre GPUs auslassen. Das das nicht geschieht denke ich auch und finde es interessant, dass irgendeinem IT-Blog das nichts Anderes zu tun hat, als das AT-Forum als biased zu "analysieren, soviel Aufmerksamkeit geschenkt wird.

Würde das wirklich zutreffen, wäre das ein Loch von mindestens einem Jahr bis etwas von TSMC kommen könnte. In der Zwischenzeit gäbe es dann eben auch noch möglicherweise einen neuen Prozess von GF. Und dass die langsam auch Erfahrung mit GPUs haben und viel wichtiger, die auch mit einer CPU und dem ganzen I/O Quatsch verbinden können, sollte auch mal Anerkennung verdienen.

Reine GPUs sind leichter herzustellen als x86-CPUs und leichter herzustellen (so war es jedenfalls all die Jahre, weiß nicht ob diese Prämisse noch der Wahrheit entspricht, ich gehe davon aus) als x86CPU und GPU vereint (siehe auch Konsolen Chips). Ergo hat sich GF die Meriten verdient es auch mal mit größeren GPUs zu versuchen.

Und außer dem Platzhirsch TSMC gibt es eben niemand mit entsprechender Expertise (außer vlllt. Intel die ihren eigenen süßen Brei kochen).


Bei Nvidia scheint eh gerade die Kacke am Dampfen zu sein. Volta ist nicht gecancelt, nur verschoben. Dafür haben wir einen Kickass-Naturwissenschaftler verpflichtet, der eigentlich viel cooler ist als Volta. Und Wolverines unbekannter Sohn ist auch viel interessanter als Peter Parker.

Bei so einem gequirlten Brei darf man doch mal ein bißchen rumspinnen.:tongue:

Ailuros
2014-03-30, 20:18:46
In dem Kontext spielen die anderen Foundries keine Rolle, soll doch die Produktion bei TSMC bleiben, nur angeblich 20nm SoC übersprungen werden.

Du machst Dir Vorstellungen; 16 FinFET danach ist nichts anderes als 20nm + FinFET. Vielleicht sollten IHVs dann genauso 16FF, 10FF und alles anderes in der noch weiteren Zukunft auslassen nur weil manche hier eine daemliche Vorstellung ueber 20SoC haben.

Ob eine Smartphone GPU und eine >300mm² Desktop-GPU ideal auf ein und dem selben Fertigungsverfahren optimiert werden können, weißt du sicher besser als ich. Geht das problemlos?

Wenn beim kleinen etwas schief laeuft hast Du sehr gute Chancen dass Du um zich mal mehr Probleme bei hoeherer Komplexitaet haben wirst. Sonst glaubst Du wirklich dass IHV testchips besonders gross sind? Meistens reicht ein einziger cluster aus.

Es ging mir um den theoretischen Fall, dass sowohl AMD und Nvidia den 20SOC für ihre GPUs auslassen. Das das nicht geschieht denke ich auch und finde es interessant, dass irgendeinem IT-Blog das nichts Anderes zu tun hat, als das AT-Forum als biased zu "analysieren, soviel Aufmerksamkeit geschenkt wird.

Dann sind wir zumindet auf der Ebene einer Meinung.

Würde das wirklich zutreffen, wäre das ein Loch von mindestens einem Jahr bis etwas von TSMC kommen könnte. In der Zwischenzeit gäbe es dann eben auch noch möglicherweise einen neuen Prozess von GF. Und dass die langsam auch Erfahrung mit GPUs haben und viel wichtiger, die auch mit einer CPU und dem ganzen I/O Quatsch verbinden können, sollte auch mal Anerkennung verdienen.

Eben genau denn 16FF ist in einem beschisseneren Zustand als viele bisher glauben wollte und es ist auch nicht die Rettungsplanke gegeueber 20SoC; nun gut es ist 20nm + FinFET bringt aber auch keinen weltbewegenden Unterschied mit sich.

Reine GPUs sind leichter herzustellen als x86-CPUs und leichter herzustellen (so war es jedenfalls all die Jahre, weiß nicht ob diese Prämisse noch der Wahrheit entspricht, ich gehe davon aus) als x86CPU und GPU vereint (siehe auch Konsolen Chips). Ergo hat sich GF die Meriten verdient es auch mal mit größeren GPUs zu versuchen.

Und außer dem Platzhirsch TSMC gibt es eben niemand mit entsprechender Expertise (außer vlllt. Intel die ihren eigenen süßen Brei kochen).


Bei Nvidia scheint eh gerade die Kacke am Dampfen zu sein. Volta ist nicht gecancelt, nur verschoben. Dafür haben wir einen Kickass-Naturwissenschaftler verpflichtet, der eigentlich viel cooler ist als Volta. Und Wolverines unbekannter Sohn ist auch viel interessanter als Peter Parker.

Bei so einem gequirlten Brei darf man doch mal ein bißchen rumspinnen.:tongue:

Gerne zum letzten aber wir haben den Brei schon etliche Male wiederholt und entschuldige wenn ich immer noch heute lesen muss dass 20SoC nicht geeignet fuer GPUs sein soll (ja weil es zufaellig "SoC" heisst...) und hingegen 16FF die absolute "Eulogie" sein soll fuer GPUs (ja weil es wohl "3D Transistoren" hat) moecht ich gegen die naechste Wand rennen.

N0Thing
2014-03-30, 21:42:15
Du machst Dir Vorstellungen; 16 FinFET danach ist nichts anderes als 20nm + FinFET. Vielleicht sollten IHVs dann genauso 16FF, 10FF und alles anderes in der noch weiteren Zukunft auslassen nur weil manche hier eine daemliche Vorstellung ueber 20SoC haben.

Ich weiß, daß 16nm bei TSMC nur 20nm + FinFET sind. Aber auch das spielt für das eigentliche Thema, nämlich ein Auslassen von 20nm SoC, keine Rolle, wie auch niemand etwas davon geschrieben oder gesagt hat, daß spätere Fertigungsverfahren ausgelassen werden. Bleib doch bitte beim eigentlichen Thema. Das war nämlich, daß 20nm SoC nicht gut genug (im Sinne von zu wenig Verbesserungen gegenüber 28nm HP bei zu hohem Preis) sei und Verbesserungen, die den höheren Waferpreis rechtfertigen würden, erst mit FinFET möglich wären. Daß man auf 20nm SoC von TSMC GPUs herstellen kann/könnte, bestreitet doch niemand.



Wenn beim kleinen etwas schief laeuft hast Du sehr gute Chancen dass Du um zich mal mehr Probleme bei hoeherer Komplexitaet haben wirst. Sonst glaubst Du wirklich dass IHV testchips besonders gross sind? Meistens reicht ein einziger cluster aus.

Also eignet sich ein Fertigungsprozess wie z.B. 28nmHPL für kleine und große GPUs gleichermaßen, z.B. für Adreno 225 und Hawaii? Nur wenn es Probleme gibt, ist die Fehlerbeseitigung beim komplexeren Chip viel schwieriger, ja?

Ailuros
2014-03-30, 22:36:04
Ich weiß, daß 16nm bei TSMC nur 20nm + FinFET sind. Aber auch das spielt für das eigentliche Thema, nämlich ein Auslassen von 20nm SoC, keine Rolle, wie auch niemand etwas davon geschrieben oder gesagt hat, daß spätere Fertigungsverfahren ausgelassen werden. Bleib doch bitte beim eigentlichen Thema.

Es ist und bleibt beim eigentlichen Thema und es tut mir auch aufrichtig leid wenn ich nicht der Meinung die hier manchen eher passen wuerde. Es wird kein 20SoC ausgeslassen afaik, ergo weiss ich auch wirklich nicht auf was manche von Euch hoeren wollt oder Euch vorstellt.

Das war nämlich, daß 20nm SoC nicht gut genug (im Sinne von zu wenig Verbesserungen gegenüber 28nm HP bei zu hohem Preis) sei und Verbesserungen, die den höheren Waferpreis rechtfertigen würden, erst mit FinFET möglich wären. Daß man auf 20nm SoC von TSMC GPUs herstellen kann/könnte, bestreitet doch niemand.

Es gab und gibt nichts anderes zwischen 28HP und 16FF ob das jetzt in Euren Schaedel passen will oder nicht. Maxwell top dog passt auch nicht in 28HP rein und 16FF wird eben auch NICHT Anfang 2015 verfuegbar sein wovon ich auch hier schon vor etlicher Zeit gewarnt habe es aber keine schlucken wollte.

Also eignet sich ein Fertigungsprozess wie z.B. 28nmHPL für kleine und große GPUs gleichermaßen, z.B. für Adreno 225 und Hawaii? Nur wenn es Probleme gibt, ist die Fehlerbeseitigung beim komplexeren Chip viel schwieriger, ja?

Der Prozess eignet sich fuer alles und wird sich fuer alles eignen muessen genauso wie 16 und 10FF in der weiteren Zukunft, denn es wird nur EINEN Prozess fuer alles geben und fuer diesen optimieren heutzutage alle IHVs ob sie jetzt hochkomplizierte >500mm2 GPU chips oder Bumsfallera <100mm2 smartphone SoCs entwickeln. Und nein auch zum letzten Satz; wenn ein IHV zu daemlich ist die "Gebrauchsanweisungen" fuer jeglichen Prozess von der foundry zu folgen dann kann jeder chip leicht abgevoegelt werden egal auf welcher theoretischen Prozess-Variante.

Botcruscher
2014-03-30, 23:00:46
Ach komm, es ist TSMC. Läuft gut bedeutet gleich: womöglich sehen wir noch was 2015 und nicht Anfang 2015.

Abgesehen davon sind Kosten kein Argument. Den Endpreis zahlt eh der Kunde. NV hat sich an GK1XX so oder so dumm und dämlich verdient. Da werden die Karten halt noch 100$/€ teurer.

Ailuros
2014-03-30, 23:45:17
Ach komm, es ist TSMC. Läuft gut bedeutet gleich: womöglich sehen wir noch was 2015 und nicht Anfang 2015.

Dann zeig beiden IHVs eine bessere Alternative. Es ist nicht dass TSMC jeglicher Kritik geschont werden sollte, aber sie bleibt dann eben steril wenn man kein anständiges Gegenangebot hat.

Abgesehen davon sind Kosten kein Argument. Den Endpreis zahlt eh der Kunde. NV hat sich an GK1XX so oder so dumm und dämlich verdient. Da werden die Karten halt noch 100$/€ teurer.

Interessiert aber die Debatte wenig überhaupt da AMD die ersten Tahiti auch nicht mit $350 MSRP verkauft hat.

N0Thing
2014-03-31, 00:18:14
Es ist und bleibt beim eigentlichen Thema und es tut mir auch aufrichtig leid wenn ich nicht der Meinung die hier manchen eher passen wuerde. Es wird kein 20SoC ausgeslassen afaik, ergo weiss ich auch wirklich nicht auf was manche von Euch hoeren wollt oder Euch vorstellt.

Wo war es Thema, daß Prozesse nach 20nm SoC ausgelassen werden würden? :confused:

Mich interessiert deine Meinung übrigens durchaus und ich rechne auch nicht damit, daß es keine GPUs von Nvidia und AMD auf TSMCs 20nmSoC-Prozess geben wird. Ich fand den Artikel von TechSoda (http://techsoda.com/no-20nm-graphics-amd-nvidia/) aber durchaus interessant und hatte gedacht, daß hier im 3DCenter eine Diskussion über deren These, eben daß 20nmSoC von AMD und Nvidia übersprungen wird, möglich sei. Ein "Nö, ist alles Schwachsinn. Punkt." erfüllt da nicht meine Erwartungen.

Vielleicht greift ja irgendein Magazin wie PCGH das Thema auf und bringt eine Argumentationskette gegen ein Überspringen des 20nmSoC. Hier ist das Thema für mich vorerst beendet.



Es gab und gibt nichts anderes zwischen 28HP und 16FF ob das jetzt in Euren Schaedel passen will oder nicht. Maxwell top dog passt auch nicht in 28HP rein und 16FF wird eben auch NICHT Anfang 2015 verfuegbar sein wovon ich auch hier schon vor etlicher Zeit gewarnt habe es aber keine schlucken wollte.

Wo habe ich gesagt, es gäbe was Anderes zwischen 28HP und 16FF? :confused:
Du echauffierst dich über Dinge, die gar nicht in Frage gestellt wurden.



Der Prozess eignet sich fuer alles und wird sich fuer alles eignen muessen genauso wie 16 und 10FF in der weiteren Zukunft, denn es wird nur EINEN Prozess fuer alles geben und fuer diesen optimieren heutzutage alle IHVs ob sie jetzt hochkomplizierte >500mm2 GPU chips oder Bumsfallera <100mm2 smartphone SoCs entwickeln. Und nein auch zum letzten Satz; wenn ein IHV zu daemlich ist die "Gebrauchsanweisungen" fuer jeglichen Prozess von der foundry zu folgen dann kann jeder chip leicht abgevoegelt werden egal auf welcher theoretischen Prozess-Variante.

Na, das ist doch mal eine Antwort auf eine Frage. Geht doch. Danke dafür. :)

StefanV
2014-03-31, 02:09:37
...eben daß 20nmSoC von AMD und Nvidia übersprungen wird, möglich sei...
...was einzig und allein vom Abstand zwischen beiden abhängt...
Die Frage ist:
a) wie einfach kann man 28nm Designs auf 20nm SOC portieren?
b) wie lange wird es 20nm SOC geben und wann wird 16'nm' kommen?

Mal folgende Überlegung:
Ein Design auf einen Prozess zu bringen, kostet ein paar Millönchen (zumindest aber wohl ein paar hunderttausende), das muss man auch irgendwie wieder raus bekommen...
Und wenn das jetzt nur 6-12 Monate sind, mit Risiko und dem ganzen Quark, dann kann man durchaus überlegen, ob man das nicht überspringt. Bzw nur teilweise diesen Prozess nutzt. Also für Produkte, wo es sinn machen könnte. Also zum Beispiel 'nen geshrinkten Cap Verde, ev. gar 'nen Bonaire...

Dawn on Titan
2014-03-31, 07:03:35
Es macht für beinahe jede GPU Sinn 20nm SOC (ist ja nur ein Name) zu nutzen. In 28nm geht nicht mehr viel und fake 16nm kommt deutlich später. Natürlich hat man unter 20nm SOC begrenzte Spielräume (30% sparsamer oder 30% größer) aber Spielraum ist Spielraum und man braucht diesen sowohl bei der Komplexität als auch beim Stromverbrauch.

Ich würde mich auch beim TSMC Bashing zurück halten. Man könnte überrascht werden. Abgesehen davon lebt TSMC nicht von GPUs...

Ailuros
2014-03-31, 08:08:13
Wo war es Thema, daß Prozesse nach 20nm SoC ausgelassen werden würden? :confused:

Mich interessiert deine Meinung übrigens durchaus und ich rechne auch nicht damit, daß es keine GPUs von Nvidia und AMD auf TSMCs 20nmSoC-Prozess geben wird. Ich fand den Artikel von TechSoda (http://techsoda.com/no-20nm-graphics-amd-nvidia/) aber durchaus interessant und hatte gedacht, daß hier im 3DCenter eine Diskussion über deren These, eben daß 20nmSoC von AMD und Nvidia übersprungen wird, möglich sei. Ein "Nö, ist alles Schwachsinn. Punkt." erfüllt da nicht meine Erwartungen.

Haetten wir das Thema nur einmal hier im Forum besprochen wuerde es anders aussehen. Im Gegensatz gibt es ausfuerliche Debatten fuer das Thema nicht einmal sondern mehrere Male hier im Forum. Beim zweiten Mal wiederholt man irgendwie noch einen Bruchteil vom originalen Material, bei mehr ist "Bullshit hoch 10" schon zu viel geschrieben.


Wo habe ich gesagt, es gäbe was Anderes zwischen 28HP und 16FF? :confused:
Du echauffierst dich über Dinge, die gar nicht in Frage gestellt wurden.

Das sollte jeder Spinner der einen writeup ins Netz setzt erstmal ueberdenken. Wenn dann kritisiere ich nur den Bloedsinn die techsoda zusammengekratzt haben und nichts anderes.

Na, das ist doch mal eine Antwort auf eine Frage. Geht doch. Danke dafür. :)

Nur ist es leider so dass aehnliches schon zich mal erwaehnt wuerde. Mag sein dass Du es verpasst hast und ich halte Dich dafuer auch nicht verantwortlich, aber andere die auf dem gleichen Kaugummi weiterlutschen dann schon.

HOT
2014-03-31, 10:20:33
Deinen Hirngespinsten kann und will ich nicht folgen. Es wird hoechste Zeit dass sich manche von Euch gefaelligst demenstrechend informieren anstatt nur mit Duenschiss herumzuschmeissen. Beim ersten Mal geht es noch; aber nach dem zweiten und dritten Mal muessten man einsehen koennen wie stark man sich damit laecherlich macht.

20SoC hat 22nm vor einiger Zeit ersetzt.

Wer im Glashaus sitzt...

Es ist keine foundry daran schuld wenn ULP SoCs tonnenweise hergestellt werden muessen und das groesste Volumen regelt den Markt.



Was stellt denn QCOM bzw. MTK tolles bei GloFo her?



Herstellung ist bei GloFo nicht ausschliesslich falls Du das meinen solltest. TSMC konnte nicht die gesamte Kapazitaeten aufnehmen selbst wenn sie es wollten.



Ich muss hier etwas wesentliches verpassen aber was hat der ganze Unfug mit 20SoC/GPUs und TSMC genau zu tun?

Damit wir es auf endlich auf einen Basis bekommen: nur weil es 20SoC genannt wurde und es quasi ein Nachfolger fuer 28HPm ist und nicht fuer 28HP heisst es noch lange nicht dass der Prozess ungeeignet sein wird fuer GPU chips. Wenn dem so waere dann ist 16FF bzw. weiter in die Zukunft 10FF dann genauso nutzlos ("angeblich") fuer GPU chips.

Da wir hier in einem NVIDIA thread sind, NV hat stets die Tendenz ueber TSMC zu meckern u.a. und jegliche Herumfuchtelei (u.a. auch manche flirts mit anderen foundries) ist nur um bessere Vertraege bzw. niedrigere Preise in diesem erpressen zu koennen.

Maxwell top dog aka GM200 passt NICHT in 28HP rein und es gibt sonst auch keine logischen Alternativen dafuer ausser Intel hat ihre foundry-Tuer fuer NVIDIA aufgemacht und stellt dort her was ich momentan fuer unwahrscheinlich halte weil wir davon gehoert haetten.

***edit:

1. IBM als foundry hatte NV zum letzten Mal bei NV4x ausprobiert; nicht zufrieden zurueck zu TSMC.
2. NV wird eher GPU IP von IMG lizenzieren fuer Tegra als bei GloFo je herzustellen (absichtliche Uebertreibung).
3. Intel wird wohl schwer je etwas tun dass das Leben NV's erleichtern wuerde.
4. Im letzten Jahr haben sie einen testchip zu Samsung geschickt zu einem Vertrag kam es nie....zurueck zu TSMC.
Wenn es denn einen GM200 überhaupt gibt.
20nm SoC ersetzt natürlich 22nm, aber nur und einzig allein deshalb, weil TSMC gar keine 20nm Planar-Prozesse für diese Bereiche mehr vorsieht. Es ist ein Planarprozess und er ist mMn nicht skalierbar. Erst mit FinFETs kommt die Skalierbarkeit. An der Tatsache kommt keiner vorbei. 20nm SoC ist eine Übergangskrücke um den SoC-Herstellern (wichtigster Kundenkreis) was zu bieten. GloFo macht es übrigens genau so, sie bennen den Prozess aber sinnvoller, er heißt dort 20nm LPM und ist ebenfalls der einzige von GloFo vorgesehene 20nm planar-Prozess. Der ist ganz genauso wenig geeignet Grafikchips bis 200W damit zu designen.
Ach ja, und as GloFo-Gebashe kannste dir schenken. Die Hersteller produzieren da, wo sie für gute Preise akzeptable Chips bekommen. Nur und einzig allein deshalb entscheidet man sich für eine Foundry, das kann GloFo oder TSMC sein oder eben beide. Es kommt immer auf Kosten/Nutzen an. (Sogar bei NV i.Ü.).
Nur bei AMD eben nicht, weil AMD eine Sondervertrag mit GloFo hat, der immer vergessen wird.

Ailuros
2014-03-31, 10:54:57
Wenn es denn einen GM200 überhaupt gibt.

Dann kann auch jeglicher naechster Generation chip ausfallen.

20nm SoC ersetzt natürlich 22nm, aber nur und einzig allein deshalb, weil TSMC gar keine 20nm Planar-Prozesse für diese Bereiche mehr vorsieht. Es ist ein Planarprozess und er ist mMn nicht skalierbar. Erst mit FinFETs kommt die Skalierbarkeit. An der Tatsache kommt keiner vorbei. 20nm SoC ist eine Übergangskrücke um den SoC-Herstellern (wichtigster Kundenkreis) was zu bieten.

20SoC ist ein Stueck weiter als ihr originales 22nm gewesen waere und es bietet genug Abstand zu 28HP. Es wird mir keiner einreden dass im Gegensatz 16FF einen groesseren Abstand zu 20SoC hingegen bieten wird.

GloFo macht es übrigens genau so, sie bennen den Prozess aber sinnvoller, er heißt dort 20nm LPM und ist ebenfalls der einzige von GloFo vorgesehene 20nm planar-Prozess. Der ist ganz genauso wenig geeignet Grafikchips bis 200W damit zu designen.

Bleibt abzusehen ob und was AMD in Zukunft benutzen wird ausserhalb von SoCs bei GloFo. Hat aber ueberhaupt nichts mit dem Thema hier zu tun.

Ach ja, und as GloFo-Gebashe kannste dir schenken. Die Hersteller produzieren da, wo sie für gute Preise akzeptable Chips bekommen.

Ein verstaendlicher Kommentar von jemand der nur rot und gruen sieht. Sonst noch etwas oder koennen wir zum eigentlichen Thema zurueckkommen?

Gaestle
2014-03-31, 11:01:30
Die Hersteller produzieren da, wo sie für gute Preise akzeptable Chips bekommen. Nur und einzig allein deshalb entscheidet man sich für eine Foundry, das kann GloFo oder TSMC sein oder eben beide. Es kommt immer auf Kosten/Nutzen an. (Sogar bei NV i.Ü.).

"Time to market" spielt mindestens ebenfalls eine wichtige Rolle.

mrck
2014-03-31, 19:28:17
...

Timbaloo
2014-03-31, 20:09:08
"towards the end of the year"...
"well into 2015"...

Also das Alter des Universums kann genauer geschätzt werden...

Ailuros
2014-04-01, 09:55:01
"towards the end of the year"...
"well into 2015"...

Also das Alter des Universums kann genauer geschätzt werden...

Die quaken auch eigentlich ueber GM200; vor Ende Fruehling ist sowieso kein tape out dafuer vorgesehen und das ist schon seit einiger Zeit im Hintergrund bekannt.

Sonst mal jemand der weiss wo es langgeht:

http://forum.beyond3d.com/showpost.php?p=1838152&postcount=93

Yep..16nm FINFET is based on 20nm and does not have any major density improvements..only around 5%. Note that cost per wafer and hence cost per transistor is significantly higher for FINFET so we may see some vendors stay at 20nm for a while.

Apart from lower power consumption, FINFET will also allow higher frequencies compared to 20nm, which has limited gains.

Uebrigens ich hab das Gefuehl dass 16FF+ und 16FF Turbo ein und das selbe ist, konnte es aber bis jetzt noch nicht bestaetigen. Digitimes halt pfff :rolleyes:

AnarchX
2014-04-01, 10:01:21
Laut PHK eventuell Oktober: http://bbs.expreview.com/thread-59242-1-1.html (wobei natürlich der heutige Tag für solche Informationen eher ungünstig ist... )

Skysnake
2014-04-01, 10:13:24
Die quaken auch eigentlich ueber GM200; vor Ende Fruehling ist sowieso kein tape out dafuer vorgesehen und das ist schon seit einiger Zeit im Hintergrund bekannt.

Sonst mal jemand der weiss wo es langgeht:

http://forum.beyond3d.com/showpost.php?p=1838152&postcount=93



Uebrigens ich hab das Gefuehl dass 16FF+ und 16FF Turbo ein und das selbe ist, konnte es aber bis jetzt noch nicht bestaetigen. Digitimes halt pfff :rolleyes:
Es wird halt wie immer sein. Etwas andere Prozessparameter und andere von TSMC vorgegebene Constraints, das wars.

Timbaloo
2014-04-01, 10:29:48
Die quaken auch eigentlich ueber GM200;
Das ergibt Sinn. Ich vergessen die Big-X immer, die finde ich so uninteressant :ucoffee:

Ailuros
2014-04-01, 19:43:15
Das ergibt Sinn. Ich vergessen die Big-X immer, die finde ich so uninteressant :ucoffee:

Was Erinyes@B3D behauptet ueber tape outs scheint sich zu decken mit dem was ich gehoert habe; es gibt noch keine 204/6 tape outs aber diese sollten bald kommen. GM200 spaeter; wenn Du die Datenbank aufsuchst ist es leicht zu sehen dass ich stets in der Vergangenheit nur einen einzigen bin fuer 2014 unter 20SoC erwaehnte. Egal ob 200 noch dieses Jahr erscheint oder leicht spaeter, wuerde ich nicht vorschlagen dass es diesen sofort auch fuer desktop geben wird. Das Ganze kann man ja im Maxwell thread dort selber nachlesen.

AffenJack
2014-04-02, 00:00:14
Erinyes behauptet aber auch, dass GM204/206 beide in Q4 und 28nm ankommen sollen. Das kann ich beim besten Willen nicht glauben. Im Sommer könnte nen GM204 in 28nm spätestens kommen, aber ende des Jahres werden wir wohl keine neuen 28nm Chips sehen.

Ich hab bei den ganzen Gerüchten im Moment das Gefühl, dass praktisch jeder im Dunkeln rumstochert und wir gerade nur ausgedachtes Zeug von allen Seiten hören.

Ailuros
2014-04-02, 07:22:39
Erinyes behauptet aber auch, dass GM204/206 beide in Q4 und 28nm ankommen sollen. Das kann ich beim besten Willen nicht glauben. Im Sommer könnte nen GM204 in 28nm spätestens kommen, aber ende des Jahres werden wir wohl keine neuen 28nm Chips sehen.

Im Sommer sehen wir wohl nichts und alles darueber nicht frueher als Herbst. Das mit GM2xx = 20nm war basierend auf einem hint von Wavey@B3D, obwohl ich auch frueher bis zu x04 von 28nm gehoert hatte.

Erinyes war in der Vergangenheit bei privatem Info-Austausch stets sehr genau. Beim GK104 konnte er mir die meisten Einzelheiten damals bestaetigen die ich schon hatte und bestaetigte auch die 294mm2 die Groesse obwohl Charlie und co von 350+ von allen Daechern "schaetzten" uhmmm kreischten. Er hat klaren Zugang zu engineering und wenn er einen Fehler machen sollte dann nur wenn er selber etwas einschaetzt basierend auf einem hint was mir schon etliche Male persoenlich vorgekommen ist.

Ich hab bei den ganzen Gerüchten im Moment das Gefühl, dass praktisch jeder im Dunkeln rumstochert und wir gerade nur ausgedachtes Zeug von allen Seiten hören.

Es ist kein IHV so bloed (desktop GPU stets denn fuer Tegra baut dort marketing so manchen Scheiss mit vorzeitigen Meldungen) und laesst selbst off the record etwas raus bevor tape outs fertig sind. Dann koennen sich engineers schwer zurueckhalten ihren Enthusiasmus ueber das was sie erreicht haben zu verstecken. Ich hab auch noch nichts von einem 206/204 tape out bis jetzt gehoert und geplant war es stets fuer irgendwo im Fruehling. Erinyes schaetzt naechsten Monat. Angenommen April stimmt fuer die finalen tape outs hast Du + 6 Monate Oktober wenn alles nach Plan laeuft.

Skysnake
2014-04-02, 08:33:47
28nm sollte man wirklich noch nicht abschreiben. Den IHVs bleibt sicherlich noch genug Optimierungspotenzial an ihren Chips für 28nm übrig.

Mich würde es inzwischen wirklich nicht mehr wundern, wenn wir nochmal eine komplett neue Architektur auf 28nm sehen. Überhaupt für chips, die unter 22nm mehr als ~15x15mm groß sind.

Timbaloo
2014-04-02, 08:39:36
Hast du GM107 schon vergessen? :)

Ailuros
2014-04-02, 08:42:39
28nm sollte man wirklich noch nicht abschreiben. Den IHVs bleibt sicherlich noch genug Optimierungspotenzial an ihren Chips für 28nm übrig.

Mich würde es inzwischen wirklich nicht mehr wundern, wenn wir nochmal eine komplett neue Architektur auf 28nm sehen. Überhaupt für chips, die unter 22nm mehr als ~15x15mm groß sind.

GM200 passt nicht in 28nm rein; dass kann man sich auch mit einer Milchmaedchenrechnung mit GM107 als Basis ausrechnen.

Skysnake
2014-04-02, 08:42:42
ich meinte damit, dass das wohl nicht der letzt Chip bleiben wird ;)

EDIT:
Ailuros:
Ja, und wann werden wir den sehen? Anfang oder Ende 2015? Zudem sollte man sich eventuell mal damit anfreunden, das man 22nm nicht komplett ausreizen wird bzgl DIE-Size für den Anfang.

Timbaloo
2014-04-02, 08:43:52
Achso :)

Ailuros
2014-04-02, 08:45:16
ich meinte damit, dass das wohl nicht der letzt Chip bleiben wird ;)

Als die GM206/204/200 Codenamen erschienen sind dachten alle 2 anstatt 1 ergo 20SoC. Zu dem Zeitpunkt war aber auch wohl nichts ueber DX12 bekannt; kann also durchaus sein dass die 2te Generation durch DX12 feature level separiert.


EDIT:
Ailuros:
Ja, und wann werden wir den sehen? Anfang oder Ende 2015? Zudem sollte man sich eventuell mal damit anfreunden, das man 22nm nicht komplett ausreizen wird bzgl DIE-Size für den Anfang.

Desktop wohl schwer H1 15' IMHO; HPC entweder Ende 14' oder Anfang 15'. Bei dem Ding ist noch nichtmal das design fertig, ergo ist jegliche Projektion noch Bloedsinn.

Wenn 204/206 am Ende auf 28HP kommen, wuerde ich eine komplette Serie an updates davon nochmal unter 20SoC in 2015 vorschlagen.

Dawn on Titan
2014-04-02, 08:47:49
Ich würde es sog sagen, je eher ein Chip erscheint desto eher ist er 28nm. Momentan ist es imho "pick your poison"

a) GM204 erscheint Q3/14 -> wahrscheinlich 28nm
b) GM204 ist 20nm -> nicht vor Q4/2014

Ailuros
2014-04-02, 08:57:28
Ich würde es sog sagen, je eher ein Chip erscheint desto eher ist er 28nm. Momentan ist es imho "pick your poison"

a) GM204 erscheint Q3/14 -> wahrscheinlich 28nm
b) GM204 ist 20nm -> nicht vor Q4/2014

Die These ist wohl eher dass sie alles GM10x ausser 107/8 aufgegeben haben vor einiger Zeit und zur zweiten Generation mit DX12 gegriffen haben. Selbst auf 28nm brauchten sie gewisse Zeit um die Aenderungen fuers letzte zu integrieren.

Dawn on Titan
2014-04-02, 09:26:46
An der These ist nichts falsch. Es wäre aber anzunehmen, dass die zeit von Tape-Out zu Produktion bei einem bekannten Prozess tendenziell kürzer ist und man eher Volume bekommt.

Hier ist natürlich nun die Frage ob die notwendige Verzögerung ausschlaggebend für einen Wechsel zu 20nmSOC gewesen sein könnte, da der Zeitrahmen der Prozessreife besser zum Designzeitraum passt.

Skysnake
2014-04-02, 09:55:16
Jup, Time-to-Market ist ein wichtiger Faktor, und für 20nm seh ich da schwarz. Vor allem sollte man unter keinen Umständen damit rechnen, dass das Ding keinen größeren Respin braucht, wo der Prozess noch neu ist.

Und nVidia kann sich das wie kaum einer aktuell leisten, nochmal nen Fermi hinzulegen. 28nm ist daher klar die weißere Entscheidung aktuell.

Den Gamer kann man doch eh alles andrehen. Pap irgendwas Neues drauf und gut ist. Und wenn es nur DX12 ist.

Dawn on Titan
2014-04-02, 09:59:39
Ist halt die Frage - imho könnte 20nm SOC in Q4/14 bereit sein. Wie viel eher könnte man mit 28nm am Markt sein - ich denke maximal 2-3 Monate.

Die nächste Frage ist die Kostenseite. Yield, Waferkosten usw. - Ist 20nm SOC da schon attraktiv oder wird dieser Punkt erst 2015 erreicht. Ich tendiere eher zu 20nm für die GM2XX Serie - mit GM204 und GM206 Q4/14 - und dem dicken nicht vor Q3/15.

robbitop
2014-04-02, 12:27:52
28 nm für einen GMx04 nicht unmöglich. Aber um GK110 deutlich zu übertrumpfen (>= 30 %), müssten sie wohl mit vergleichbarer Kerngröße (5xx sqmm)/TDP (250 W) antanzen.

Die Frage ist, ob NV das so will. Im Moment besteht überhaupt kein Handlungsdruck. Das könnte auch dazu verleiten erst Ende 2014 einen GMx04 in 20 nm mit ~300 sqmm zu bringen.

Ailuros
2014-04-02, 13:40:43
28 nm für einen GMx04 nicht unmöglich. Aber um GK110 deutlich zu übertrumpfen (>= 30 %), müssten sie wohl mit vergleichbarer Kerngröße (5xx sqmm)/TDP (250 W) antanzen.

Noch einer der vom GM107 nicht hochrechnen kann :P

Die Frage ist, ob NV das so will. Im Moment besteht überhaupt kein Handlungsdruck. Das könnte auch dazu verleiten erst Ende 2014 einen GMx04 in 20 nm mit ~300 sqmm zu bringen.

Ob GM204 jetzt 450mm2@28nm oder 300mm2@20nm interessiert jetzt wen genau ausserhalb von NV (und ja es sind frei erfundene Zahlen)? Herstellungskosten sind kein Problem schon seit langem unter 28HP, bleibt nun eher der Stromverbrauch und was fuer ein Ziel NV genau anlegt.

AnarchX
2014-04-02, 13:46:13
Ein 10 SMM 28nm Chip wäre wohl ein günstiger Ersatz (~250mm²) für GK106 und GK104 und könnte auch Basis einer kostengünstigen Dual-GPU-Karte sein (2x4GiB, ~1,2x GTX 780 Ti, 300W TDP).

Ailuros
2014-04-02, 13:50:10
Ein 10 SMM 28nm Chip wäre wohl ein günstiger Ersatz (~250mm²) für GK106 und GK104 und könnte auch Basis einer kostengünstigen Dual-GPU-Karte sein (2x4GiB, ~1,2x GTX 780 Ti, 300W TDP).

Wenn sie so weit kommen wuerden 2 GK104 nochmal auf einen PCB zu schmeissen (GTX690 reloaded WTF edition :P ) dann waere es sinnvoller gleich 2*GM106 stattdessen zu benutzen, wird auch eine Unmenge weniger Strom verbrauchen.

Dawn on Titan
2014-04-02, 13:54:03
Ein GM204 in 28nm entschlackt von all dem GGPU Zeug des GK110 und rund 15-30% schneller, bei rund 200W TDP und 400 mm² - ist für mich jetzt nicht unlecker.

robbitop
2014-04-02, 15:32:52
Noch einer der vom GM107 nicht hochrechnen kann :P

640 SPs entsprechen 148 sqmm. Um ein Stück schneller zu sein, braucht man mindestens einen vierfachen GM107. Sind 592 sqmm. Sicherlich vervierfacht sich nicht alles - aber vieles schon. Also kommt man sicherlich in den Bereich von 5xx sqmm.
GM107 hat eine TDP von 60 W. Mal 4 sind 240 W.

Damit würde man - wenn überhaupt - ca. 30 % schneller sein als GK110.

dildo4u
2014-04-02, 15:37:13
Wäre der ganz normale Sprung von Jahr zu Jahr.

Dawn on Titan
2014-04-02, 15:38:25
Bei den SPs 4x und bei der Größer eher 2,5-3x. Kommt so gegen 400-450 mm². Für rund 200-220W TDP nicht übel. (wenn man einen Vergleich zur GTX770 macht)

robbitop
2014-04-02, 15:59:30
Bei den SPs 4x und bei der Größer eher 2,5-3x. Kommt so gegen 400-450 mm². Für rund 200-220W TDP nicht übel. (wenn man einen Vergleich zur GTX770 macht)
Wie kommst du auf diese Zahlen?

Knuddelbearli
2014-04-02, 16:08:02
Traumtänzerei sonst nichts ....

AnarchX
2014-04-02, 16:10:19
294/118 = 2,49. Damit hatte man bei Kepler eine Vervierfachung der SMX geschafft.

Ailuros
2014-04-02, 16:28:26
640 SPs entsprechen 148 sqmm. Um ein Stück schneller zu sein, braucht man mindestens einen vierfachen GM107. Sind 592 sqmm. Sicherlich vervierfacht sich nicht alles - aber vieles schon. Also kommt man sicherlich in den Bereich von 5xx sqmm.
GM107 hat eine TDP von 60 W. Mal 4 sind 240 W.

Damit würde man - wenn überhaupt - ca. 30 % schneller sein als GK110.

GTX650
GK107 384SPs@1.058, 118mm2 65W TDP

GTX680
GK104 1536SPs@1.008, 294mm2 195W TDP

-------------------------------------------------
2.49x mal die area und 3.0x mal so viel TDP.

Die TDP vom GM107 ist uebrigens auch bei 65W wenn man den 3.3V rail mitberechnet den NV "vergessen" hat. Bleibt aber trotzdem die Frage WTF mit Eurer Hochrechnerei :rolleyes:

***edit: GM107 ist uebrigens irgendwo um 70% schneller als GK107. Ausser es helfen zukuenftige Treiber-Optimierungen auf die Beine wird es ohne 20SoC nie das +100% zwischen GK104 und GF114 werden.

Knuddelbearli
2014-04-02, 16:50:05
294/118 = 2,49. Damit hatte man bei Kepler eine Vervierfachung der SMX geschafft.


nur braucht der topdog auch eine gute DP Fähigkeit usw

Dawn on Titan
2014-04-02, 17:36:28
Traumtänzerei sonst nichts ....

Mehr ungefähr die Werte der Relationen von der GK Serie.

Timbaloo
2014-04-02, 17:41:11
nur braucht der topdog auch eine gute DP Fähigkeit usw
Niemand redet vom Top-Dog in 28nm.

Ailuros
2014-04-02, 18:09:04
nur braucht der topdog auch eine gute DP Fähigkeit usw

Seit wann ist GK104 bzw. GM104 annaehernd ein "top dog". GK104 hat 8 FP64 SPs pro SMX im Gegensatz zu 64 FP64/SMX auf GK110. Welche Debatte verfolgst Du gerade?

GM107 hat 4 FP64 SPs pro SMM, ergo bei theoretischen 20 SMMs fuer einen theoretischen performance chip aka GM204 waeren es insgesamt 80 FP64 SPs fuer den gesamten chip, wobei jedes dieser schaetzungsweise um die 0.03mm2 einnimmt bei 1GHz unter 28nm.

-/\-CruNcher-/\-
2014-04-02, 20:29:22
So mal meine Spekulation für das nächste Nvidia release

Midrange Karte

8x0 GTX (vieleicht Ablösung der 760 GTX somit wirklich 860 GTX)

die 760 GTX greift die 270x an aber für die 8x0 scheint es nicht mehr logisch das nächste Target muss mindestens die 280x sein (unabhängig wie die Karte am Ende offiziel bennant wird)

Performance Compute = 2,x von 460 GTX
Power output = ~170W
Single Performance = ~4000 Gflops
Preis = ~250€

Direkter Angriff auf AMD 280x

Hugo78
2014-04-02, 22:44:00
Für die 280X gibts doch die GTX 770?!
Und die GTX 770 ist schon sparsamer als eine 280X.

170W wären ~2,6x mehr Verbrauch als bei einer 750Ti.
Verbrauch und FPS Leistung steigen i.d.R. 1:1 an, d.h. wenn man von beschnitten Ausschuß mal absieht.
2,6x mehr fps Leistung wäre bei einem Maxwell in 28nm, GTX 780Ti Region (+ 5-10%), im CB oder TPU Ranking. LINK (http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/) & LINK (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/25.html)

Timbaloo
2014-04-02, 22:46:23
Jo, 170W und dann nur 280x-Niveau wäre Fail.

-/\-CruNcher-/\-
2014-04-03, 01:33:59
Wäre es ganz und garnicht weil die 280x für die selbe Performance erheblich mehr Verbraucht und die 770 GTX teurer ist und zudem mehr Verbraucht
Es ist logisch das Nvidia nicht konsequent weiter nach oben Laufen kann wie das die meisten gerne haben würden sie müssen zeigen das sie es im unteren bereich mit AMD aufnehmen können mehr als je zuvor ;)
Und da hat AMD momentan ihre Schwachstelle im Verbrauch bei der jetzigen Generation, ergo picks ich doch da als erstes rein das haben sie mit der 750/750 Ti erstmal getan (Preview) ;)

Denke mal sie bereiten wieder ihre typische ("immer wieder einmal bringen wir eine Karte") bla bla vor ergo die 860 GTX ;)

Man sieht ja vor allen schon bei der 750/750 Ti das sich bei CUDA etwas heftig verschoben hat ansonsten würden sie den Kernel bei AC4 nicht anpassen/austauschen/erweitern müssen.

Ergo eine der alten Kepler Karten wird beim nächsten Release fallen, entweder wird das die 760 GTX oder aber die 770 GTX, mit der 770 GTX könnten sie AMD weniger weh tun deswegen schätz ich sie lösen die 760 GTX als erstes ab
und machen die 860 GTX zu einer extrem atraktiven Midrange Card wie damals die 460 GTX und ich würde sagen die x60er Serie ist Nvidias erfolgreichste Serie :)

Allerdings sehe ich keinen Launchtitel in absehbarer Zeit für dieses TWIMTBP Event, was das alles ziemlich zerfallen läst wie gesagt das einzige was ich sehe wäre Watch Dogs aber dann wäre Witcher 3 für eine andere Karte geplannt und es würde auch bedeuten das das nächste Maxwell Release garnicht mehr so lange dauern würde als viele vieleicht momentan vermuten ;)

Dawn on Titan
2014-04-03, 06:54:01
Da die 750ti bereits beinahe 2x 460GTX leistet, würde eine 170W Karte wohl deutlich schneller sein, mehr so 3,5-4X 460GTX.

Ailuros
2014-04-03, 07:00:15
So mal meine Spekulation für das nächste Nvidia release

Midrange Karte

8x0 GTX (vieleicht Ablösung der 760 GTX somit wirklich 860 GTX)

die 760 GTX greift die 270x an aber für die 8x0 scheint es nicht mehr logisch das nächste Target muss mindestens die 280x sein (unabhängig wie die Karte am Ende offiziel bennant wird)

Performance Compute = 2,x von 460 GTX
Power output = ~170W
Single Performance = ~4000 Gflops
Preis = ~250€

Direkter Angriff auf AMD 280x


So etwas waere eher GM206 Material, nur wird diese weder auf 4 TFLOPs SP liegen noch irgend einen so bombastischen Verbrauch wie 170W haben sonst waere es ein epic fail.

Wäre es ganz und garnicht weil die 280x für die selbe Performance erheblich mehr Verbraucht und die 770 GTX teurer ist und zudem mehr Verbraucht
Es ist logisch das Nvidia nicht konsequent weiter nach oben Laufen kann wie das die meisten gerne haben würden sie müssen zeigen das sie es im unteren bereich mit AMD aufnehmen können mehr als je zuvor ;)
Und da hat AMD momentan ihre Schwachstelle im Verbrauch bei der jetzigen Generation, ergo picks ich doch da als erstes rein das haben sie mit der 750/750 Ti erstmal getan (Preview) ;)

Natuerlich waere es ein fail, aber Du scheinst ja auch nicht zu verstehen wo der GM107 genau steht.

Denke mal sie bereiten wieder ihre typische ("immer wieder einmal bringen wir eine Karte") bla bla vor ergo die 860 GTX ;)

Man sieht ja vor allen schon bei der 750/750 Ti das sich bei CUDA etwas heftig verschoben hat ansonsten würden sie den Kernel bei AC4 nicht anpassen/austauschen/erweitern müssen.

Ergo eine der alten Kepler Karten wird beim nächsten Release fallen, entweder wird das die 760 GTX oder aber die 770 GTX, mit der 770 GTX könnten sie AMD weniger weh tun deswegen schätz ich sie lösen die 760 GTX als erstes ab
und machen die 860 GTX zu einer extrem atraktiven Midrange Card wie damals die 460 GTX und ich würde sagen die x60er Serie ist Nvidias erfolgreichste Serie :)

Allerdings sehe ich keinen Launchtitel in absehbarer Zeit für dieses TWIMTBP Event, was das alles ziemlich zerfallen läst wie gesagt das einzige was ich sehe wäre Watch Dogs aber dann wäre Witcher 3 für eine andere Karte geplannt und es würde auch bedeuten das das nächste Maxwell Release garnicht mehr so lange dauern würde als viele vieleicht momentan vermuten ;)

Auch die GTX460 war NIE eine "midrange" GPU, ergo lassen wir mal lieber das Schlammassel.

-/\-CruNcher-/\-
2014-04-03, 07:40:09
Für Nvidia ist sie die Mid-Range (am oberen ende zu High End) und so kommuniziert es auch jeder andere die 560/660/760 GTX wurde auch als Mid-Range kommuniziert

x60 ist für Nvidia Mid-Range mit einer sehr guten Overall Balance nur bei Compute ist das nicht der Fall gewesen auch bis zu den späten Kepler nur die hohen Kepler konnten eine gute Compute Performance liefern im Nachteil war aber dafür der Verbrauch in dem zusammenhang war GCN eine Katastrophe für Nvidia, weil plötzlich kann AMD beides liefern ordentliche FPS und ausreichend Compute Performance @ lower cost (Mid-Range).

Tom Petersen hat im Interview mit der PCGamesHardware Eindeutig gesagt das diese Balance nun anders verteilt wurde bei Maxwell.

http://www.engadget.com/2010/07/12/nvidia-geforce-gtx-460-becomes-everyones-favorite-midrange-grap/

http://www.geforce.com/whats-new/articles/introducing-the-geforce-gtx-760

http://www.chip.de/news/Nvidia-Geforce-GTX-660-Die-Kepler-Midrange-GPU_53948007.html

Auch die 256 bit bus breite ist typisch Nvidia Mid-Range, alleine deswegen schon kann die 750/750 TI kein Mid-Range sein

Ailuros
2014-04-03, 08:19:13
Für Nvidia ist sie die Mid-Range und so kommuniziert es auch jeder andere die 560/660/760 GTX wurde auch als Mid-Range kommuniziert.

Wenn Du denn Begriff "performance" als Kategorisierung nicht schnallen kannst kann ich Dir nicht helfen.

x60 ist für Nvidia Mid-Range mit einer sehr guten Overall Balance nur bei Compute ist das nicht der Fall gewesen auch bis zu den späten Kepler nur die hohen Kepler konnten eine gute Compute Performance liefern im Nachteil war aber dafür der Verbrauch in dem zusammenhang war GCN eine Katastrophe für Nvidia, weil plötzlich kann AMD beides liefern ordentliche FPS und ausreichend Compute Performance @ lower cost.

Tom Petersen hat im Interview mit der PCGamesHardware Eindeutig gesagt diese Balance ist nun anders bei Maxwell.

http://www.engadget.com/2010/07/12/nvidia-geforce-gtx-460-becomes-everyones-favorite-midrange-grap/

http://www.geforce.com/whats-new/articles/introducing-the-geforce-gtx-760

http://www.chip.de/news/Nvidia-Geforce-GTX-660-Die-Kepler-Midrange-GPU_53948007.html

Ich will mit dem ganzen OT Zeug nichts zu tun haben. Gut Du brauchst mal wieder Zuendung mir nichts dir nichts etwas beitragen und wenn es nur relevant im uebernaechsten Universum ist dann ist es auch gut genug. Es kann aber so nicht weiter laufen.

Timbaloo
2014-04-03, 09:18:20
Tom Petersen hat im Interview mit der PCGamesHardware Eindeutig gesagt das diese Balance nun anders verteilt wurde bei Maxwell.
Was spätestens seit dem GM107 Release (vor ~6 Wochen) längst bestätigt ist. Vielleicht solltest du dir die Reviews dazu nochmal durchlesen? :)

Ailuros
2014-04-03, 10:19:43
Damit wir uns nicht falsch verstehen:

GK107 = low end
GK106 = mainstream
GK104 = performance
GK110 = high end

GM107 bzw. GTX750Ti/GTX750 wurden dort im heutigen Kepler Portofolio platziert wo auch die Leistung liegt.

mczak
2014-04-03, 20:11:51
Da die 750ti bereits beinahe 2x 460GTX leistet, würde eine 170W Karte wohl deutlich schneller sein, mehr so 3,5-4X 460GTX.
Also mehr als etwa ein Faktor 1.5 gegenüber der GTX 460 kriegst du höchstens im 3dmark.
(Ist natürlich trotzdem ein enormer Fortschritt, der Chip ist minim einfacher, braucht sehr viel weniger Strom etc. auch wenn man bei einem solchen Vergleich eigentlich mit 560Ti vergleichen müsste statt dem teildeaktivierten, untertakteten Mist :-).)

Mandalore
2014-04-03, 21:03:07
Ich hoffe wirklich, dass es spätestens im November 2014 mit Big Maxwell 2.0 klappt. Denn Maxwell ist der erste Chip seit Jahren, der nicht nur das Potenzial vom G80 zu seiner Zeit hat, sondern auch darüberhinaus besser ist im Vergleich zu damals.

G80: 2x so schnell, gleicher Prozess, hoher Energieverbrauch

Maxwell: 2x so schnell, gleicher Prozess, niedriger Energieverbrauch

Godmode
2014-04-03, 21:32:39
Ich hoffe wirklich, dass es spätestens im November 2014 mit Big Maxwell 2.0 klappt. Denn Maxwell ist der erste Chip seit Jahren, der nicht nur das Potenzial vom G80 zu seiner Zeit hat, sondern auch darüberhinaus besser ist im Vergleich zu damals.

G80: 2x so schnell, gleicher Prozess, hoher Energieverbrauch

Maxwell: 2x so schnell, gleicher Prozess, niedriger Energieverbrauch

Warum sollte der Energieverbrauch niedrig sein? GM200 wird wieder seine 250W verbrauchen, wie schon Highend in der Vergangenheit auch.

Mandalore
2014-04-03, 22:11:38
Warum sollte der Energieverbrauch niedrig sein? GM200 wird wieder seine 250W verbrauchen, wie schon Highend in der Vergangenheit auch.
Ich meinte relativ gesehen zu damals.=)

Thunder99
2014-04-04, 00:12:00
G80 war einmalig. Damals wurde vor allem durch den gestiegenen Energiebedarf die Power generiert.

Wenn man den Artikel bei heise liest meint man eher das Maxwell groß geplant war und klein kommt da es zu viele Probleme gab

Pentium M
2014-04-04, 00:39:33
Die 750Ti hat mich beeindrukt aber noch mehr beeindruckt hat mich die FirePro W9100.

Dawn on Titan
2014-04-04, 07:08:10
G80 war einmalig. Damals wurde vor allem durch den gestiegenen Energiebedarf die Power generiert.

Wenn man den Artikel bei heise liest meint man eher das Maxwell groß geplant war und klein kommt da es zu viele Probleme gab

Quatsch. Es wäre viel zu spät jetzt noch irgendwelche gravierenden Designänderungen vorzunehmen. Die Maxwell Familie kommt wie geplant.

Thunder99
2014-04-04, 10:55:02
Das ist relativ. Geplant ist daher nicht ganz korrekt, da sie u.a. das mit dem Memory gecancelet haben und Pascal vor Volta geschoben haben.

Entweder ist Pascal oder sogar erst Volta ein Maxwell wie er ursprünglich geplant war. So hab ich es interpretiert.

HOT
2014-04-04, 11:01:06
Da 20nm ausfällt, klingt das durchaus logisch.

AffenJack
2014-04-04, 11:03:31
Nein, Pascal könnte bei der Speicheranbindung wohl recht anders sein als Maxwell. Stacked Memory und die hohen Bandbreiten dürften für einige Änderungen sorgen. Maxwell sollte auch immer nur Unified virtual Memory haben oder? Das ist doch nur Software und mit Cuda 6 auch da, soweit ich mich erinner.

Pascal ist für mich eigentlich immernoch der Zwischenschritt auf 16FF um nicht auf Stacked Memory bis 10nm in Volta warten zu müssen.

Dawn on Titan
2014-04-04, 11:08:10
Das ist relativ. Geplant ist daher nicht ganz korrekt, da sie u.a. das mit dem Memory gecancelet haben und Pascal vor Volta geschoben haben.

Entweder ist Pascal oder sogar erst Volta ein Maxwell wie er ursprünglich geplant war. So hab ich es interpretiert.

Man muss bitte schon zwischen Technolgieprojektion und GPU-Design unterscheiden. Maxwell ist bereits ein GPU-Design Volta noch eine Technolgieprojektion.

Ailuros
2014-04-04, 11:30:43
Man muss bitte schon zwischen Technolgieprojektion und GPU-Design unterscheiden. Maxwell ist bereits ein GPU-Design Volta noch eine Technolgieprojektion.

Volta ist mehr als nur Kreide auf einer schwarzen Tafel. Es operieren stets 3 teams bei NV fuer zukuenftige Generationen.

Dawn on Titan
2014-04-04, 12:11:31
Natürlich ist er mehr als Kreide, aber Volta ist auch noch kein finales Produktionsdesign. Man ist halt in der Designphase, während Maxwell in der Produktionsphase ist.

Ailuros
2014-04-04, 12:28:46
Zwar Haarspalterei aber "Technologie-Projektion" ist ein rein technologische Uebung auf Papier aus der meistens nichts reales wird wie z.B. "project Echelon" oder deren Hexascale Maschine fuer die Zukunft. Volta ist dann schon in einem um einiges fortschrittlicherem Stadium ueberhaupt da Pascal nochmal dazwischen gequetscht wurde.

Maxwell = Produktionsphase ist auch relativ. Nur ein Mitglied der Familie ist wirklich auf dem Laufband, zwei chips hatten noch nicht ihren tape out und der top dog ist noch nicht mal der design fertig. Im strengen Sinn ist der Anfang nach der Produktionsphase nach dem finalen tape out. Man hat z.B. A1 tape out Silizium mit dem alles in Ordnung ist und nach 6 Monaten im besten Fall geht es dann zum "drucken".

Dawn on Titan
2014-04-04, 13:04:05
Als Volta das erste mal in den Roadmaps auftauchte war er imho kaum weiter als eine Technologieprojektion, heute ist er natürlich weiter, aber trotzdem ziehen sich ja immer Leute an Veränderungen in den Roadmaps hoch und formulieren, dass Chip XY Produktion ganz anders wäre (Zeit, Komplexität, Features, etc.) als der gleichnamige Chip in der Roadmap zum Zeitpunkt seiner ersten Erwähnung.

Mir geht die statische Sichtweise auf eine flexiblen Entwicklungsprozess manchmal einfach auf den Keks.

Mandalore
2014-04-04, 15:18:18
Ich halte das stark für ein Gerücht, dass 20 nm "übersprungen" wird. Man würde schon eine Art Panik von AMD&Nvidia hören.

Ja natürlich denken jetzt viele, dass GTX 780 und Hawaii genug sind, aber es sind ja nicht nur Gamer und Normale Kunden in deren Verkaufskette.

HOT
2014-04-04, 17:29:23
Ich halte das stark für ein Gerücht, dass 20 nm "übersprungen" wird. Man würde schon eine Art Panik von AMD&Nvidia hören.

Ja natürlich denken jetzt viele, dass GTX 780 und Hawaii genug sind, aber es sind ja nicht nur Gamer und Normale Kunden in deren Verkaufskette.
Wenn beide den Prozess nicht haben gibts auch keine Panik...

Unicous
2014-04-04, 17:37:46
Kannst du jezt mal mit deinem FUD aufhören, HOT. Es nervt.

Irgendein dahergelaufener Blog saugt sich was aus seinen eigenen duftenden Fürzen und du nimmst das für voll?

Dawn on Titan
2014-04-04, 17:45:44
Wenn beide den Prozess nicht haben gibts auch keine Panik...

AMD hat GF .... :biggrin:

Thunder99
2014-04-04, 17:57:16
Was wäre wohl teurer in der Produktion:

28nm GK110 oder 28nm GM104 mit etwas mehr Speed als GK110?

Das 20nm gestrichen wurde ist denke ich mal bullshit. Der Prozess verzögert sich halt was aber den IHVs denk mal schon lange bewusst war.

Ailuros
2014-04-04, 18:29:23
Was wäre wohl teurer in der Produktion:

28nm GK110 oder 28nm GM104 mit etwas mehr Speed als GK110?

Das 20nm gestrichen wurde ist denke ich mal bullshit. Der Prozess verzögert sich halt was aber den IHVs denk mal schon lange bewusst war.

Das einzige was bis jetzt gestrichen wurde sind die Brillen von manchen in roter Glanzfarbe und Glitter.

Unicous
2014-04-04, 18:32:32
Wie fies. Ich wollte auch eine.

Sunrise
2014-04-04, 20:47:03
Was wäre wohl teurer in der Produktion:

28nm GK110 oder 28nm GM104 mit etwas mehr Speed als GK110?

Das 20nm gestrichen wurde ist denke ich mal bullshit. Der Prozess verzögert sich halt was aber den IHVs denk mal schon lange bewusst war.
Hast du dich da verschrieben?

Wenn beides auf 28nm kommt und Maxwell weniger Area haben sollte, dann wird logischerweise der 28nm GM104 billiger in der Herstellung. Das wird aber nicht passieren.

-/\-CruNcher-/\-
2014-04-04, 21:14:10
Eigentlich war es doch bis jetzt immer so das Release Zyklus (competitor) ende dann kommt Nvidia bis jetzt kamm eine Preview von Maxwell ergo gehe ich eigentlich immer noch davon aus das im Juni das nächste Release folgt also die nächste Karte die dann auch die 800 Serie offiziel einführt nur im Moment hab ich zweifel das das überhaupt gehalten werden kann und somit gewinnt plötzlich AMD enorm Zeit für ihren nächsten Zyklus.
Man muss das mal so sehen man hat jetzt 3x Kepler refurbished in 3 linien nach Fermi mit (gefühlten) zillionen von Karten releases und in der Price Range ist man jetzt schon bei 3000$ angekommen und getarget für Gamer (das ist schon ansich absurd), irgendwann mus mal gut sein und es muss weiter gehen :D

Sunrise
2014-04-04, 21:20:55
Das aktuelle Lineup mag zwar inzwischen langweilig sein, allerdings bringt NV ja bald die 337.x-Treiber raus, die sollten nochmal einen (je nach Anwendung) ordentlichen Schub geben. Zusammen mit den kürzlich vorgestellten Karten wird das bis Ende des Jahres auch vollkommen ausreichen und für NV sehr hohe Margen bringen.

20nm(FinFET) wird anfangs teuer werden und die Kapazität wird begrenzt sein. Und bis die Prozessreife soweit ist, haben wir min. Q4 2014.

Iruwen
2014-04-04, 21:32:55
Kannst du jezt mal mit deinem FUD aufhören, HOT. Es nervt.

Irgendein dahergelaufener Blog saugt sich was aus seinen eigenen duftenden Fürzen und du nimmst das für voll?

Spekulatiusforum, hier ist FUD zuhause.

Ailuros
2014-04-04, 22:09:22
20nm(FinFET) wird anfangs teuer werden und die Kapazität wird begrenzt sein. Und bis die Prozessreife soweit ist, haben wir min. Q4 2014.

Du meinst 20SoC; denn von 16FF (20nm + FinFET) wird es vor Anfang 2015 nicht mal eine trial production geben.

Unicous
2014-04-04, 22:40:27
Spekulatiusforum, hier ist FUD zuhause.

Man muss aber seine persönliche Agenda/Narrative nicht bis zum Erbrechen wiederholen.