Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)
Skysnake
2014-04-05, 08:01:52
Da 20nm ausfällt, klingt das durchaus logisch.
20nm wird es ganz sicher geben, fragt sich nur, wer wann darauf umsteigt ;)
Eigentlich war es doch bis jetzt immer so das Release Zyklus (competitor) ende dann kommt Nvidia bis jetzt kamm eine Preview von Maxwell ergo gehe ich eigentlich immer noch davon aus das im Juni das nächste Release folgt also die nächste Karte die dann auch die 800 Serie offiziel einführt nur im Moment hab ich zweifel das das überhaupt gehalten werden kann und somit gewinnt plötzlich AMD enorm Zeit für ihren nächsten Zyklus.
Man muss das mal so sehen man hat jetzt 3x Kepler refurbished in 3 linien nach Fermi mit (gefühlten) zillionen von Karten releases und in der Price Range ist man jetzt schon bei 3000$ angekommen und getarget für Gamer (das ist schon ansich absurd), irgendwann mus mal gut sein und es muss weiter gehen :D
Welcome to the deepsubmicron-time...
Es wird halt immer schwieriger Chips zu designen, ohne das man nur noch Müll zurück bekommt aus der FAB, oder halt Chips, die zwar nen neuen Node benutzen, aber praktisch kaum Vorteile bringen, weil man einfach die Fertigung nicht richtig nutzen kann.
Ich habs ja schon mehrmals versucht anklingen zu lassen, dass das halt alles gar nicht sooo einfach ist inzwischen, und selbst Firmen wie nVidia und AMD eine gewisse Lernkurve mit einem Prozess haben, die eben nicht schon in der Designphase des ersten Produkts auf einem neuen Node abgeschlossen ist.
Bei so großen und komplexen Chips wie heutigen GPUs, kannste froh sein, wenn das Ding überhaupt funktioniert in meinen Augen. Ganz zu schweigen davon, das man auch immer abwägen muss, wie viel Sicherheitsmarge man einplant. Es gibt ja auch softrules usw.
Aber was erzähl ich schon. Lest doch einfach selbst. An den Aussagen hat sich nicht wirklich fundamental etwas geändert.
http://eejournal.com/archives/articles/20120220-cadence/
http://www.cadence.com/rl/Resources/overview/20nm_qa.pdf
http://chipdesignmag.com/display.php?articleId=4983
http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=6&ved=0CFwQFjAF&url=http%3A%2F%2Fwww.si2.org%2Fevents_dir%2F2011%2Fsi2con%2F4.pdf&ei=CZU_U4z8HIOZtQb1-YDAAg&usg=AFQjCNEXcVgrLK2wMpSIRf9E5GYQoVFTUA&bvm=bv.64367178,d.Yms&cad=rja
Das aktuelle Lineup mag zwar inzwischen langweilig sein, allerdings bringt NV ja bald die 337.x-Treiber raus, die sollten nochmal einen (je nach Anwendung) ordentlichen Schub geben. Zusammen mit den kürzlich vorgestellten Karten wird das bis Ende des Jahres auch vollkommen ausreichen und für NV sehr hohe Margen bringen.
Ach so, und den Treiber gibts nur für neu verkauft Karten oder wie? :freak:
Der Treiber ist schön und gut, aber deswegen kauft sich keiner ne neue Karte, der schon ne Kepler GPU hat. Eher genau das Gegenteil.
Hugo78
2014-04-05, 09:20:05
Der Treiber ist schön und gut, aber deswegen kauft sich keiner ne neue Karte, der schon ne Kepler GPU hat. Eher genau das Gegenteil.
Na der "Logik" ist Mantle ebenfalls auch überflüssig. "Weil alle Welt hat ja schon aktuelle GCN oder Kepler Karten", niemand ist mehr mit was Älterem unterwegs und steigt grad jetzt um. :rolleyes:
Kannst du jezt mal mit deinem FUD aufhören, HOT. Es nervt.
Irgendein dahergelaufener Blog saugt sich was aus seinen eigenen duftenden Fürzen und du nimmst das für voll?
Achte auf deinen Ton Junge...
AMD hat GF .... :biggrin:
Seh ich überhaupt kein Problem drin. Die haben doch dank AMD einen laufenden Prozess.
20nm wird es ganz sicher geben, fragt sich nur, wer wann darauf umsteigt ;)
[...]
Grafikchiphersteller jedenfalls nicht. Gar nichts über 50W wird über 20nm laufen. Kosten/Nutzen/Nutzungsdauer ist einfach zu schlecht, dann lieber auf FinFETs warten, da hat man auch länger was von. Mit TSMCs 16nm oder AMD 14nm kann man sicherlich auch wieder 5 Jahre Produkte designen. Das geht mit 20nm planar nicht.
Timbaloo
2014-04-05, 12:44:36
Und warum geht es nicht? Warum wird nichts über 50W mit 20SoC laufen?
Ailuros
2014-04-05, 17:15:14
Achte auf deinen Ton Junge...
An Deiner Stelle wuerde ich mich von solchen Turnereien fernhalten. Es hat kein User das Recht selbst indirekt zu moderieren.
Ailuros
2014-04-05, 17:17:42
Ein Auslassen von 20nm würde für Nvidia bedeuten, dass sie noch ein Jahr länger mit 28nm auskommen müssten. Vor Ende 2015/Anfang 2016 ist mit 16FF für große GPUs nicht zu rechnen. Und das ist schon optimistisch gehalten bei den standardmäßigen Prozess Verschiebungen und Engpässen durch Apple und mobilem Soc Gelumpe. 20nm wird ganz sicher kommen. Die Frage ist nur, ob sich ein GK204 Nachfolger in 20nm dieses Jahr noch ausgeht. Das ist derzeit zweifelhaft.
Ich habe gerade bei B3D die Frage gestellt wann es das letzte Mal war wo NV ueber einen TSMC Prozess meckerte; die Antwort ist:
http://forum.beyond3d.com/showpost.php?p=1839170&postcount=1539
Ergo warum hat NV auch nicht 40G bzw. 28HP ausfallen lassen?
Fuer den Moment wuerde ich nur auf G200@20SoC tippen und dann spaeter die komplette Familie von chips via refreshes auf 20SoC mit etwas hoeheren Frequenzen.
boxleitnerb
2014-04-05, 17:22:10
Also das dicke Schiff wieder zuerst? Warum die Kepler-Strategie wieder umkehren?
Ailuros
2014-04-05, 17:33:17
Also das dicke Schiff wieder zuerst? Warum die Kepler-Strategie wieder umkehren?
Νein. Nochmal ich habe fuer dieses Jahr nur von einem 20SoC bin von NV gehoert; fuer mich kann es nichts anderes als GM200 sein, denn es ist der einzige chip der sich nicht mehr unter 28nm herstellen laesst.
Bis jetzt hatte keiner der GM206/204/200 ihre tape outs; die ersten zwei sollten wenn alles nach Plan laeuft wohl unter 28nm bis Mai ihren tape out haben und dann ein paar Monate spaeter der top dog@20SoC.
boxleitnerb
2014-04-05, 17:37:01
Doch, denn das war bezogen auf denselben Prozess. Es ist wohl einfacher, erst die kleineren Chips in 20nm herzustellen als gleich GM200, oder etwa nicht? GK110 haben wir auch nicht vor GK104 gesehen, sondern deutlich später.
Timbaloo
2014-04-05, 17:44:59
Vielleicht geht man das Risiko ein um möglichst schnell den compute-stärksten Chip für die Tegra-Linie zu bringen? Da kann man ja deutlich was drauflegen gegenüber Kepler.
So wirklich überzeugt bin ich dennoch nicht, auch wenn Ailuros das meint :P
Ailuros
2014-04-05, 17:47:45
Doch, denn das war bezogen auf denselben Prozess. Es ist wohl einfacher, erst die kleineren Chips in 20nm herzustellen als gleich GM200, oder etwa nicht? GK110 haben wir auch nicht vor GK104 gesehen, sondern deutlich später.
NV hat zuerst einen GF110 auf 28HP geschrumpft, dann einen winzigen testchip mit Kepler zum fab verschickt und dann ging es mit GF107 als erstem los. Als die ersten GM107 chips zu deren Partnern ausgeliefert wurde zu Ende 2012 wurde erst gerade der GK110 design fertiggestellt damit es erst in der ersten Maerz 2013 Woche zum tape out kam.
Sie haben sich auch nach dem GK104 hin und her am Anfang dafuer entschieden GK110 auf Eis zu legen und nur HPC damit zu bedienen. Desktop wurde erst dann beruehrt als die Herstellungskosten bzw. yields sich normalisiert hatten. Wer sagt denn dass GM200 gleich von Anfang zum desktop muss und wenn nicht ist es ein besonders grossen Problem wenn die Herstellung relativ teuer ist oder die yields relativ unterdurchschnittlich?
Vielleicht geht man das Risiko ein um möglichst schnell den compute-stärksten Chip für die Tegra-Linie zu bringen? Da kann man ja deutlich was drauflegen gegenüber Kepler.
So wirklich überzeugt bin ich dennoch nicht, auch wenn Ailuros das meint :P
Was hat jetzt Tegra damit zu tun? Wenn Erista (mit der Maxwell GPU) tatsaechlich unter 20SoC ankommt wie ich momentan schaetze dann nicht frueher als H2 2015. In diesem Halbjahr kommt Tegra K1 32bit 28HPm und in H2 Tegra K1 64bit 28HPm.
Timbaloo
2014-04-05, 17:51:18
Sorry, meinte natürlich Tesla.
Ailuros
2014-04-05, 17:54:14
Sorry, meinte natürlich Tesla.
NV hat von der ersten September Woche 2013 bis zur Massenproduktion vom GK110b den genau gleichen A1 GK110 benutzt mit maximal 14 SMXs und HPC wurde tonnenweise mit hauptaechlich 13 SMX chips bedient. Es hat damals jeder chip ueber $200 in Herstellung gekostet was aber NV aus verstaendlichen Gruenden auch ziemlich wurscht war.
Hugo78
2014-04-05, 22:41:25
Bis jetzt hatte keiner der GM206/204/200 ihre tape outs; die ersten zwei sollten wenn alles nach Plan laeuft wohl unter 28nm bis Mai ihren tape out haben und dann ein paar Monate spaeter der top dog@20SoC.
Also wenn GM204 und GM206 in 28nm kommen, dann haben wird doch mal ne Grundlage zum "wahrsagen".
Ich sag ein GM204 Vollausbau in 28nm bei knapp über 1GHz liefert GTX 780Ti Speed bei ~180W.
Die Frage ist eher wie hoch Nvidia das Ding taktet und als was es verkauft werden soll.
Eine GTX 880 sollte doch schon nochmal 20-30% drauflegen ggü. der 780Ti, aber dann wirds irgendwann essig mit der Perf./W und OC Potential hätte man wohl auch kaum noch über, was die AIBs sicher nicht freuen dürfte...
Mit GM200 in 20nm rechne ich erst im Q1 2015, ... es wäre ein Novum den GM204 Vollausbau als GTX 870 (Ti) starten zulassen im Q4. Aber auch nicht undenkbar, von daher sag ich die GTX 870 Ti kommt noch kurz vor X-Mas.
Ein GM206 Vollausbau müsste Speedmässig irgendwo bei der aktuellen GTX 770 landen, bei einer TDP von 120-140W.
Denn so lässt man Platz für einen GM204 Salvage (870 non Ti) der sich 15% über dem GM206 Full (GTX 860 Ti) platzieren kann.
Und schlägt halt dann knapp die alte 770, so wars bisher eigentlich immer.
Ailuros
2014-04-05, 22:56:54
Also wenn GM204 und GM206 in 28nm kommen, dann haben wird doch mal ne Grundlage zum "wahrsagen".
Ich sag ein GM204 Vollausbau in 28nm bei knapp über 1GHz liefert GTX 780Ti Speed bei ~180W.
Die Frage ist eher wie hoch Nvidia das Ding taktet und als was es verkauft werden soll.
Zum Stromverbrauch sag ich noch nichts denn der ist zwischen der 680 und 770 dank 7.0Gbps GDDR5 im letzten radikal gestiegen.
Hugo78
2014-04-05, 23:37:03
Das Bild das die GTX770 ggü. GTX680 (in Game) abgibt ist so eindeutig nicht.
TPU -3% - Link (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_770/25.html)
CB -1% - Link (http://www.computerbase.de/2013-05/nvidia-geforce-gtx-770-test/9/)
HWLuxx +/- 0% - Link (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26377-test-nvidia-geforce-gtx-770.html?start=6)
PCGH + 3% - Link (http://www.pcgameshardware.de/Geforce-GTX-770-Grafikkarte-257329/Tests/Geforce-GTX-770-Test-Review-1071496/2/)
Anand +5% - Link (http://www.anandtech.com/show/6994/nvidia-geforce-gtx-770-review/16)
ht4u +15% - Link (http://ht4u.net/reviews/2013/nvidia_geforce_gtx_770_grafikkarte_test/index17.php)
3DCenter Launch Artikel +6,5% - Link (http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-770)
Hübie
2014-04-06, 00:44:24
Zum Stromverbrauch sag ich noch nichts denn der ist zwischen der 680 und 770 dank 7.0Gbps GDDR5 im letzten radikal gestiegen.
Bitte was? Taktnormiert ist das linear zur gewonnenen Leistung angestiegen also gleiche Perf/Watt. Treiberoptimierung über die Zeit mal außen vor.
Ailuros
2014-04-06, 08:23:24
Bitte was? Taktnormiert ist das linear zur gewonnenen Leistung angestiegen also gleiche Perf/Watt. Treiberoptimierung über die Zeit mal außen vor.
Dann geht mal beide zu NV's Seite, denn da steht eine TDP von 195W fuer die GTX680 und eine TDP von 230W fuer die GTX770. Der Echtzeitverbrauch ist mir bewusst, aber eine 780Ti verbraucht auch keine durchschnittleiche 250W.
N0Thing
2014-04-06, 11:22:05
Seit wann ist denn hier die Herstellerangabe zur TDP der Maßstab für den Stromverbrauch, wenn man mehrere Messungen zum Stromverbrauch der einzelnen Grafikkarten zur Verfügung hat?
Ailuros
2014-04-06, 16:10:08
Seit wann ist denn hier die Herstellerangabe zur TDP der Maßstab für den Stromverbrauch, wenn man mehrere Messungen zum Stromverbrauch der einzelnen Grafikkarten zur Verfügung hat?
Gut dann formulier ich es eben so: GM204 koennte durchaus 180W verbrauchen aber eine 250W TDP haben und es war nichts anderes als eine logische Vorbehalte weil ich noch keine Ahnung habe mit welchem Speicher sie einen solchen chip fuettern werden.
Sunrise
2014-04-07, 09:11:17
...Ach so, und den Treiber gibts nur für neu verkauft Karten oder wie? :freak:
Der Treiber ist schön und gut, aber deswegen kauft sich keiner ne neue Karte, der schon ne Kepler GPU hat. Eher genau das Gegenteil.
Fantasier nicht soviel. Wer redet denn davon, dass sich jemand deshalb eine neue Karte kauft? Das Ganze festigt die aktuellen Keplers und verbessert die Konkurrenzsituation. Und NV wird sich das teuer bezahlen lassen. Perfekt. Besser geht es nicht. Wenn Maxwell fertig und bereit ist, aber vor allem auch preistechnisch für NV gangbar ist, wird abgelöst, vorher gibt es überhaupt keinen Grund.
Skysnake
2014-04-07, 09:38:47
Ähm ja...
Dir ist schon klar, das jede Leistungssteigerung bei Kepler Maxwell in Realition unattraktiver macht?
Schau mal bitte auf den TITEL! des Threads...
Der heist Maxwell und nicht Kepler....
Daher ist absolut nichts an meiner Aussage falsch. Je stärker Kepler wird durch das Treiberupdate, desto beschissener für Maxwell. Auch wenn es hier keinem schmeckt, aber an sich sollte nVidia nur Maxwell mit dem Treiberupdate versorgen, und irgendwelche Gründe vorschieben. Denen würde sicherlich irgend ne Secre Souce in Hardware einfallen, die man halt braucht und nur Maxwell hat. :rolleyes:
So schiest sich nVidia halt ins eigene Knie. Aktuell zwar ganz gut, aber mit Maxwell werden Sie es bereuen.
Es geht um Drawcall-Performance, davon wird natürlich gleichermaßen auch Maxwell profitieren.
Skysnake
2014-04-07, 09:55:29
Klar wird er das, aber je besser der Vorgänger, deso geringer der Vorsprung der neuen Gen.
Wenn Kepler nur 10% raus holt, dann ist Maxwell in Relation dazu halt weniger schneller.
An sich wäre der Patch nen richtig gutes Kaufargument pro Maxwell, wenn es eben nur mit den neuen GPUs kommt. Da schafft man dann sogar für Kepler Nutzer einen Anreiz auf Maxwell aufzurüsten. Mit dem Patch auch für Kepler ist das natürlich deutlich weniger der Fall.
nVidia scheint sich durch Mantle doch mehr unter druck gesetzt zu fühlen als wir hier alle denken.
Also wenn ich dich jetzt richtig verstehe sollen sie deswegen den Treiber forken, und für Kepler und alles ältere für die nächsten Jahre einen mit Absicht langsameren Codepfad pflegen und alle Bugfixes zurückportieren?
Macht perfekten Sinn. Danke für deine Weitsicht.
Skysnake
2014-04-07, 13:00:28
Wie gesagt, bitte immer unter Berücksichtigung des Titels betrachten. Aus Sicht von Maxwell ist jede Verbesserung bei Kepler eine Verkleinerung des Leistungsvorteils für Maxwell.
Und ansonsten, ist dir wohl auch klar, das man mit Maxwell die Arbeit für den Keplertreiber nach unten schieben wird in der Prioritätenliste. Dein Argument von wegen Mehraufwand ist keins, da sicherlich der Treiberpatch für Kepler mehr arbeit gemacht hat, als einfach nichts zu machen, und den Support langsam auslaufen zu lassen für Kepler.
Ist ja nicht so, als ob man für Kepler ja nicht schon einen Treiber hätte, der zwei Jahre gereift ist...
Die Änderungen mit dem neuen Treiber werden sicherlich mehr Arbeit machen als alles andere,
Screemer
2014-04-07, 13:23:38
warum sollte maxwell nicht in gleichem maße von diesen treiberoptimierungen profitieren?
Timbaloo
2014-04-07, 13:26:00
Dein Argument von wegen Mehraufwand ist keins, da sicherlich der Treiberpatch für Kepler mehr arbeit gemacht hat, als einfach nichts zu machen, und den Support langsam auslaufen zu lassen für Kepler.
Und das Treiberteam bastelt in der Zwischenzeit Origami?
Ich weiss auch nicht warum man jetzt aus einem Kepler-Treiberupdate ums verrecken ein Maxwell-Thema machen muss...
-/\-CruNcher-/\-
2014-04-07, 13:26:35
warum sollte maxwell nicht in gleichem maße von diesen treiberoptimierungen profitieren?
Frag ich mich auch bei Compute Code könnt ich es ja verstehen aber overhead reduktion ist overhead reduktion, wie gesagt umsonst mussten die AC4 entwickler sicher nicht den kern für Maxwell austauschen.
Skysnake
2014-04-07, 13:50:45
warum sollte maxwell nicht in gleichem maße von diesen treiberoptimierungen profitieren?
Hat das jemand gesagt?
Nochmal zum mitlesen:
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit neuem Treiber 150%
-> Maxwell 50% schneller im Vergleich zu Kepler ohne Treiberupdate
aber nur 25% schneller im Vergleich zu Kepler mit neuem Treiber. Ist das so schwer zu verstehen? :rolleyes:
Ich hab mit dem Mist auch nicht angefangen, sondern nur auf folgenden Kommentar geantwortet, und zwar im MAXWELL! Topic...
Das aktuelle Lineup mag zwar inzwischen langweilig sein, allerdings bringt NV ja bald die 337.x-Treiber raus, die sollten nochmal einen (je nach Anwendung) ordentlichen Schub geben. Zusammen mit den kürzlich vorgestellten Karten wird das bis Ende des Jahres auch vollkommen ausreichen und für NV sehr hohe Margen bringen.
20nm(FinFET) wird anfangs teuer werden und die Kapazität wird begrenzt sein. Und bis die Prozessreife soweit ist, haben wir min. Q4 2014.
Ich bezog mich da nur auf die Aussage bzgl aktuellem Lineup. Und da ist es hoffentlich jedem klar, das jedwede Verbesserung bei Kepler zum jetzigen Zeitpunkt Maxwell uninteressanter macht.
Nicht mehr und nicht weniger...
-/\-CruNcher-/\-
2014-04-07, 13:57:24
Du hast eine Vorstellung junge du codest software wohl auch extra schlechter damit du mehr profit machen kannst mit der neuen version ;)
Diese Treiber Optimierung ist ein normaler Vorgang bei Nvidia nur jetzt machen sie eben gleich Radikaländerung wegen DX12, das hat nichtmal was mit Mantle zu tun das steht alles schon so in der Roadmap to DX12 WDDM 1.4
N0Thing
2014-04-07, 13:59:34
Hat das jemand gesagt?
Nochmal zum mitlesen:
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit neuem Treiber 150%
-> Maxwell 50% schneller im Vergleich zu Kepler ohne Treiberupdate
aber nur 25% schneller im Vergleich zu Kepler mit neuem Treiber. Ist das so schwer zu verstehen? :rolleyes:
Nach der Milchmädchenrechnung müßte das Modell aber so aussehen:
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit theoretisch aktuellem Treiber: 150%
Maxwell mit neuem Treiber 180%
Dann behält Maxwell auch mit dem neuen Treiber 50% Vorsprung. Klar, würde man die Verbesserungen zurück halten und nur für Maxwell frei geben, wäre der Abstand zu den Vorgängern größer. Aber Nvidia steht nunmal in Konkurrenz zu AMD und nicht zu sich selbst. ;)
StefanV
2014-04-07, 14:19:06
Ich verstehe nicht, warum ihr Skysnake gerade so anmacht.
Denn das, was er hier schreibt, ist rein hypothethisch gedacht. Also ein reines Gedankenspiel, wie man es hätte machen können, wenn man es wollen würde, um etwas besonders gut dastehen zu lassen. Verstehe nicht, warum das jetzt so schlimm sein soll...
nVidia ist ja auch nicht die Wohlfahrt, als die ihr versucht es hinzustellen, ganz im Gegenteil. Wenn man böse ist und ganz viel Zeit und Lust hat, findet man bestimmt einiges, was die Aussagen von Skysnake belegen würden...
Schade, dass man nicht mal so ein Gedankenspiel machen kann, ohne gleich von den nV Fans blöd angeflamt zu werden...
warum sollte maxwell nicht in gleichem maße von diesen treiberoptimierungen profitieren?
Weil Skysnake-Logik. Er braucht ja was zum stänkern.
Ich verstehe nicht, warum ihr Skysnake gerade so anmacht.
Weil er andauernd mit den absurdesten Thesen kommt wenn es um NVIDIA geht. Es nervt.
Schade, dass man nicht mal so ein Gedankenspiel machen kann, ohne gleich von den nV Fans blöd angeflamt zu werden...
Yeah, right. Sagt der Leuchtturm der Neutralität. Das strahlende Kind der ausgeglichenen Berichterstattung.
Mancko
2014-04-07, 14:25:46
Nach der Milchmädchenrechnung müßte das Modell aber so aussehen:
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit theoretisch aktuellem Treiber: 150%
Maxwell mit neuem Treiber 180%
Dann behält Maxwell auch mit dem neuen Treiber 50% Vorsprung. Klar, würde man die Verbesserungen zurück halten und nur für Maxwell frei geben, wäre der Abstand zu den Vorgängern größer. Aber Nvidia steht nunmal in Konkurrenz zu AMD und nicht zu sich selbst. ;)
Mathematik ist anscheinend nicht seine Stärke. Und ja ich schließe mich Coda an. Es ist nervig. Er soll doch bitte in den AMD Thread gehen uns sich dort ausheulen.
Screemer
2014-04-07, 14:27:03
Nochmal zum mitlesen:
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit neuem Treiber 150%
warum soll es nicht so aussehen?
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit neuem Treiber 170%
natürlich wäre im endeffekt die differenz größer. ich gehe allerdings davon aus, dass der neue treiber schon länger bei nv in der mache ist und auch erst für maxwell geplant war. da steckt sicher viel energie drin und ich find es gut, dass sie ihn schon vorzeitig releasen und nicht erst mit maxwell mit dem zusatz "boaah wie geil sind unsere neuen karten"-treiber. das sag ich als verfechter der p/l-politik von amd...
dildo4u
2014-04-07, 14:30:29
PCGH hatte ein interessanten Artikel im neuen Heft Kepler kommt nicht mal im Ansatz an die Theoretische Leistung vieleicht wurde das jetzt gefixt.
-/\-CruNcher-/\-
2014-04-07, 14:30:52
Yeah, right. Sagt der Leuchtturm der Neutralität. Das strahlende Kind der ausgeglichenen Berichterstattung.
;D
Sunrise
2014-04-07, 14:32:19
...Wenn Kepler nur 10% raus holt, dann ist Maxwell in Relation dazu halt weniger schneller.
Wenn Maxwell mindestens in gleichem Maße profitiert ist da garnichts weniger schnell. Der Abstand bleibt ja dann identisch. Könnte man ja anhand von GM107 mal testen.
Es war bzgl. Maxwell ja spekuliert worden, dass irgendwas in diese Richtung passiert, evtl. hat man das nun etwas vorgeschoben. Ändert aber nichts daran, dass dadurch Kepler aktuell auch profitiert, was ja meine Aussage war. Soweit wollte ich das im Maxwell-Thread auch belassen.
Screemer
2014-04-07, 14:34:17
ein review des neuen treibers mit einer 750Ti würde mich auch brennend interessieren.
@Redakteure: gogogo. Nachtest!
StefanV
2014-04-07, 14:35:47
Weil er andauernd mit den absurdesten Thesen kommt wenn es um NVIDIA geht. Es nervt.
Den Schuh kann man gleich an einige Herrschaften in diesem Thread zurück geben, nur dass sie halt gerne AMD flamen/nieder machen, mit den absurdesten Thesen.
Das hier ist durchaus ein berechtigter Gedankengang...
Yeah, right. Sagt der Leuchtturm der Neutralität. Das strahlende Kind der ausgeglichenen Berichterstattung.
Weil du keine Argumente hast und das, was ich geschrieben habe, nicht von der Hand zu weisen ist, dir aber trotzdem nicht passt, was ich geschrieben habe...
Skysnake
2014-04-07, 14:44:25
warum soll es nicht so aussehen?
Kepler bis jetzt 100%
Kepler mit neuem Treiber 120%
Maxwell mit neuem Treiber 170%
natürlich wäre im endeffekt die differenz größer. ich gehe allerdings davon aus, dass der neue treiber schon länger bei nv in der mache ist und auch erst für maxwell geplant war. da steckt sicher viel energie drin und ich find es gut, dass sie ihn schon vorzeitig releasen und nicht erst mit maxwell mit dem zusatz "boaah wie geil sind unsere neuen karten"-treiber. das sag ich als verfechter der p/l-politik von amd...
Oh man.... Mathematik der Mittelstufe ist scheinbar echt zu viel. Ich gebs auf.
Genau darum ging es doch... Das der "boaah wie geil sind unsere neuen karten"-Effekt größer ist, wenn Kepler den Treiber nicht bekommen würde. Kepler bekommt ihn aber, und damit sinkt der Vorteil von Maxwell, wird also uninteressanter.
Ich versteh echt nicht, das es so schwer ist, den Thread-Titel zu lesen. Der lautet nämlich MAXWELL und NICHT Kepler...
Würde er Kepler heisen, würde ich mich voll auf der Ansicht anschließen, dass das nochmal die Verkäufe beflügelt, aber Weil Kepler besser wird, soll Maxwell sich besser verkaufen, der ja so oder so den neuen Treiber bekommen hätte. Die Logik versteh wohl nur ihr.
Und damit ist das Thema für mich jetzt auch durch. Ihr habt Recht, und ich meine Ruhe...
Was redest du eigentlich daher? Ich hab dir schon gesagt, dass es extrem schwierig ist zwei Treiber-Codepfade zu pflegen. Ist ja nicht so als hätten sie da einfach eine Funktion "MakeDrawcallsSlow" entdeckt und entfernt.
Warum sollte NVIDIA anfangen so etwas zu tun? Wieso jetzt? Was ist deine Motivation das so hervorzuheben?
Offenbar hast du eine Agenda, anders kann man sich das Verhalten nicht erklären. Warum kommt solche absurde Kritik immer nur bei NVIDIA? AMD optimiert seine Treiber auch für ältere Karten.
Dein Argument von wegen Mehraufwand ist keins, da sicherlich der Treiberpatch für Kepler mehr arbeit gemacht hat, als einfach nichts zu machen, und den Support langsam auslaufen zu lassen für Kepler.
Natürlich. So ist es. Denn Kepler und Maxwell verwenden natürlich nur getrennte Codepfade im Treiber.
Weil du keine Argumente hast und das, was ich geschrieben habe, nicht von der Hand zu weisen ist, dir aber trotzdem nicht passt, was ich geschrieben habe...
Bwahaha, DU unterstellst mir keine Argument zu haben?
Ich halt's nich mehr aus in dem Irrenhaus. Das ist viel zu kafkaesk schon wieder.
Hugo78
2014-04-07, 14:50:36
@Skysnake
Maxwell kommt nicht vor X-Mas und Nvidia wird nicht zusehen, wie bis dahin jeder Mantle in den Himmel lobt ohne etwas dagegen zusetzen.
Ein Perfomanceschub für DX11 Karten, wäre ab den 343.xx Treibern eh zuerwarten gewesen weil man dann die DX10 Karten nicht mehr optimiert.
Der 377.50 jetzt hat wohl schon ein paar erste komplett neu für DX11 geschriebene Teile aus dieser Entwickelung abbekommen.
del_4901
2014-04-07, 14:52:53
Offenbar hast du eine Agenda, anders kann man sich das Verhalten nicht erklären. Es ist nich jedem seine Staerke mal ueber den Tellerrand zu schauen.
AMD optimiert seine Treiber auch für ältere Karten. Es wurden schon mal Sachen vergessen. :ugly:
Ich halt's nich mehr aus in dem Irrenhaus. :ucrazy3:
Dawn on Titan
2014-04-07, 15:16:23
Warten wird doch mal ab, ob die Verbesserungen Praxisrelevanz haben werden - oder nur in bestimmten unrealistischen Szenen greifen. Es ist ja schon viel sagend, dass der "Wundertreiber" in BF failt.
Screemer
2014-04-07, 15:27:54
Es ist ja schon viel sagend, dass der "Wundertreiber" in BF failt.
what? ich hab bisher nur vom gegenteil gelesen. teils 25+%. wo ist die info von dir her?
Hugo78
2014-04-07, 15:33:21
Es ist ja schon viel sagend, dass der "Wundertreiber" in BF failt.
BF4 ist schon so stark optimiert, da kann auch nicht viel mehr kommen, ausser man war vorher im CPU Limit mit einem Intel 6Kerner, wo man sicherlich noch paar Reserven freimachen kann.
Sieht man am aktuellen PCGH Bench zu BF4:NS mit dem letzten 335.23.
http://www7.pic-upload.de/thumb/07.04.14/y4acbj1kp22k.jpg (http://www.pic-upload.de/view-22796204/bf4.jpg.html)
Quelle: http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-Naval-Strike-Benchmark-Test-1115642/
Screemer
2014-04-07, 15:39:17
ein review des neuen treibers mit einer 750Ti würde mich auch brennend interessieren.
@Redakteure: gogogo. Nachtest!
das ist ja dann wohl mal eher ernüchternd: http://www.hardwareluxx.de/index.php/news/software/treiber/30545-nvidia-veroeffentlicht-qwundertreiberq-geforce-33750-beta.html
Hugo78
2014-04-07, 16:04:42
Zwischen 0 und 14% (BF4 Min FPS) ist doch alles dabei.
Screemer
2014-04-07, 16:14:43
gerade bei maxwell hatte ich mit mehr gerechnet. das war gemeint.
N0Thing
2014-04-07, 16:29:02
Warum sollte Maxwell stärker profitieren?
Screemer
2014-04-07, 16:34:12
neue arch., neuer treiber, mehr optimierungspotintial vielleicht?
N0Thing
2014-04-07, 16:37:40
Optimierungen für DirectX machen wohl keinen großen Unterschied bei der GPU-Architektur.
Iruwen
2014-04-07, 16:42:41
Der Intel Core i7-3960X wird von 3,2 GHz auf 3,9 GHz übertaktet, um Limitierungen durch den Prozessor weitestgehend auszuschließen.
Wäre interessanter gewesen zumindest zusätzlich in einem Bereich zu testen in dem auch Mantle etwas bringt.
StefanV
2014-04-07, 16:54:03
Hat jemand schon mal 750TI SLI Benches gesehen??
Geht das überhaupt noch mit den Karten??
Dawn on Titan
2014-04-07, 17:22:59
Zwischen 0 und 14% (BF4 Min FPS) ist doch alles dabei.
min FPS -0,9%
avg. +0,3%
laut PCGH - ziemlicher Fail imho
Skysnake
2014-04-07, 17:53:04
Wäre interessanter gewesen zumindest zusätzlich in einem Bereich zu testen in dem auch Mantle etwas bringt.
jup, da hätte man zumindest zusätzlich mit einer schwächeren CPU auch noch benchen sollen.
Iruwen
2014-04-07, 18:19:54
min FPS -0,9%
avg. +0,3%
laut PCGH - ziemlicher Fail imho
Verlinks doch gleich: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/
Die haben auch mit einer schwächeren CPU getestet. Tjoa, absolut unterwältigend.
/e: die Threads überschneiden sich.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10171279#post10171279
Bei CBs Test siehts wesentlich besser aus.
Hugo78
2014-04-07, 20:22:00
min FPS -0,9%
avg. +0,3%
laut PCGH - ziemlicher Fail imho
Ich seh da +17,2% in Crysis 3, mit einem Ivy Bridge.
Ein alter Yorkfield @ 3,2GHz interessiert mich nicht, meinen Yorkfield @ 3,6GHz hab vor genau 3 Jahren ersetzt.
Allein die -10% in Skyrim hab ich grade versucht nachzustellen, aber mein System zeigt da +/- 0% an.
Eventuell ein SMT Bug, Skyrim kommt ja kaum über zwei Kerne hinaus.
Ich häng aber eh permanent im GPU Limit mit meinem ENB, was ich mit einem OC von 1,20GHz auf 1,28GHz bei meiner GTX 670 zu jeder Zeit mit einem Zuwachs von 2fps nachstellen kann.
CB zeigt +18% im BF4 Multiplayer unter Win7.
Hab seit dem letzten Patch zwar kein Shanghai CQ64 mehr gezockt, aber aktuell häng ich im Schnitt mit meinem mittleren Settings bei um die 90-100fps, wo ich vorher 70-80 hatte.
Was davon jetzt auf das Konto vom letzten Patch geht keine Ahnung, soll mir aber auch egal sein, hauptsache mehr Speed.
Thunder99
2014-04-09, 07:59:12
Wie ist GM108 einzuordnen im Vergleich zu GK107/208 mit DDR3 (Notebook)
AnarchX
2014-04-09, 08:39:07
Die 840M wohl irgendwo zwischen 740M und 750M (DDR3): http://www.notebookcheck.com/NVIDIA-GeForce-840M.105680.0.html
Laut Treibern soll es wohl auch noch eine 845M geben. Mit GDDR5 wäre wohl GM108 deutlich attraktiver, als mit nur ~16GB/s DDR3.
AffenJack
2014-04-09, 08:56:05
Sollte auf dem Level der 750M mit DDR3 sein. Maxwell ist verdammt Bandbreiteneffizient, die 850M mit DDR3 ist trotz halber Speicherbandbreite ähnlich schnell wie eine GTX765M.
Thunder99
2014-04-09, 09:52:28
Danke, ich berate gerade einen Kumpel für ein Notebook.
GM108 könnte echt interessant werden
Knuddelbearli
2014-04-09, 11:37:37
Sollte auf dem Level der 750M mit DDR3 sein. Maxwell ist verdammt Bandbreiteneffizient, die 850M mit DDR3 ist trotz halber Speicherbandbreite ähnlich schnell wie eine GTX765M.
naja kein Wunder bei so gigantischen Caches
Undertaker
2014-04-09, 14:42:44
Im Vergleich zur Iris Pro sind sie winzig. :D Aber gerade für Notebooks mit typischerweise nur 64 oder 128 Bit Anbindung wahrlich ein Segen. Das wir in 28nm nochmal so einen großen Leistungssprung in einem absolut Perf/Watt-limitierten Markt sehen, war nicht zu erwarten. Und wenn selbst GF108 schon mit der teuren Iris Pro konkurriert, sind jegliche Sorgen über eine Kanibalisierung des GPU-Marktes durch Intels IGPs erst einmal Geschichte.
mekakic
2014-04-09, 14:46:26
Selbst Angestellte von Nvidia scheinen GCN ja sehr cool zu finden:
http://timothylottes.blogspot.com/2013/01/orbis-and-durango.html
Der Artikel ist leider nicht mehr verfügbar. Gibts davon noch ne Zusammenfassung?
AnarchX
2014-04-09, 15:50:35
GM204 laut OBR: 25SMM, 256-Bit, ARM-Cores (http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/29583-exklusivne-geforce-gtx-880-se-predstavuje)
dildo4u
2014-04-09, 15:56:12
GM204 laut OBR: 25SMM, 256-Bit, ARM-Cores (http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/29583-exklusivne-geforce-gtx-880-se-predstavuje)
Ca 4 750Ti dürfte ganz gut gehen,wegem dem Cache kann man an der Bandbreite sparen.
Botcruscher
2014-04-09, 16:04:39
Die Verarsche bei den Namen auch gleich eingeplant. Die echte GTX kommt dann als Titan 2 und Monate später als 980GTX . Marketing, it is magic.
dildo4u
2014-04-09, 16:09:13
Titan kam 1 Jahr nach der 680.
Botcruscher
2014-04-09, 16:11:48
Und?! 20nm wird eh nicht viel besser laufen. NV hat einfach einen sehr profitablen Weg gefunden eine Genration zwei mal zu vermarkten.
dildo4u
2014-04-09, 16:15:40
Man bekommt schon Heute GTX770 4Gb für 300€,2GB sind für 200€ Modelle.
Blediator16
2014-04-09, 16:20:11
Und?! 20nm wird eh nicht viel besser laufen. NV hat einfach einen sehr profitablen Weg gefunden eine Genration zwei mal zu vermarkten.
Einmal unter gewissen Umständen hat das geklappt und dann soll es für immer so weiter gehen? Eher nicht. Man weiß jetzt wenn ein kleiner Chip unter dem x80er Namen kommt wird später einen großen Bruder bekommen als echte Highendkarte. Wer sich die kleine dann noch kauft ist dann den Deal eingegangen und sollte es dann wissen.
Botcruscher
2014-04-09, 16:20:35
Das macht mir Sorgen. Sollte Nvidia bei den preislich attraktiveren 200-300€ Modellen...
Das wird alles wie bei Kepler laufen(wenn AMD nicht dazwischen funkt). Die 880 GTX gibt es ab 550, die 870 für 450 aufwärts. Dann kommt lange nichts. Nach gut einem Jahr kommt dann der große Chip mit Titan 2. Wenn der sich verkauft hat wird alles so 1,5 Jahre nach Start in die 900er Generation umbenannt.
Einmal unter gewissen Umständen hat das geklappt und dann soll es für immer so weiter gehen? Eher nicht. Man weiß jetzt wenn ein kleiner Chip unter dem x80er Namen kommt wird später einen großen Bruder bekommen als echte Highendkarte. Wer sich die kleine dann noch kauft ist dann den Deal eingegangen und sollte es dann wissen.
Eine 880GTX mit 256Bit Speicherinterface... WENN das stimmt ist die Reise klar.
Timbaloo
2014-04-09, 16:23:47
Einmal unter gewissen Umständen hat das geklappt und dann soll es für immer so weiter gehen? Eher nicht. Man weiß jetzt wenn ein kleiner Chip unter dem x80er Namen kommt wird später einen großen Bruder bekommen als echte Highendkarte. Wer sich die kleine dann noch kauft ist dann den Deal eingegangen und sollte es dann wissen.
Man wusste doch auch bei Kepler dass GK104 nicht das Ende der Fahnenstange ist. Und wenn man nicht informiert ist, fällt man halt auch auf Rebranding rein. _Wenn_ GM204 als erstes kommt, dann wird es imho genau so laufen wie bei Keplers 6xx-Reihe
Nightspider
2014-04-09, 16:54:32
Ließt sich doch sehr nett.
Das sind 11,1% mehr Shadereinheiten und ~2% mehr Boost-Takt bzw. knapp 20% mehr Rechenleistung (18,75% mehr TFLOP/s)
Geht man davon aus, das die Architektur in einigen Spielen, genau wie die 750ti, schneller sein wird sind 15-30% mehr Leistung als die 780ti sehr realistisch.
Eventuell ist dank 20nm auch etwas mehr OC-Potential drin womit man schon 30-40% mehr Leistung als bei einer 780ti erwarten kann.
Stören tun mich eigentlich nur die 4GB VRAM. Hoffentlich erscheinen auch etliche 8GB Modelle. Für 780ti+40% -Leistung sind 4GB VRAM einfach zu wenig. Erst recht für SLI.
http://abload.de/img/gtx8803fuit.jpg
Die Bandbreite ist knapp 30% unter der 780ti aber sollte sich dank großen Caches auf gleichem Niveau bzw. sogar leicht darüber befinden.
VRAM taktet mit 1850Mhz.
Chipgröße dürfte sich irgendwo bei 360mm² befinden, wenn ich schätzen müsste.
AffenJack
2014-04-09, 17:01:19
Das wird alles wie bei Kepler laufen(wenn AMD nicht dazwischen funkt). Die 880 GTX gibt es ab 550, die 870 für 450 aufwärts. Dann kommt lange nichts. Nach gut einem Jahr kommt dann der große Chip mit Titan 2. Wenn der sich verkauft hat wird alles so 1,5 Jahre nach Start in die 900er Generation umbenannt.
Und wo ist da das große Problem? Große Chips am Anfang eines Prozesses sind nunmal immer problematischer und werden immer später kommen. Im prof. Bereich ist schlechte Ausbeute egal wegen dem Preis, bei Consumerprodukten nunmal nicht. Du musst es ja nicht kaufen.
Hoffentlich regst du dich auch immer bei Intel auf, denn da kriegt Desktop überhaupt nie den Vollausbau zu sehen.
Nakai
2014-04-09, 17:09:06
Maxwell soll ja 1.35mal so effektiv sein pro SP gegenüber Kepler.
Man wäre damit so ziemlich genau 50% schneller als GK110.
Bandbreite könnte doch ein Problem sein, ob der Cache alles abfängt.
Nightspider
2014-04-09, 17:14:15
Auf jeden Fall wird GM104 (oder wie der Chip nun heißen wird) größer als GK104, welcher mit 294mm² ja geradezu winzig war.
Damit wird der Leistungssprung zur GTX 980 aka Maxwell Top Dog eher kleiner als innerhalb der Kepler-Generation.
Vielleicht wird Maxwell Top Dog auch minimal größer (wie GT200) ~580mm², was prozentual aber nicht viel ausmachen würde.
GM104 ~22% größer als GK104
GM110 ~5% größer als GK110
*unter Annahme meiner Schätzung!
Hübie
2014-04-09, 17:17:31
Blödsinn. Haswell IST der Vollausbau. Haswell-E ist eine andere Schiene. Ist doch legitim solange wir uns von nVida abzocken bedienen lassen machen die auch weiter. Vor ca. einem dreiviertel Jahr musste ich achthundert (800!) Tacken latzen um mehr Leitung als Titan plus 4 GB zu bekommen. Heute frag ich mich ob mir der Helm brannte.
Und so wirds immer wieder sein. Aber hey: wer als Grafikhure auf den Strich will muss eben in die Optik investieren. Und da bin ich ja noch n Waisenknabe (huhu, cubi ;D :freak:).
Mich interessiert ob der Cache fest mit den SMM zulegt oder mit den GPCs. Hab noch keine Zeit gehabt mir Architekturdetails reinzupfeifen.
Iruwen
2014-04-09, 17:26:18
Wie kommst du jetzt auf Haswell?
/e: ach da oben, quote ihn doch :D
Dawn on Titan
2014-04-09, 17:38:22
Oder aber die Daten sind Quatsch...
Botcruscher
2014-04-09, 17:39:26
Ich zitiere jetzt nicht meinen Unmut über die Abzocke bei Intel, den mangelnden Fortschritt und die dreiste Zwangs-Subvention der IGP.
Auf jeden Fall wird GM104 (oder wie der Chip nun heißen wird) größer als GK104, welcher mit 294mm² ja geradezu winzig war.
Ich lass mich überraschen. So viel mehr wird es nicht sein.
Ailuros
2014-04-09, 17:47:48
Na ich lass lieber die trolls in ihrem eigenem Sueppchen kochen, auf jeden Fall ist es ploetzlich rund um 20nm komischerweise still geworden und wir sind beim "quatsch nicht moeglich" trend ;D
http://www.fudzilla.com/home/item/34451-nvidia-20nm-maxwell-comes-in-late-2014
If Maxwell is ever to reach between 8 and 16 Gigaflops performance as outlined in Nvidia’s roadmap, the upcoming parts need to pack more transistors. Currently the fastest single chip Geforce GTX Titan Black has 5,121 Gigaflops and we expect that an upcoming high-end GK chip will start with at least 8 Gigaflops single precision, as this is what Nvidia GPU roadmap has implied.
It will take a dual card and probably a lot of time until Nvidia’s first 20nm GM architecture reaches 12 Gigaflops.
Hahahaha na mal sehen wie oft man den gleichen bloeden Fehler als Chef-redakteur genau machen kann...
Nakai
2014-04-09, 18:02:26
GM107 hat 148mm² unter 28nm.
Also bei ~350mm² schafft man schon einen GM204 mit 1920SPs, was etwa auf Titan-Niveau sein wird.
Hugo78
2014-04-09, 18:02:59
@Botcruscher & Hübie
Ich erinnere nochmal an die Selbstentleibung von Nvidia und AMD zu GTX 2xx und HD4xxx Zeiten (2008/2009).
Damals haben beide Hersteller Verluste eingefahren, obwohl der Absatz stabil war oder gar etwas anstieg, aber die Marge war halt fürn Popo.
Davon hatten dann auch die AIBs dann irgendwann die Nase voll (zb.: link (http://www.dailytech.com/ATI+Graphics+Partners+Think+Radeon+4870+is+Too+Good/article14527.htm)).
Titan hat natürlich für Ottonormal einen Mondpreis, würde ich mir auch nicht kaufen, aber die 780Ti hat im Vergleich zu früher und unter Berücksichtigung der allgemeien Teuerungsrate, einen ganz normalen High End Preis.
Und bei Fertigungswechsel bezahlt man halt dafür, dass man keine Geduld aufbringen will.
Ailuros
2014-04-09, 18:10:21
GM107 hat 148mm² unter 28nm.
Also bei ~350mm² schafft man schon einen GM204 mit 1920SPs, was etwa auf Titan-Niveau sein wird.
Etwas zu wenig SPs fuer etwas zu viel die area ist aber halb so schlimm; das Ziel ist nicht nur Titan Leistung zu erreichen.
Botcruscher
2014-04-09, 18:37:43
Ich erinnere nochmal an die Selbstentleibung von Nvidia und AMD zu GTX 2xx und HD4xxx Zeiten (2008/2009).
Damals haben beide Hersteller Verluste eingefahren, obwohl der Absatz stabil war oder gar etwas anstieg, aber die Marge war halt fürn Popo.
Erneute Rückschläge musste das Unternehmen in den Jahren 2008 und 2009 (Nvidia-Geschäftsjahr 2009/10) hinnehmen, hauptsächlich verursacht durch den allgemeinen Rückgang an verkauften Grafikkarten wegen der Wirtschaftskrise. Hinzu kam eine wachsende Konkurrenz durch die leistungsfähige Radeon-HD-4000-Serie des Dauerkonkurrenten AMD sowie ein starker Rückgang der Marktanteile in der Chipsatzbranche.
Kurz nein. NV bekommt für die jetzigen Preise auch eine Tüte Mitleid....
Thunder99
2014-04-09, 19:16:38
Sind nicht 256bit zu wenig trotz den größeren Caches?
Ich erwarte eher 384 für GMx04 und 512 für den TopDog
Nakai
2014-04-09, 20:20:45
Etwas zu wenig SPs fuer etwas zu viel die area ist aber halb so schlimm; das Ziel ist nicht nur Titan Leistung zu erreichen.
Sicherlich wird man die Architektur gegenüber dem GM107 noch etwas besser optimieren. Der größte Punkt wird die Speicherbandbreite sein. Mit einem 256Bit SI wird man schwer gegenüber den 384Bit von GK110 anstinken. Mit Caches könnte man einiges ausgleichen, aber das hängt wieder von der Situation ab. Man wird wohl ein signifikantes kleines Stückchen über GK110 planen, um einfach "besser" dazustehen. Aber viel mehr als 30%+ erwarte ich nicht.
Ahja, den Unsinn mit 20SOC: Wenn ein Prozess Vorteile bringt, dann wird er eingesetzt. Mangelndes Produktionsvolumen ist auch kein Grund, da TSMC sicherlich dieses steigern könnte/wird, wenn genug Nachfrage bestünde. Ich gehe davon aus, dass 20SOC einfach nicht soviel bringt und mehr Probleme verursachen kann, als zu lösen. Wir sind einfach mittlerweile an einem Punkt angelangt, der es nur noch schwer erlaubt, eine höhere Abwärme mit noch weniger Kontaktfläche abzuführen. Die 15-30% geringere Verlustleistung durch 20SOC machen den Braten auch nicht fett...
Loeschzwerg
2014-04-09, 21:46:52
256Bit + höherer Speichertakt + mehr Cache dürften billiger kommen als ein großes Speicherinterface bzw. halt ein besseres P/L bieten.
Damit hat NV mehr Möglichkeiten bei der Preisgestaltung.
Hugo78
2014-04-09, 22:03:22
Sind nicht 256bit zu wenig trotz den größeren Caches?
Ich erwarte eher 384 für GMx04 und 512 für den TopDog
Nun die GTX 750Ti erreicht mit 48% der Bandbreite einer GTX 480, dennoch den gleichen** Speed. (86 GB/s @ 128bit SI ggü. 177GB/s @ 384bit SI)
Die spekulierte GTX 880 kommt auf 70% der Bandbreite ggü. der 780Ti / Titan Black, bei mindestens 15% mehr Rohleistung + Maxwells höheren Durchsatz.
edit: ** = mal mehr, mal weniger
robbitop
2014-04-09, 23:39:01
Wie sieht es eigentlich mit MSAA aus. Bricht 750Ti dort stärker ein als die 480?
Hugo78
2014-04-10, 00:26:00
Ht4u hat eine 480 im 750Ti Test. Da verliert die 750Ti 1% im Performance-Index von 1680*1050 auf 1920*1080 ggü der 480.
- http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index40.php
TPU zeigt im Ranking, dass es einen Abfall um je 1% ggü zb. der 660 mit steigender Auflösung gibt (900p - 1080p - 1600p).
- http://www.techpowerup.com/reviews/ASUS/GTX_750_Ti_OC/25.html
Und auch bei CB verliert die 750Ti nur 1% ggü der 660, beim Wechsel von 4x auf 8x MSAA.
- http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/
-/\-CruNcher-/\-
2014-04-10, 00:28:55
Das geht für das schmalle interface, da hat Nvidia doch ne recht effiziente Power Balance diesmal gefunden und den rest alles in Compute :)
Wichtig war es eh erstmal nur AMDs archtitektur in den boden zu stampfen und die 260x hat keine Chance im Power/Leistungs Ratio :)
Jetzt müssen nur schnell Karten auf den Markt bevor AMD mit ihrem neuen Release Zyklus bereit steht :D
Es ist einfach Krass dieser unterschied in Relation zur Leistung gegenüber AMD :)
EVGA GeForce GTX 650 SC 8.58 57.69 65.58 12.64 20.74
MSI GeForce GTX 650 PE 8.76 54.17 58.97 11.43 21.23
MSI GTX 650 Ti Power Edition 10.03 72.04 79.06 12.67 28.53
NVIDIA GeForce GTX 750 Ti 7.65 60 60 60 60 8.51 16.24
AMD Radeon R7 260X 9.63 98.76 99 114.30 121.48 33.37 23.11
Sapphire Radeon R7 265 Dual-X 8.72 118.51 118.51 132.31 132.31 32.68 29.72
Man siehts schon an der Länge der Zeile ;)
Sagen wir wir sind nett und rechnen grob mit 40W - auf AMD seite dann verreckt der Bonaire Chip doch nur noch bei der Leistung ;)
denke mal die True Audio Logic wird ja nicht so viel im Idle ziehen und unter Last sollte es sich ja auch in grenzen halten und der UVD/VCE part auch wenn er innefizienter als Nvidias ist auch nicht die Welt.
Da fragt man sich echt für was verballert AMD hier die Leistung, kann doch nur Compute sein, oder ist es das Referenzkarten Design ?
Man ist ja absolut gezwungen das zu vergleichen von der Leistung ;)
NVIDIA GeForce GTX 750 Ti 7.65 60 60 60 60 8.51 16.24
XFX Radeon R7-250 passiv 12.32 62.53 63 63 63 28.77 23.8
Dawn on Titan
2014-04-10, 07:25:52
Na ich lass lieber die trolls in ihrem eigenem Sueppchen kochen, auf jeden Fall ist es ploetzlich rund um 20nm komischerweise still geworden und wir sind beim "quatsch nicht moeglich" trend ;D
So wie dort gepostet halte ich es auch für Quatsch. Bei der TDP würde nämlich kaum die versprochene Perf/W raus kommen.
Ailuros
2014-04-10, 07:57:18
Sicherlich wird man die Architektur gegenüber dem GM107 noch etwas besser optimieren. Der größte Punkt wird die Speicherbandbreite sein. Mit einem 256Bit SI wird man schwer gegenüber den 384Bit von GK110 anstinken. Mit Caches könnte man einiges ausgleichen, aber das hängt wieder von der Situation ab. Man wird wohl ein signifikantes kleines Stückchen über GK110 planen, um einfach "besser" dazustehen. Aber viel mehr als 30%+ erwarte ich nicht.
Verdammt vereinfacht: SMMs sind SMXs besser "aufgeraeumt" auch schon im GM107; je kuerzer die Datenstroeme je kleiner der Bandbreiten-Verbrauch. Anders: wieviel mehr Bandbreite hat denn GM107 im Vergleich zum GK107 und wieso ist das erste trotz allem um schaetzungsweise ca. 70% schneller?
Ahja, den Unsinn mit 20SOC: Wenn ein Prozess Vorteile bringt, dann wird er eingesetzt. Mangelndes Produktionsvolumen ist auch kein Grund, da TSMC sicherlich dieses steigern könnte/wird, wenn genug Nachfrage bestünde. Ich gehe davon aus, dass 20SOC einfach nicht soviel bringt und mehr Probleme verursachen kann, als zu lösen. Wir sind einfach mittlerweile an einem Punkt angelangt, der es nur noch schwer erlaubt, eine höhere Abwärme mit noch weniger Kontaktfläche abzuführen. Die 15-30% geringere Verlustleistung durch 20SOC machen den Braten auch nicht fett...
Wie gross duerfte denn Deiner Meinung nach GM200 sein und wieso kann man so etwas eben nicht in 28nm quetschen? Eine Loesung waere natuerlich dass das Ding nur marginal schneller ist als ein GM204, aber da koennten sie es wohl auch gleich bleiben lassen.
Sonst zum Thema 20SoC@TSMC und da es wohl nur wenige im Netz schnallen: Apple hat eine Unmenge der Kapazitaeten davon geschluckt ob es jetzt manche glauben koennen oder nicht. Genau deshalb bin ich auch der Meinung dass Apple am liebsten zum einen Teil bei Samsung bleiben sollte.
So wie dort gepostet halte ich es auch für Quatsch. Bei der TDP würde nämlich kaum die versprochene Perf/W raus kommen.
So leicht wuerde ich es nicht als Bloedsinn verfrachten; ich hab versucht auf vorigen Seiten darauf anzuspielen aber es wollte auch keiner schnallen. Wenn sie 7 Gbps GDDR5 benutzen koennte es durchaus der Fall werden, egal ob die GPU am Ende in Echtzeit bescheidener als dieses verbraucht.
Dawn on Titan
2014-04-10, 08:17:07
Das stimmt, gerade weil da ja sogar 7.4 Gbps steht. Aber hier muss man auch sehen, dass es zwischen 780 und 780ti diesen Zuwachs bei der TDP nicht so stark gibt wie bei 680 -> 770.
AffenJack
2014-04-10, 08:23:14
Ihr überseht, was er im Text zur TDP schreibt. Keine Ahnung wieso in der Tabelle 230W steht, aber im Text schreibt er, dass die 880 wohl nur 1x6Pin hat und eine TDP im 760 Bereich. Keine Ahnung ob die Tabelle überhaupt von ihm ist oder er die nur irgendwo aufgeschnappt hat und mit dem was er gehört hat(TDP) im Artikel ergänzt.
Aber generell habe ich so früh noch starke Zweifel an diesen Daten. Die können gut nur ausgedacht sein.
Sonst zum Thema 20SoC@TSMC und da es wohl nur wenige im Netz schnallen: Apple hat eine Unmenge der Kapazitaeten davon geschluckt ob es jetzt manche glauben koennen oder nicht. Genau deshalb bin ich auch der Meinung dass Apple am liebsten zum einen Teil bei Samsung bleiben sollte.
Natürlich hat Apple große Kapazitäten und deshalb kann erstmal niemand anfangen früh 20nm zu produzieren, aber TSMC rampt auch extrem schnell dieses mal. Bis Ende des Jahres will man bei 70k wafer per month sein. Wieviel braucht davon Apple? Sie bleiben bestimmt auch noch bei Samsung und gehen nur zum Teil zu TSMC. Produziert man alle Ipad Prozessoren bei TSMC brauchen sie max. 10Millionen Chips pro Monat. Grob gerechnet bei 120mm² und 50% Yield(sollte höher sein) braucht man dank der Vorproduktion im Moment dann nur 20k Wafer pro Monat. Da bleibt also durchaus noch was für den Rest übrig.
Verdammt vereinfacht: SMMs sind SMXs besser "aufgeraeumt" auch schon im GM107; je kuerzer die Datenstroeme je kleiner der Bandbreiten-Verbrauch.
Hab ich dich gerade richtig verstanden? Du meinst kürzere Datenpfade im Chip sorgen für geringere benötigte Bandbreite beim Speicher?
Nakai
2014-04-10, 10:26:57
Verdammt vereinfacht: SMMs sind SMXs besser "aufgeraeumt" auch schon im GM107; je kuerzer die Datenstroeme je kleiner der Bandbreiten-Verbrauch. Anders: wieviel mehr Bandbreite hat denn GM107 im Vergleich zum GK107 und wieso ist das erste trotz allem um schaetzungsweise ca. 70% schneller?
AMD und NV haben versucht bei den kleinsten Chips, also Mars/Hainan und GK107, die Bandbreite hoch zu halten.
GK107 hat im Vollausbau starke 80GB/s.
Im Schnitt sieht es so aus, dass eine GTX650(GK107; 80GB/s GDDR5; 1050MHz Core) etwa 20% schneller als eine GT640(GK107; ~30GB/s DDR3; ~900MHz Core). GK107 liegt noch nicht so im Bandbreitenlimit. Für GM107 kann man sagen, dass Titan nur Faktor 3 schneller ist, trotz 4facher Bandbreite und 5facher Rechenleistung. Er ist effektiv. Ja.
€: GM107 hat im Vollausbau derzeit ~90GB/s, also unverhältnismäßig mehr.
Sonst zum Thema 20SoC@TSMC und da es wohl nur wenige im Netz schnallen: Apple hat eine Unmenge der Kapazitaeten davon geschluckt ob es jetzt manche glauben koennen oder nicht. Genau deshalb bin ich auch der Meinung dass Apple am liebsten zum einen Teil bei Samsung bleiben sollte.
Niemand hat jetzt 20SOC-GPUs sehr bald erwartet. Bis dahin sollten einige Engpässe doch ausgemerzt worden sein(Ende 2014)?
Wie gross duerfte denn Deiner Meinung nach GM200 sein und wieso kann man so etwas eben nicht in 28nm quetschen? Eine Loesung waere natuerlich dass das Ding nur marginal schneller ist als ein GM204, aber da koennten sie es wohl auch gleich bleiben lassen.
Ausgehend vom GM107(148mm²; 640SPs), könnte ein GM200 unter 28nm bei 550mm² schon bei ~3200 SPs liegen. GM107 verbraucht wirklich nicht viel Energie, aber ich würde den DP-Ballast jetzt auch nicht unterschätzen. Außerdem wird wohl das Powertarget auch wieder bei ~250W liegen, wodurch am Takt geschraubt werden müsste. Man würde wohl nur ~25% vor GM204 liegen. Bis jetzt war jeglicher Gyx00-Chip ~ 50% schneller als ein Gyx04.
€2: Ich erwarte wirklich nicht viel von 20SOC. Der Prozess wird notwendig sein, die Packdichte zu erhöhen, den Verbrauch wird man eher nicht so senken können. Er wird wohl eher im unteren Bereich verwendet werden. Ahja, was ist mit 28HPM?
Ailuros
2014-04-10, 11:08:06
Niemand hat jetzt 20SOC-GPUs sehr bald erwartet. Bis dahin sollten einige Engpässe doch ausgemerzt worden sein(Ende 2014)?
Nicht unbedingt denn QCOM und co. wollen woll auch massiv unter 20SoC herstellen.
Ausgehend vom GM107(148mm²; 640SPs), könnte ein GM200 unter 28nm bei 550mm² schon bei ~3200 SPs liegen.
....und dann hast Du eine SKU die im allerbesten Fall um 20-25% schneller ist als ein GM204. Das Ereignis kann man sich in solch einem Fall fuer desktop gleich total sparen. Und das ist nichtmal alles: mit oder ohne Denver cores fuer GM200 und wenn ja wie viele und wieviel die area?
GM107 verbraucht wirklich nicht viel Energie, aber ich würde den DP-Ballast jetzt auch nicht unterschätzen. Außerdem wird wohl das Powertarget auch wieder bei ~250W liegen, wodurch am Takt geschraubt werden müsste. Man würde wohl nur ~25% vor GM204 liegen. Bis jetzt war jeglicher Gyx00-Chip ~ 50% schneller als ein Gyx04.
Ich wuerde ihn auch nicht ueberschaetzen; GM107 und wohl alle <GM200 cores haben 4 FP64SPs/SMM. Damit ich auf 12 FLOPs DP/Watt bei einer Tesla TDP von 225W komme brauche ich fuer den top dog um die 1700 DP SPs@800MHz oder 1900 DP SPs@700MHz. Nochmal unter 28nm bei 1GHz fuer nur synthesis ist es 0.025mm2 fuer jeden FP64 SP. Bei 20nm etwas mehr als die Haelfte schaetzungsweise und mit allem drum und dran ist die Endsumme laecherlich.
€2: Ich erwarte wirklich nicht viel von 20SOC. Der Prozess wird notwendig sein, die Packdichte zu erhöhen, den Verbrauch wird man eher nicht so senken können. Er wird wohl eher im unteren Bereich verwendet werden. Ahja, was ist mit 28HPM?
Wenn's nach NV's Meckerei ginge waren 28 und 40nm genauso "beschissen". Was soll mit 28HPm genau sein? Es bringt anscheinend nichts sehenswertes im Vergleich zu 28HP fuer hochkomplizierte GPU chips was mich auch nicht wundert.
Hübie
2014-04-10, 11:50:40
Hab ich dich gerade richtig verstanden? Du meinst kürzere Datenpfade im Chip sorgen für geringere benötigte Bandbreite beim Speicher?
Hab ich anders verstanden: kürzere (Daten-) Wege verringen den Verbrauch. Ob er jetzt das vermehrte speichern/lesen durch größere Caches meint geht aber nicht so deutlich hervor :| Ail spricht wie immer in Rätseln ;D
Und wenn man mehr on-GPU rechnen kann braucht man in Relation weniger Bandbreite zum VRAM für die selbe Performance pro Watt. So richtig, mh?
Ailuros
2014-04-11, 13:24:26
Ich bin ein Enigma :P zweihundertvier TO check, wenn alles gut geht geht im zehnten zum drucken und ja unter einem sehr reifem Prozess.
AnarchX
2014-04-11, 13:34:59
Damit kann man wohl besser spekulieren.
15 SMM
3 GPC je 16 Pixel
384-Bit
Half-Rate DPFP
~1GHz Base
~400mm²
= ~1,25x GTX 780 Ti / Tesla mit ~1,8 TFLOPs DPFP und massiv gestiegener Integer-Leistung bzw. Dual-GPU-Board.
Nakai
2014-04-11, 13:36:53
Halfrate DPFP für GM204?
AnarchX
2014-04-11, 13:39:46
NV wird von Hawaii sicherlich gewusst haben und bis zu einem GM200 wäre wohl die Zeitspanne auch recht groß.
Mit den Maxwell SMM böte sich die Berechnung innerhalb der Cluster wohl an, ohne die unsinnigen externen DP-Einheiten. Für GM2xx steht ja auch die Compute Capability 5.2 zur Diskussion.
Nakai
2014-04-11, 13:48:25
GM107/8 haben CC5.0, was ich auch für GM204 vermute. Eventuell war CC5.2 für GM204 unter 20nm geplant, aber ich denke, die werden einiges wegrationalisiert haben. Außerdem hätten dann nur GM107/8 CC von 5.0.
AnarchX
2014-04-11, 14:06:59
Aus strategischer Sicht wäre es auf jeden Fall nicht verkehrt, wenn GM204 960 DP-FMA berechnen könnte und man es ebenso transistorgünstig wie AMD implementieren könnte.
AffenJack
2014-04-11, 14:46:36
Glaube ich nicht dran, ist einfach unnötig. So lange ists bis GM200 auch nicht mehr hin. Q12015 sollte der auf jeden Fall kommen im prof. Bereich. Bis dahin kommt man auch so klar. Dann zu Weihnachten 2015 für den Konsumerbereich. Nen GM204 der 3-6 Monate vorher erscheint braucht da nicht viel DP.
Deswegen hat man bei den Roadmapfolien glaube ich auch nur noch Sgemm/W eingezeichnet und nicht DP. Hohe SGEMM Werte kriegt man 2014 mit GM204 noch hin, aber für DP wird man auf 2015 warten müssen.
Ailuros
2014-04-11, 15:13:29
Aus strategischer Sicht wäre es auf jeden Fall nicht verkehrt, wenn GM204 960 DP-FMA berechnen könnte und man es ebenso transistorgünstig wie AMD implementieren könnte.
AMD bedient die enthusiast Sparte mit mGPU und macht beim performance chip halt; ergo kommt alles ihr compute in diesen und sie benutzen auch Tahiti, Hawaii etc. fuer die profesionellen Maerkte. Es ist ein einziger chip pro Familie und nicht mehr.
NVIDIA hatte bisher auch nur einen und verkauft immer noch mit sehr guten Prozentualen ihre Quadros und natuerlich zu Wucherpreisen. Wieso sollte hier der top dog nicht ausreichen - den man so oder so beliebig kastrieren kann - und man braeuchte ploetzlich 2 chips mit mehr compute Faehigkeiten?
So bald ich ein paar Fetzen von mehr als 2 Seiten sichern kann, gehe ich in details, aber 204 scheint diametrisch kleiner zu sein als Du Dir vorstellst.
Dawn on Titan
2014-04-11, 16:59:03
Es ist doch sowieso hoffnungslos weil die Leute GM204 immer zum Topdog hoch reden wollen. Ist er nicht, muss er nicht, wird er nicht.
Wenn er +10-15% gegenüber GK110B bringt, dann ist das völlig ok. Sagen wir 20nm mit rund <325mm², 256Bit.
Ailuros
2014-04-11, 17:08:43
28nm fuer 204/206. Der letzte duerfte noch ein paar Wochen vor sich haben.
Dawn on Titan
2014-04-11, 17:15:12
Also kleiner als Hawaii.
Ailuros
2014-04-11, 17:23:11
Also kleiner als Hawaii.
Noch etwas Geduld; ich will mir sicher sein.
AnarchX
2014-04-11, 17:29:16
Wenn er +10-15% gegenüber GK110B bringt, dann ist das völlig ok. Sagen wir 20nm mit rund <325mm², 256Bit.
Laut der letzten Äußerung stellt sich die Frage ob er überhaupt GK110 übertrumpft.
Wohl möglich Leistung knapp auf dessem Niveau, etwas über 300mm², 256-Bit 4GiB und DX12 FL_12. Alles für $399 fallend mit der Aussicht auf einen Preiskampf mit AMDs nächsten Performance Chip.
Ailuros
2014-04-11, 17:34:38
Laut der letzten Äußerung stellt sich die Frage ob er überhaupt GK110 übertrumpft.
Wohl möglich Leistung knapp auf dessem Niveau, etwas über 300mm², 256-Bit 4GiB und DX12 FL_12. Alles für $399 fallend mit der Aussicht auf einen Preiskampf mit AMDs nächsten Performance Chip.
Welcher Aeusserung?
fondness
2014-04-11, 17:42:05
Wundert mich das NV jetzt noch das Lineup in 28nm Updatet. Das deutet auf eher späten 20nm Prozess hin.
Timbaloo
2014-04-11, 17:43:28
@Ailuros: GM204 in 28nm meint er denke ich.
AnarchX
2014-04-11, 17:54:48
Wundert mich das NV jetzt noch das Lineup in 28nm Updatet. Das deutet auf eher späten 20nm Prozess hin.
Und warum der große zeitliche Abstand zwischen GM10x und GM20x Tape-Outs.... Ein H1-Upgrade des Lineup mit 28nm Maxwell wäre ja nicht verkehrt gewesen.
Welcher Aeusserung?
28nm + <<400mm²
Ailuros
2014-04-11, 18:04:33
28nm + <<400mm²
Gut dann stets IMHO fuer Deinen Ausgangspunkt:
15 SMM Mehr
3 GPC je 16 Pixel Mehr?
384-Bit Weniger
Half-Rate DPFP IMO 4 FP64/SMM
~1GHz Base Ohne finales Silizium gewagt.
~400mm² Weniger
und es fehlt noch etwas.
Timbaloo
2014-04-11, 18:13:20
Denver-Kerne? :D
Nakai
2014-04-11, 19:22:47
Mhh, das spricht für CC5.2.
Denverkerne habe ich jedenfalls nicht mitberücksichtigt, in meiner Speku auf B3D. Könnte dann doch weniger als 18 SMMs sein.
Speicherinterface würde ich dann sogar auf 320Bit tippen, 256 wird zu wenig sein.
€: Mit größerem Speicherinterface könnte der Takt etwas gesenkt werden, um den Stromverbrauch zu drücken.
Nightspider
2014-04-11, 19:31:59
Kann mir vllt nochmal einer erklären wofür man die Denver Kerne in einer GPU sinnvoll nutzen könnte?
Botcruscher
2014-04-11, 19:49:11
NV machte da mal Werbung für Overheadreduzierung.
CountDoku
2014-04-12, 01:10:58
Auf den mittleren Maxwell bin ich gespannt. Es dürfte klar sein das der dicke erst später kommt siehe Kepler. Aber das dürfte für alles was AMD dieses Jahr bringen sollte (welche Architektur eigentlich von AMD? Normal bringt man erstmal low end bei ner neuen Architektur und nicht gleich den Grossen. Also AMD, wo biste?) reichen. Und das mit Abstand.
Und erst recht bei nem Shrink den ich noch nicht mal glaube. Ich denke nVidia bringt den mittleren Maxwell auf 28nm. AMD liegt 1 Jahr hinterher. Mindestens. Ich bin auf den Performanceindex bei Grakas nächstes Jahr gespannt:)
Das einzige das sein könnte das nVidia sich selbst bremst weil AMD garnicht hinterherkommt bei der Architektur. Normal hat nVidia mindestens 1 Jahr Vorsprung. Maxwell schon gelauncht in low end. Wird gut verbaut in Fertigsystemen und Notebooks. Bei AMD kommt der "Knaller" 295X raus.
matty2580
2014-04-12, 01:28:39
Nvidia bringt auch so einen "Knaller", die Titan Z. ^^
Und so weit liegen Nvidia und AMD von der Architektur her nicht auseinander.
Maxwell wurde so geändert, dass sich die Architektur an GCN von AMD annähert.
War das jetzt ein Nvidia-"Troll"-Post? ^^
CountDoku
2014-04-12, 01:31:15
Was war da ein Trollpost? Das ist meine Einschätzung. Maxwell wird grossflächig verbaut. Sparsam, schnell, gut. Da gibts nichts zu deuteln man sollte nVidia mal loben anstatt mich als Fanboy abzustempeln.
Und hätte AMD irgendwas zu bieten speziell neue Architektur fängt man low end an. AMD hat da aber garnichts zu bieten also hat nVidia mindestens 1 Jahr Vorsprung in meinen Augen.
Wo ist eigentlich AMD mit der neuen Architektur in der Praxis? Ich rede nicht von schönen Zahlen auf dem Papier. Verstehste?
Und wenn ich die AMD "leaks" schon sehe habe ich Tränen in den Augen vor lachen. Die sollen mal zu Potte kommen sonst gehen die unter. Sieht wie ne Panikaktion von AMD aus. Schnell ein "Gegenleak" machen lol. So und jetzt gute Nacht.
Skysnake
2014-04-12, 10:01:58
Mal dran gedacht, das es von der reinen groben Architekturausrichtung bei AMD schlicht nicht viel aktuell zu ändern gibt, weil es ne runde Architektur ist, die keinen alten Mist mit rum schleppt?
Bei GCN dreht man hauptsächlich an der konkreten Implementierung, und ob man hier mal die Latenz um nen Takt reduziert, oder dort den Bus/Cache etwas breiter/größer ausfallen lässt. Ansonsten gibts da nicht wirklich irgendwas, was "hässlich" ist, oder sich nicht einfach skalieren lässt, ohne an der grundsätzlichen Architektur was zu ändern.
Bei nVidia sieht das mit Kepler komplett anders aus. Das Ding ist einfach an einigen Stellen total hässlich, und verschiedene Tests aus dem HPC-Bereich zeigen ja auch, dass das 192er ALU/SMX Design nicht wirklich gelungen ist, weil man immer wieder diese eben gar nicht auslasten kann.
Undertaker
2014-04-12, 10:18:50
Das Problem ist, dass ohne neue Architektur der immense Effizienzrückstand auf Maxwell nur schwer verringert werden kann. Den Mobile-Bereich kann man damit wohl endgültig Nvidia überlassen. Kepler war im HPC-Bereich immer noch gut genug, um sich offensichtlich trotzdem blendend zu verkaufen (kennt hier jemand aktuelle Zahlen?).
AnarchX
2014-04-12, 10:25:10
Mhh, das spricht für CC5.2.
Denverkerne habe ich jedenfalls nicht mitberücksichtigt, in meiner Speku auf B3D. Könnte dann doch weniger als 18 SMMs sein.
Speicherinterface würde ich dann sogar auf 320Bit tippen, 256 wird zu wenig sein.
Da könnte man auch gleich den Schritt auf 384-Bit machen. Tahiti bringt sein >6Gbps Interface auch auf 365mm² unter.
Mehr als 3x soviel SMM als bei GM107 und wohl nur 2,5x Bandbreite könnten etwas wenig sein. Zumal man einen GM204 wohl auch in Setting betreiben will, die ein paar MiB großer Cache nicht mehr so gut abfängt und wieder Bandbreite gefragt ist.
Skysnake
2014-04-12, 11:12:39
Das Problem ist, dass ohne neue Architektur der immense Effizienzrückstand auf Maxwell nur schwer verringert werden kann. Den Mobile-Bereich kann man damit wohl endgültig Nvidia überlassen. Kepler war im HPC-Bereich immer noch gut genug, um sich offensichtlich trotzdem blendend zu verkaufen (kennt hier jemand aktuelle Zahlen?).
HPC ist ne Sache für sich. nVidia hat nen starken brand, und vor allem! Sie haben eine breite Softwarebasis, und die ersetzt du nicht "mal eben" so, wenn du hunderttausende/Millionen für die Entwicklung deiner Software ausgegeben hast. Vor allem aber nicht, wenn du schlicht selbst für alles Geld der Welt niemanden findest, der dir die Software umschreibt.
Da nimmste ein schlechteres P/L einfach hin rein für die Hardware. Solche Projekte bestehen halt aus mehr als nur Hardware....
Gott sei Dank haben viele diese Zwangsehe nicht geschnallt von den Kunden von nVidia.
Ansonsten muss man schauen, wie sich das entwickelt. AMD hat noch immer die APUs. Die müssten halt "nur" noch etwas nach oben skalieren. An sich sind Sie aber vielversprechender. Ich würde da noch keinen abschreiben wollen. Vor allem nicht in Anbetracht des Ultrabook wahns, der bei vielen Nutzern um sich greift.
Davon profitiert nämlich vor allem einer, nämlich Intel.
Duplex
2014-04-12, 11:54:21
Das Problem ist, dass ohne neue Architektur der immense Effizienzrückstand auf Maxwell nur schwer verringert werden kann. Den Mobile-Bereich kann man damit wohl endgültig Nvidia überlassen.
Exakt!
Blediator16
2014-04-12, 12:02:52
Was ist denn plötlich los in sämtlichen Foren. Seitdem es diese Maxwell Spekus gibt vor einigen Tagen, wird AMD nichtmal die Chance gelassen zu zeigen was es gibt. Nur weil ein kleiner Maxwell schon da ist mit einer besseren perf/w wird direkt gesagt AMD brauch nichts mehr bringen? Also bitte.
Undertaker
2014-04-12, 12:03:32
Ansonsten muss man schauen, wie sich das entwickelt. AMD hat noch immer die APUs. Die müssten halt "nur" noch etwas nach oben skalieren. An sich sind Sie aber vielversprechender. Ich würde da noch keinen abschreiben wollen. Vor allem nicht in Anbetracht des Ultrabook wahns, der bei vielen Nutzern um sich greift.
Davon profitiert nämlich vor allem einer, nämlich Intel.
Ich glaube, dass man bei Nvidia mit der aktuellen Ultrabook-Entwicklung durchaus leben kann, da auch dort eine ganze Reihe von Modellen zusätzliche GPUs integriert. Seit Sandy Bridge entwickeln sich Intels GPUs zudem nicht mehr schneller als der Gesamtmarkt, auch Broadwell dürfte imo keinen größeren Sprung als Kepler -> Maxwell (insbes. kommende 20nm-Versionen) hinlegen – der Bedarf für dGPUs bleibt demzufolge erhalten. Wenn es dann um die Wahl zwischen einer AMD- und Nvidia-Karte geht, dürfte Maxwells Effizienz die aktuelle Dominanz wohl eher noch vergrößern.
Durch die APUs sehe ich auf absehbare Zeit kaum Konkurrenz aufkommen, dafür fehlt einfach eine effizientere CPU-Architektur bzw. ein Sprung in der Fertigungstechnik.
Was ist denn plötlich los in sämtlichen Foren. Seitdem es diese Maxwell Spekus gibt vor einigen Tagen, wird AMD nichtmal die Chance gelassen zu zeigen was es gibt. Nur weil ein kleiner Maxwell schon da ist mit einer besseren perf/w wird direkt gesagt AMD brauch nichts mehr bringen? Also bitte.
Soweit sollte man sicherlich nicht gehen. Man kann aber aber imo schon resümieren, dass GCN ebenfalls eine deutliche Effizienzsteigerung braucht, um (im Mobile-Markt) konkurrenzfähig zu bleiben. Kleine Umbauarbeiten werden da nicht reichen.
dildo4u
2014-04-12, 12:15:51
Intel plus Maxwell im Notebook wird nicht schlagbar sein wobei es noch viel schlimmer wird wenn Ende 2014 i7 in 14nm kommen.Carrizo kommt 2015 in 28nm.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Carrizo-Hinweise-28-nm-Prozess-Excavator-Mikroarchitektur-1110486/
Blediator16
2014-04-12, 12:17:21
Soweit sollte man sicherlich nicht gehen. Man kann aber aber imo schon resümieren, dass GCN ebenfalls eine deutliche Effizienzsteigerung braucht, um (im Mobile-Markt) konkurrenzfähig zu bleiben. Kleine Umbauarbeiten werden da nicht reichen.
Ach wirklich. Ich dachte man belässt es wie es ist...so wie beide es schon immer getan haben.:freak:
Skysnake
2014-04-12, 12:28:21
Undertaker, du vergisst völlig den "fast enough" Faktor, der mit jeder Iteration der iGPUs härter zuschlägt.
Wirf doch mal bitte einen Blick zurück in die Geschichte des Computers.
Raumfüllende PCs -> PC passt auf den Schreibtisch -> PC passt unter den Schreibtisch -> die ersten Schlepptops mit zich kg -> echte Laptops -> Netbooks -> Tablets -> Smartphones -> Wearables.
Die Stufe davor ist eigentlich nie ganz ausgestorben. Auch heute noch gibt es "PCs", die ganze Lagerhallten füllen. Nennt sich heute halt nur Supercomputer/Cluster. Das Ding ist doch, mit jeder Stufe sind mehr und mehr Nutzer eben weiter gegangen.
Wenn du jetzt sagst, dass das nen Äpfel mit Birnen vergleich ist, dann schau dir CPUs an. Am Anfang wollte einfach jeder die schnellste CPU die man sich leisten konnte. Danach sind dann für normale Office-Anwender/ak Schreibmamsel usw nur noch langsamere angeschafft worden, dann bei den ersten Gamern/CAD leuten usw usw.
Egal wo du hinschaust, immer mehr Leute kaufen sich nicht mehr das schnellste, selbst wenn Sie es sich leisten könnten! sondern nehmen nur noch etwas, was so schnell ist wie ihr aktuelles Gerät, oder nur minimal schneller, einfach weil es ihnen schnell genug ist.
Der Vorsprung vor den iGPUs ist daher auch absolut NICHTS wert, wenn die sich schneller entwickeln als die Anforderungen, und genau das tun Sie eben noch immer. Das Einzige, für was iGPUs noch zu langsam sind, ist HPC/usw und eben Games, wobei wir die Ultra<->Very High Diskussion ja auch immer öfters sehen. Der Mehrgewinn durch Ultra wird immer fragwürdiger, weil die benötigte Mehrleistung nicht im Verhältnis zum optischen Mehrwert steht.
Ob du und ich das jetzt ganz anders sehen, und es ganz prinzipiell nie schnell genug sein kann ist dabei völlig balanglos. Der große Masse der Menschen will einfach XY haben bei maximal Preis Z, und dabei ist es ihnen völlig egal, was zuerst erreicht wird.
Wenn man FB, Youtube und allgemein Servern kann ohne das Gefühl zu haben, auf das Gerät zu warten, dann ist das für die meisten schnell genug. Der Markt schafft sich halt einfach selbst ab durch seinen rasanten Fortschritt. Das vergessen wir leider all zu oft. Schaut euch mal jedweden anderen Markt an, wie langsam DA die Entwicklung geht. Hätten wir z.B. im Automobilmarkt die gleiche Entwicklung wie im Computermarkt, könnten wir sicherlich mit einer Tankfüllung ein gesamtes Autoleben lang auskommen.
Undertaker
2014-04-12, 12:28:36
Ach wirklich. Ich dachte man belässt es wie es ist...so wie beide es schon immer getan haben.:freak:
Wenn ich mich nicht irre, hat sich seit der 7970 anno 2011 nicht sehr viel bei GCN getan. Glaubt man CB, ist die R9 290X (ohne Uber) rund 20% schneller bei vergleichbarer Leistungsaufnahme. Maxwell ist defintiv ein ausgesprochen überdruchschnittlich großer Sprung in puncto Effizienz.
Undertaker, du vergisst völlig den "fast enough" Faktor, der mit jeder Iteration der iGPUs härter zuschlägt.
Dieser Faktor wird im Mobile-Markt durch die stetig sinkende Leistungsaufnahme mehr als kompensiert. ;) Eine HD 4400 reicht in aktuellen Spielen im Schnitt für XGA und minimale Settings. "Fast Enough" ist da noch weit, weit entfernt, bzw. liegt sogar weiter entfernt als bei einem Sandy Bridge Notebook von 2011. Wenn ein kleiner GM108-Chip die 2-bis-3-fache Leistung liefert, ist das ein gewichtiges Kaufargument. Und gerade solche Ultrabooks (oder auch quasi-Ultrabooks wie das Acer Aspire V5-573G) boomen derzeit extrem.
Skysnake
2014-04-12, 12:34:09
Und zu welchem Preis?
Zumal bei nVidia wie gesagt einiges auch unschön war. Bei GCN ist das, wenn man es so sieht leider nicht der Fall, da es damit auch schwieriger ist die Effizienz weiter zu steigern.
Bei GCN kann man die Caches hochdrehen und eben was an der konkreten Implementierung drehen.Von der Architektur an sich sollte man aber lieber die Finger lassen, ansonsten wird man an gewissen Stellen einfach mit Einbußen leben müssen.
Um was man sich noch kümmern kann ist die Workdistribution, Datadistribution und allgemein der Interconnect, aber der Augbau der CUs an sich ist rein von der Architektur her sehr sehr sehr schön. Daher kann ich absolut nicht nachvollziehen, das hier einige meinen, man müsste etwas an der Architektur ändern.
An der Implementierung ja durchaus, aber nicht an der prinzpiellen Architektur.
AffenJack
2014-04-12, 12:38:54
Ja die Perf/W von Maxwell sieht wirklich hervorragend aus und das Potential sieht top aus, aber das heißt doch nicht, dass AMD mit der nächsten Generation nicht auf ein ähnliches Level kommen kann. Wie du schon sagst hat sich bei amd seit 2011 nicht mehr soviel getan an der Architektur. Wieso soll GCN 2.0 (Hawai usw ist 1.1 oder?) mit 20nm nicht wieder nen größerer Sprung in der Architektur in Sachen Effizienz werden. Dazu kann man jetzt noch nichts sagen.
Vor allem sieht es ja nun so aus, dass Nvidia spät mit 28nm ankommt. Da könnte Amd durchaus 6 Monate Vorsprung bei 20nm haben und da dürfte der Fertigungsvorteil mit paar Architekturverbesserungen schon zu ähnlicher Effizienz führen.
Undertaker
2014-04-12, 12:42:46
Und zu welchem Preis?
Zumal bei nVidia wie gesagt einiges auch unschön war. Bei GCN ist das, wenn man es so sieht leider nicht der Fall, da es damit auch schwieriger ist die Effizienz weiter zu steigern.
Bei GCN kann man die Caches hochdrehen und eben was an der konkreten Implementierung drehen.Von der Architektur an sich sollte man aber lieber die Finger lassen, ansonsten wird man an gewissen Stellen einfach mit Einbußen leben müssen.
Um was man sich noch kümmern kann ist die Workdistribution, Datadistribution und allgemein der Interconnect, aber der Augbau der CUs an sich ist rein von der Architektur her sehr sehr sehr schön. Daher kann ich absolut nicht nachvollziehen, das hier einige meinen, man müsste etwas an der Architektur ändern.
An der Implementierung ja durchaus, aber nicht an der prinzpiellen Architektur.
Der HPC-Bereich ist doch für die meisten Modelle quasi irrelevant, da zählt nur Perf/Watt (und vielleicht auch noch Perf/mm²). Solange GM200, mit welchen Mitteln auch immer, in dem Bereich gut abschneidet, reicht das vollkommen.
Ja die Perf/W von Maxwell sieht wirklich hervorragend aus und das Potential sieht top aus, aber das heißt doch nicht, dass AMD mit der nächsten Generation nicht auf ein ähnliches Level kommen kann.
Das will ich gar nicht ausschließen, ich sage nur: Da muss GCN jetzt aufschließen. Die 2014er Design-Wins für die Haswell Refresh Notebooks dürften wohl aber überwiegend an GM107/GM108 gehen, da ist der Zeitvorteil einfach zu groß.
Dawn on Titan
2014-04-12, 12:51:18
AMD hat noch so viele Möglichkeiten. Man kann größer, breiter oder kleiner gehen. Man kann und wird CGN optimieren.
Lohnt doch nicht um ungelegte Eier zu streiten. Wer hätte erwartet, dass nach Fermie Kepler besser in Perf/W ist als CGN? Wer sagt, dass sich das Verhältnis nicht wider drehen kann?
Mancko
2014-04-12, 12:59:41
AMD hat noch so viele Möglichkeiten. Man kann größer, breiter oder kleiner gehen. Man kann und wird CGN optimieren. Ich würde mir eher Sorgen um NV machen, als um AMD.
NV ist unter Druck. Die Architektur hat viele Schwächen, die durchschnittliche Auslastung ist schlecht, die Chips sind groß.... Ich würde sagen NV wird zaubern müssen wenn sie überhaupt relevant bleiben wollen und nicht von AMD APU+GPU und Intels iGPU in die Bedeutungslosigkeit geworfen werden wollen. Imho sieht man das ja schon an dem sinnlosen kleinen GM107 und auch an dem viralen Marketing in den Foren. FUD ist alles was NV noch auf der Pfanne hat.
Die Zahlen der letzten zwei Jahre sagen eindeutig etwas anderes. Mehr muss man dazu nicht sagen.
Blediator16
2014-04-12, 13:02:55
Die Zahlen der letzten zwei Jahre sagen eindeutig etwas anderes. Mehr muss man dazu nicht sagen.
Na hier wird so getan, alsob alles was aus NVs Feder kommt ein Selbstläufer ist. Das stimmt nicht, was man an anderen Bereichen sehr gut sehen kann. Seit wann ruhen sich beide auf ihren Lohrbeeren aus? Niemand brauch hier zu sagen AMD muss effizienter werden das wissen alle und das läuft schon immer so. Diese Aussagen sind nichtssagend.
AffenJack
2014-04-12, 13:04:15
Ich würde sagen NV wird zaubern müssen wenn sie überhaupt relevant bleiben wollen und nicht von AMD APU+GPU und Intels iGPU in die Bedeutungslosigkeit geworfen werden wollen. Imho sieht man das ja schon an dem sinnlosen kleinen GM107 und auch an dem viralen Marketing in den Foren. FUD ist alles was NV noch auf der Pfanne hat.
Ich dachte du hast extra nen neuen Account angemeldet um von deinem alten Trollac wegzukommen. Aber anscheinend hast du auch mit dem neuen Ac nix besseres zutun als nur rumzutrollen.
boxleitnerb
2014-04-12, 13:05:28
AMD hat noch so viele Möglichkeiten. Man kann größer, breiter oder kleiner gehen. Man kann und wird CGN optimieren. Ich würde mir eher Sorgen um NV machen, als um AMD.
NV ist unter Druck. Die Architektur hat viele Schwächen, die durchschnittliche Auslastung ist schlecht, die Chips sind groß.... Ich würde sagen NV wird zaubern müssen wenn sie überhaupt relevant bleiben wollen und nicht von AMD APU+GPU und Intels iGPU in die Bedeutungslosigkeit geworfen werden wollen. Imho sieht man das ja schon an dem sinnlosen kleinen GM107 und auch an dem viralen Marketing in den Foren. FUD ist alles was NV noch auf der Pfanne hat.
Wo ist die Auslastung schlecht? Pro Shadereinheit ist NV mindestens genauso effizient wie AMD mit Kepler. Du kannst doch die Stärken und Schwächen als Laie gar nicht beurteilen. Tu nicht so, als würdest du etwas von der Materie verstehen, nur um hier gegen NV schießen zu können ;)
Das riecht wirklich nach Troll, da haben die anderen Recht.
Iruwen
2014-04-12, 13:09:15
Irgendwann rastet Ail aus :D
Mancko
2014-04-12, 13:09:38
Na hier wird so getan, alsob alles was aus NVs Feder kommt ein Selbstläufer ist. Das stimmt nicht, was man an anderen Bereichen sehr gut sehen kann.
Hat glaube ich keiner behauptet. Ich zumindest nicht. Es ist aber sehr deutlich, dass Nvidia mit Kepler im Effizienzrennen besser gepunktet hat und sich mit Maxwell anschickt das auszuweiten. Die Notebook Design Wins sprechen da schon eine deutliche Sprache. In dem Sektor ist AMD fast nicht mehr existent.
Seit wann ruhen sich beide auf ihren Lohrbeeren aus? Niemand brauch hier zu sagen AMD muss effizienter werden das wissen alle und das läuft schon immer so. Diese Aussagen sind nichtssagend.
Ausruhen tut sich m.E. keiner von beiden, wenngleich man bei Nvidia über die ganze Kepler Serie hinweg schon festhalten kann, dass sie nicht immer gezwungen waren an die Grenzen zu gehen. AMD hat sie hier nicht genügend gefordert. Das ist klar ersichtlich an der Scheibchenpolitik bei diversen Performance- und High End Produkten. Das ist aber keine Garantie darauf, dass das mit Maxwell wieder so sein wird. So weit würde ich nicht gehen. Im Notebooksegment baut Nvidia seinen Vorsprung derzeit allerdings drastisch aus. Da herrscht schon Handlungsbedarf bei AMD.
Timbaloo
2014-04-12, 14:52:48
Irgendwann rastet Ail aus :D
Und ich gleich mit. Gerade erst ausfgestanden, mich über zwei neue Seiten Maxwell-Speku-Thread gefreut, und was kommt? Fanboy-Gangbang... :rolleyes:
Ailuros
2014-04-12, 19:12:42
Irgendwann rastet Ail aus :D
Ich hab in letzter Zeit so gute *http://youtu.be/y6Sxv-sUYtM* dass ich mich wirklich nicht zu arg mit manchem beschaeftige. Je mehr trolls desto mehr Panik, was wohl eher auf noch bessere Neuigkeiten deutet; und jetzt wo ich drandenke koennen mehr Fetzen an Infos noch einige Zeit auf sich warten lassen.
fondness
2014-04-13, 14:57:03
Was ist denn plötlich los in sämtlichen Foren. Seitdem es diese Maxwell Spekus gibt vor einigen Tagen, wird AMD nichtmal die Chance gelassen zu zeigen was es gibt. Nur weil ein kleiner Maxwell schon da ist mit einer besseren perf/w wird direkt gesagt AMD brauch nichts mehr bringen? Also bitte.
AMD hatte über viele Jahre und Architekturen die teils deutlich bessere Energieffizienz. Erst seit Kepler ist NV hier leicht vorne und plötzlich ist das der Untergang des Abendlandes? Wenn das manche so sehen wollen meinetwegen. AMD hat bei Hawaii ein 1:2 DP-Ratio, das deutlich kleinere Die, trotzdem die überlegene GPGPU-Architektur, volles DX11.2-Featureset und shared Memory-Support. Maxwell ist ein auf energieeffizienz optimierter Kepler mit wenig neues. Allerdings gewinnt die energieffizienz immer mehr an Bedeutung, AMD muss hier also nachlegen, je nachdem ob ihnen das gelingt wird man sehen wie es in Zukunft weiter geht. in Stein geimeiselt ist in diesem Markt jedenfalls nichts.
Iruwen
2014-04-13, 15:29:50
AMD hatte über viele Jahre und Architekturen die teils deutlich bessere Energieffizienz.
Hatten sie... teils... deutlich...? Das würde ich gerne mal aufgeschlüsselt haben.
boxleitnerb
2014-04-13, 15:35:53
Das geht schnell. Bei HD5000 und 6000, also in letzter Zeit eine Generation und ein Refresh davon. Davor war mal der eine, mal der andere besser, wobei es schwierig wird, das zu beurteilen, weil es damals noch nicht so viele Messungen zur Leistungsaufnahme gab.
Ailuros
2014-04-13, 16:17:37
Hatten sie... teils... deutlich...? Das würde ich gerne mal aufgeschlüsselt haben.
Ich müsste es eigentlich in diesem und im AMD thread Posten, aber ein verdammt freie Übersetzung ist dass es Frühling ist , die Natur verrückt spielt und fanboys können Ihre Hormonen nach den Prozess-problemen und lächerlich ueberteurten mGPUs einfach nicht mehr kontrollieren.
Ein Heilmittel gibt es nicht aber die Epidemie hat in allen sub-forums eingeschlagen. Berichte über radikale Nebeneffekte hatten wir noch nicht, aber wenn der Diskussionspartner zu schäumen beginnt bitte Abstände halten...
-/\-CruNcher-/\-
2014-04-13, 16:36:50
AMD hatte über viele Jahre und Architekturen die teils deutlich bessere Energieffizienz. Erst seit Kepler ist NV hier leicht vorne und plötzlich ist das der Untergang des Abendlandes? Wenn das manche so sehen wollen meinetwegen. AMD hat bei Hawaii ein 1:2 DP-Ratio, das deutlich kleinere Die, trotzdem die überlegene GPGPU-Architektur, volles DX11.2-Featureset und shared Memory-Support. Maxwell ist ein auf energieeffizienz optimierter Kepler mit wenig neues. Allerdings gewinnt die energieffizienz immer mehr an Bedeutung, AMD muss hier also nachlegen, je nachdem ob ihnen das gelingt wird man sehen wie es in Zukunft weiter geht. in Stein geimeiselt ist in diesem Markt jedenfalls nichts.
Eben nicht Maxwell ist der Angriff auf AMDs GPGPU effizienz vor allem im Consumer bereich und wenn man es so sieht hat Nvidia wieder alles richtig gemacht vom Timing für Consumer Desktop gut sie haben die Next Gen Konsolen verloren weil ihnen Mobile wichtiger war und sie nicht die Effizienz von Fusion erreicht haben.
Auch bei dem Featureset haben sie alles richtig gemacht was nicht gebraucht wird einfach weggelasen und anderweitig die resourcen verlagert das war Wirtschaftlich schlau, vor allem da sie Mobile mit Metro nicht so mitmischen wie AMD demnächst.
Black-Scorpion
2014-04-13, 20:11:43
Wer im dritten Aufguss nur DX11.0 bietet hat alles richtig gemacht? Schlechter Scherz oder was.
Manche haben eine verdammt seltsame Sichtweise. Bei Grün ist das Schlau und bei Rot ist es Bremsen des Fortschritts.
Ailuros
2014-04-13, 21:05:39
So und jetzt ist die Pause vorbei. Das gilt genauso für diejenigen die on von off topic nicht unterscheiden können oder Gelegenheits-Trolls die nur dann "beitragen" wenn sie jemand anmaulen können. Zurück zum Thema und jede Abschweifung wird verpunktet.
AnarchX
2014-04-16, 12:42:02
SOCKET BASE, S-BGA-145-080-GK104/GM204
https://www.zauba.com/import-gm204-hs-code.html
Hinweis auf 256-Bit bei GM204 bzw. gar Pin-Kompatiblität zu GK104?
Timbaloo
2014-04-16, 13:24:36
Auf die 256-Bit SI würde ich einiges verwetten. Es gibt einfach kein Argument das für mehr als 256-Bit spricht. GF104/114 -> 256-Bit, GK104 -> 256-Bit, warum sollte GMx04 mehr haben?
AnarchX
2014-04-16, 13:27:59
GF114 hat aber den GDDR5 bei weitem nicht so ausgefahren. GK104 konnte da noch um 50% / 75% die Bandbreite steigern. Sofern 8Gbps kommen sollten, blieben da für GM204 gerade mal +15%.
Eventuell passt eher die <150W Spekulation, wo man sich dann wohl möglich weiter auf dem Niveau der GTX 770 bewegt.
Timbaloo
2014-04-16, 13:35:03
Dem stehen deutlich größere Caches gegenüber. Im Vergleich mit GK107 (~80GB/s) hat GM107 (~86GB/s) auch nur unwesentlich mehr Bandbreite.
Dawn on Titan
2014-04-16, 13:37:42
Für Full-HD mit max. 4xMSAA reicht 256Bit - mehr ist auch nicht das primäre Ziel eines GM204.
Ailuros
2014-04-16, 13:38:06
GF114 hat aber den GDDR5 bei weitem nicht so ausgefahren. GK104 konnte da noch um 50% / 75% die Bandbreite steigern. Sofern 8Gbps kommen sollten, blieben da für GM204 gerade mal +15%.
Fermi batte einen problematischen MC. An 8Gbps glaube ich erst wenn ich es sehe, sonst müssen wohl Maxwells mit vergleichbarer Bandbreite auskommen. Maxwell soll ja laut NV doppelt so effektives culling haben für GM107 vs GK107.
AffenJack
2014-04-16, 17:30:28
https://www.zauba.com/import-gm204-hs-code.html
Hinweis auf 256-Bit bei GM204 bzw. gar Pin-Kompatiblität zu GK104?
Vergleicht man die Daten mit GM107, warens für A2 Stepping 8Monate bis zum release. Also hat GM204 gerade seinen Tapeout gehabt und wir sehen ihn im Dezember in A2 oder mit ganz viel Glück Oktober mit A1.
Ailuros
2014-04-16, 18:08:49
Vergleicht man die Daten mit GM107, warens für A2 Stepping 8Monate bis zum release. Also hat GM204 gerade seinen Tapeout gehabt und wir sehen ihn im Dezember in A2 oder mit ganz viel Glück Oktober mit A1.
Tape out ja; ich bin nur nicht sicher ob silicon schon zurueck ist oder nicht aber auf jeden Fall innerhalb von April. GM206 ist nur Tage dahinter, ergo kommen wohl beide fast zeitgleich an. Ich muss nur noch nachfragen ob der design fuer 200 schon fertig ist damit man fuer einen ~Juni tape out hoffen kann.
AnarchX
2014-04-16, 18:12:48
Da wäre ja bei 200 ein H1 15 Launch denkbar? Aber GK210 scheint wohl mehr als nur eine Simulation zu sein, wenn man ihm einen Verkaufs-SKU-String verpasst: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10181093#post10181093
Ailuros
2014-04-16, 18:31:23
Da wäre ja bei 200 ein H1 15 Launch denkbar? Aber GK210 scheint wohl mehr als nur eine Simulation zu sein, wenn man ihm einen Verkaufs-SKU-String verpasst: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10181093#post10181093
Mehrere insiders pendeln fuer GM200 zwischen Ende 14'/Anfang 15' eben weil nicht noch mal der eigentliche design fertig ist. Gibt es einen erfolgreichen tape out im Juni und laeuft alles anderen nach Plan koennen sie im Dezember dann schon mit der Massenproduktion loslegen. Aber zu viele "ifs" zwischendrin ;)
Knuddelbearli
2014-04-16, 18:34:46
kann man die Yield / 20nm / 16nm diskussion von hier und aus dem AMD Thread bitte in einen eigenen Thread auslagern?
Unicous
2014-04-16, 18:43:58
Alternativ einfach einstellen. Denn keiner was gar nichts über irgendetwas. Das Fab/Foundry Business ist doch nur Rumgerate. Ich weiß nicht wie viele Artikel ich in den letzten Jahren von den berüchtigten Seiten Semiwiki, EETimes etc. gelesen habe und die auch nur im Trüben rumgestochert haben. Wenn sie dann mal jemanden interviewt haben, ist ihnen nur das übliche PR-Gebrabbel ausgeleert worden.
Ich finde es zwar mysteriös, dass über die Jahre so gut wie nichts Konkretes an die Öffentlichkeit gelangt aber das ständige Gejammer der Branche das an den Wänden zig mal wiederhallt ist irgendwann nur noch anstrengend und das Spekulieren über Luftblasen ist ermüdend.
Timbaloo
2014-04-16, 18:48:30
kann man die Yield / 20nm / 16nm diskussion von hier und aus dem AMD Thread bitte in einen eigenen Thread auslagern?
Das wollte ich auch anmerken. Das Thema nimmt so viel Raum ein und vor allem ist die Diskussion in den beiden Threads (AMD + NV) gleich doppelt geführt.
Ailuros
2014-04-16, 18:49:36
kann man die Yield / 20nm / 16nm diskussion von hier und aus dem AMD Thread bitte in einen eigenen Thread auslagern?
Fuer den AMD thread kann ich es noch verstehen aber wo siehst Du hier etwas in den letzten paar posts etwas ueber 20/16nm? Es geht um die tape out Termine von diversen Maxwell chips und diese sind momentan am wichtigsten fuer jeglichen relevante Spekulation. GM204/6 sind auf 28nm falls es helfen sollte.
Das wollte ich auch anmerken. Das Thema nimmt so viel Raum ein und vor allem ist die Diskussion in den beiden Threads (AMD + NV) gleich doppelt geführt.
Ich mach Euch das leben leichter: ich zieh mich von allen desktop GPU relevanten threads total zurueck und dann ist wirklich Ruhe. Um einiges einfacher fuer mich und fuer alle anderen :)
Knuddelbearli
2014-04-16, 18:51:25
war jetzt eher allgemein gemeint da das Gespräch hier auch langsam aber sicher in die Richtung driftet
Den als nächstes komtm sicher wieder die Frage wieso sollen die in 28nm kommen dann geht es Richtung Fertigung und Kosten und Ausschuss usw
Ailuros
2014-04-16, 18:54:33
war jetzt eher allgemein gemeint da das Gespräch hier auch langsam aber sicher in die Richtung driftet
Den als nächstes komtm sicher wieder die Frage wieso sollen die in 28nm kommen dann geht es Richtung Fertigung und Kosten und Ausschuss usw
Ja weisst Du das daemliche ist halt dass es zur ganzen Geschichte so oder so dazugehoert. Ich hab Euch aber die Loesung schon oben gegeben, es sind alle froh, case closed.
Timbaloo
2014-04-16, 18:57:04
Ich mach Euch das leben leichter: ich zieh mich von allen desktop GPU relevanten threads total zurueck und dann ist wirklich Ruhe. Um einiges einfacher fuer mich und fuer alle anderen :)
Öhmmm, ich weiss ehrlich gesagt nicht warum du jetzt so reagierst. Das war überhaupt nicht auf dich bezogen.
Ailuros
2014-04-16, 19:09:45
Öhmmm, ich weiss ehrlich gesagt nicht warum du jetzt so reagierst. Das war überhaupt nicht auf dich bezogen.
Ich wette mit Dir was Du willst dass es Ruhe geben wird wenn ich mich zurueckziehe. Und es ist keine kindische Reaktion man nennst so etwas Verantwortung und Prioritaeten.
AnarchX
2014-04-18, 10:19:25
Bei Zauba ist wohl noch ein GM204 Bauteil aufgetaucht:
FCBGA40X40-M49X49-0.8-1745 WATER COOLING LID (GM204-GB3-256), 10102028040
Unicous
2014-04-19, 16:26:02
Da schau mal einer.
Wer klaut von AnarchX und gibt keinen credit?
Es ist der fette tschechische Oger:
http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/29681-zadny-20nm-gpu-cip-letos-nevyjde-nove-grafiky-ale-ano
videocardz haben übrigens sowohl dem fetten Oger als auch 3DC nen credit gegeben.
http://videocardz.com/50301/nvidia-preparing-maxwell-gm204-kepler-gk210-gpus
Könnte nat. Zufall sein, aber bei Obermaier kann ich das einfach nicht glauben.
AffenJack
2014-04-19, 16:38:25
Ich glaube auch nicht an Zufall. Schade ist, dass damit Zauba bald als Quelle tot sein wird, da man einfach leicht anders deklarieren wird.
Nightspider
2014-04-23, 16:07:38
Eine Frage:
Ist es möglich das sich die Zeit zwischen Tape-Out und Release dank alter 28nm Fertigung verkürzt im Vergleich zu Beginn der 28nm Generation, weil TSMC und NV schon viel Erfahrung mit dem Bekannten Prozess haben?
Und könnte man Grafikkarten deshalb vllt schon im Oktober erwarten oder mit viel Glück Ende September?
AnarchX
2014-04-23, 16:31:29
Wenn man es mit einem A1-Stepping in die Produktion schafft und GM104 noch Pin-kompatibel zu GK104 ist, dann könnten die Zeitabstände durchaus geringer ausfallen.
Dawn on Titan
2014-04-23, 20:37:43
Das sind viele "wenns".
AnarchX
2014-04-23, 21:24:44
28nm spricht für A1. Die Zauba-Daten für Pin-Kompatibilität.;)
VooDoo7mx
2014-04-24, 03:34:09
Ich will mal mitmachen:
GM204
- 28nm TSMC 400-450mm²
- 25 SMM, 3200 Shader Cores
- 1/16 DP
- ~ 1GHz Takt
- 256Bit Speicherinterface
- 4GB 7gbps GDDR5
- in Games 30% über GTX780Ti
- Launch Spätsommer/Herbst Vermarktet als GTX880 oder 980 ~500€
Dawn on Titan
2014-04-24, 07:07:25
28nm spricht für A1. Die Zauba-Daten für Pin-Kompatibilität.;)
GM107 brauchte auch ein A2 und da hätte 28nm und die überschaubare Größe auch für A1 sprechen können.
AnarchX
2014-04-24, 07:10:17
GM107 brauchte auch ein A2 und da hätte 28nm und die überschaubare Größe auch für A1 sprechen können.
Mit GM10x konnte man das Design eben testen und auf den Prozess optimieren. GK110 hat es trotz kleineren Veränderungen gegenüber GK10x und seiner Die-Größe auch im A1-Stepping in die Produktion geschafft.
Insgesamt stehen die Zeichen wohl nicht so schlecht, dass GM204 schnell aus der Prototypen-Phase in die Produktion übergehen kann.
von Richthofen
2014-04-24, 09:27:55
GK110 hat es trotz kleineren Veränderungen gegenüber GK10x und seiner Die-Größe auch im A1-Stepping in die Produktion geschafft.
Jedoch sind die A1 allesamt Krüppel - mit B1 wird es dann erst ein Vollausbau.
Dawn on Titan
2014-04-24, 09:35:50
Es gab auch Vollausbau A1, nur nicht viele.
AnarchX
2014-04-24, 12:25:00
Es gab auch Vollausbau A1, nur nicht viele.
Wo denn? K40/K6000/Ti/BE alle B1. Fragt sich natürlich ob das mit dem A1-Stepping zusammenhängt oder man einfach die Ausbeute auf dem damals teuren 28nm Prozess erhöhen wollte.
Insgesamt hat man doch schon mehr als genug Erfahrung mit 28nm gesammelt, sodass ein A1-Chip durchaus denkbar wäre.
Ravenhearth
2014-04-24, 12:56:09
Will auch mal:
GM204
- 28nm TSMC, 350-400mm²
- ~ 5 Mrd. Transistoren
- 20 SMM, 2560 Shader
- ~ 1GHz Takt
- 256Bit Speicherinterface
- 4GB 7gbps GDDR5
- in Games ~10% über GTX780Ti
- Launch Herbst/Frühwinter, vermarktet als GTX880, $499 MSRP
Hugo78
2014-04-24, 13:01:29
Findet ihr es wirklich zielführend, einen vermutlich um die ~ 400mm^2 großen GK204, der zwei Jahre nach GK110 kommt, mit seinem Werdegang zuvergleichen?
aufkrawall
2014-04-24, 13:04:13
@Ravenhearth: Das wär schön, aber warum soltle NV das tun?
Schneller als GK110 bei geringerem Preis und mehr Speicher, ohne Konkurrenz?
Timbaloo
2014-04-24, 13:07:27
Ich erwarte eher einen niedrigeren Takt, etwas geringere Performance als 780ti aber schön effizient. Sicher wird sich NV das aber auch, wie bei GM107, gut entlöhnen lassen.
Dawn on Titan
2014-04-24, 13:10:56
@Ravenhearth: Das wär schön, aber warum soltle NV das tun?
Schneller als GK110 bei geringerem Preis und mehr Speicher, ohne Konkurrenz?
und kleinerer Chip mit neueren Features, also niedrigere Kosten in der Produktion bei höherem Verkaufspreis.
Wo denn? K40/K6000/Ti/BE alle B1. Fragt sich natürlich ob das mit dem A1-Stepping zusammenhängt oder man einfach die Ausbeute auf dem damals teuren 28nm Prozess erhöhen wollte.
Insgesamt hat man doch schon mehr als genug Erfahrung mit 28nm gesammelt, sodass ein A1-Chip durchaus denkbar wäre.
Hatten nicht die ersten Samplekarten von der 780ti teilweise A1 drauf?
Ravenhearth
2014-04-24, 13:40:11
@Ravenhearth: Das wär schön, aber warum soltle NV das tun?
Schneller als GK110 bei geringerem Preis und mehr Speicher, ohne Konkurrenz?
Bis Herbst/Ende des Jahres fließt noch etwas Wasser den Rhein herunter, da halte ich das für möglich.
Aber irgendwie ist es auch traurig, dass ein <400mm²-Performance-Chip, der heute nicht mehr kosten dürfte als GK104 vor 2,5 Jahren, für 500€ als "schön" angesehen wird.
aufkrawall
2014-04-24, 14:04:42
Schneller (besonders bei Compute), effizienter und mehr VRAM für weniger Geld, sind ja schon mal ein Fortschritt.
Immerhin scheint von NV überhaupt was zu kommen (wenn das 600mm²-Teil von AMD wirklich nur für Server ist).
Mandalore
2014-04-24, 14:08:26
Ich habe den Eindruck (Sorry, falls es wirklich nicht stimmen sollte;) ), dass Nvidia in Sachen GPGPU AMD (gewaltig) hinterherhinkt. Neben dem Sciene-Bereich wird die Gaming/Multimedia-Branche dank PS4 immer mehr von GPGPU profitieren. Ich hoffe, dass Nvidia dem endlich gerecht nachkommt.
Andere Frage: Gilt es als ziemlich sicher, dass wird dieses Jahr keine 20nm GPUs sehen werden? Wann könnte man mit GM204 eigentlich rechnen?
aufkrawall
2014-04-24, 14:15:47
Ich habe den Eindruck (Sorry, falls es wirklich nicht stimmen sollte;) ), dass Nvidia in Sachen GPGPU AMD (gewaltig) hinterherhinkt. Neben dem Sciene-Bereich wird die Gaming/Multimedia-Branche dank PS4 immer mehr von GPGPU profitieren. Ich hoffe, dass Nvidia dem endlich gerecht nachkommt.
Da muss man unterscheiden. Teilweise liegts auch daran, dass NV auf OpenCL nen großen Haufen setzt.
Bei f@h ist GK110 jedenfalls schneller als Hawaii und die 750 Ti hinkt selbst bei auf NV lahmenden OpenCL-Benchs den Radeons bei der Perf/W nicht unbedingt hinterher. Bei LT-Mining wird GCN bei der Perf/W sogar regelrecht gekillt, ebenso f@h.
Ich habe den Eindruck (Sorry, falls es wirklich nicht stimmen sollte;) ), dass Nvidia in Sachen GPGPU AMD (gewaltig) hinterherhinkt.
Das ist jetzt nicht dein Ernst, oder?
Das meiste was dort draußen an tatsächlich in der Praxis verwendeter GPGPU-Software existiert ist CUDA.
fondness
2014-04-24, 15:06:13
Was allerdings weniger an der Hardware liegt.
Hübie
2014-04-24, 15:08:59
Ein weiterer Punkt ist eben die Performance pro Watt. Und so lange wie OpenCL ein Gemüsegarten ist wird CUDA bevorzugt. Eine Sache die man bei AMD noch nicht geschnallt hat.
Da wird lieber über Twitter gezwitschert man sei schneller als die Konkurrenz. :rolleyes:
b2t: Angesichts der Marktlage erwarte ich einen Ersatz der GTX 780 durch die deutlich effizientere GM104-Generation. Die Ti/Titan (Black) wird man noch eine ganze Weile im Portfolio belassen. Ravenhearths Tipp sieht ja so auch nicht schlecht aus. Nur kommen dabei keine 10% über Ti heraus.
boxleitnerb
2014-04-24, 15:23:43
Sondern weniger?
robbitop
2014-04-24, 15:26:51
Ravenhearths Tipp sieht ja so auch nicht schlecht aus. Nur kommen dabei keine 10% über Ti heraus.
Eventuell sogar eher 20 %. Ein Maxwell SP ist 35 % leistungsfähiger als ein Kepler SP.
Hübie
2014-04-24, 15:37:53
Also ich sage eher weniger. Und dann auch keine 20 SMM sondern 15. Bäm.
robbitop
2014-04-24, 15:44:06
Lasst die Glaskugeln sprechen...
boxleitnerb
2014-04-24, 15:54:58
Würde man die 750 Ti genau mal drei nehmen, auch bei der Bandbreite (ok, reicht mit 256-bit nur fast), kommt man schon einen Tick über der 780 Ti (@Max) raus, wenn ich mir so die Performanceratings anschaue.
fondness
2014-04-24, 15:58:38
In den Performaceratings hast du allerdings eine leichte Verzerrung drinnen, da die schnelleren GPUs häufiger auf die CPU warten müssen und nicht jedes Codeschnippsel linear skaliert.
Hübie
2014-04-24, 16:15:06
Na ja es ist letztlich auch eine Frage welche Strategie nVidia nun fährt. Mit GM104 will man ja GK104 ersetzen. Dafür reichen 1920 ALUs ja locker aus.
Effizienz ist da ja eh gegeben. Ich tippe auf 160 Watt. Plus Minus 10 Watt (okay eher plus ;D).
boxleitnerb
2014-04-24, 16:15:41
Dann nimmt man sich eben besonders GPU-lastige Spiele, da zeigt sich fast dasselbe Bild. Knapp über 780 Ti. Ob das nun 5 oder 10 oder 15% sein könnten...bei den spekulierten Specs sehe ich diese hypothetische Karte jedenfalls nicht hinter dem Flaggschiff (bei ähnlichem Takt zur 750 Ti natürlich! Was noch eine Unbekannte ist.).
Hübie
2014-04-24, 16:23:55
Wie willst du sonst die GK110 an den Mann bringen wenn so ein fetter Maxwell schon jetzt erscheint? Ich meine dass es kurz nach dem Sommer ja schon soweit sein könnte (September).
dildo4u
2014-04-24, 16:28:46
Die Chips wirste als Tesla Karten los,Big Maxwell wird vermutlich bei DP wieder beschnitten sein.
http://media.bestofmicro.com/3/Z/422639/original/12-FAH-DP-Explizit-Solvent.png
robbitop
2014-04-24, 16:36:19
Die 104 Karten waren immer schneller als die vorherige 100/110 Karte. Das wird auch diesmal nicht anders sein.
Irgendwann kommt nunmal die Nachfolgegeneration und macht die Vorgängergeneration obsolet. GK110 gibt es zum GM104 Launch dann auch lang genug...
Dawn on Titan
2014-04-24, 16:53:15
Wie willst du sonst die GK110 an den Mann bringen wenn so ein fetter Maxwell schon jetzt erscheint? Ich meine dass es kurz nach dem Sommer ja schon soweit sein könnte (September).
"Gar nicht" ist hier die Antwort. Warum den größeren Chip verkaufen wollen, wenn man den kleineren teurer verkaufen kann?
Knuddelbearli
2014-04-24, 17:29:49
Die 104 Karten waren immer schneller als die vorherige 100/110 Karte. Das wird auch diesmal nicht anders sein.
Irgendwann kommt nunmal die Nachfolgegeneration und macht die Vorgängergeneration obsolet. GK110 gibt es zum GM104 Launch dann auch lang genug...
nur waren die 104er dann auch immer nen shrink. Kannst diese Regel jetzt also in der Pfeife rauchen ...
boxleitnerb
2014-04-24, 17:38:08
Nö, denn erstmals seit einiger Zeit haben wir gesehen, was man auch ohne Shrink an Perf/W rausholen kann. Da ist also genug Luft, um der Regel zu folgen - je nachdem wie "dick" man den 104er eben macht.
Hübie
2014-04-24, 17:52:25
Wir reden aber gerade von Gesamtperformance und da bist du @28 nm bei ca 600mm^2 "schon" am Ende. Ich weiß jetzt auch gar nicht aus dem Kopf ob ein SMM 30 % schneller oder effizienter als ein SMx ist. GM107 macht durch sinnvollere Aufteilung und größeren Caches einiges an Boden gut, aber eine ALU ist glaub ich beinahe genauso gestrickt wie auf Kepler. Das beinahe schreib ich mal um Optionen offen zu halten X-D Hab nämlich noch kein Artikel über Architekturdetails durchlesen können (an dieser Stelle wäre es nett wenn mir jemand einen anständigen Artikel verlinken könnte).
boxleitnerb
2014-04-24, 17:55:30
Wo ist jetzt das Problem? Ein GM104 mit 1920 SP muss ja nicht zwingend größer als 400mm2 sein.
Leonidas
2014-04-24, 17:55:59
Das mit dem Shrink ist aber schon ein Argument. Mit einem Shrink kann man theoretisch +100% herausholen, in der ersten Generation vielleicht noch +50%, aber immerhin. Die höhere Maxwell-Effizienz liegt dagegen im Rahmen von +30%. Mit einem Shrink ist das nicht vergleichbar.
Zudem denke ich, auf 256 Bit tritt eine klare Performance-Bremse auf, wenn man wirklich die 780Ti einholen wollte. Unklar, ob dies mit 256 Bit überhaupt möglich ist.
Hübie
2014-04-24, 18:05:17
Über größere Caches mehr Takt und kürzere Wege kann man das sicher kompensieren. Vorher wird aber eher GDDR6 und/oder stacked RAM etc. eingeführt. Pascal ist doch schon ein Kandidat dafür oder irre ich mich gerade?
edit: @box: hab ich ja auch nicht gesagt oder? ;) Wenn du aber mit dem Performancechip schon +30% auf last-gen-highend willst und wir jetzt mal davon ausgehen der Chip hat "nur" 1920 ALUs frage ich mich wie dass dann beim Highend Maxwell aussehen soll. Es ist ja noch nicht mal so dass die dunkle Wolke über 20nm für GPUs verzogen ist.
Also spekulieren wir auch mal in die Richtung dass der fette Maxwell noch mit 28-nm-Prozess kommen könnte :P
Unicous
2014-04-24, 18:08:31
@boxleitnerb
Vllt. hat man aber auch nur gesehen, was Nvidia bei ihren kleineren Kepler Chips falsch gemacht hat und diese Fehler jetzt ausgemerzt.:P
Ich würde Maxwell nicht vor GMx04 loben. Die 750Ti hat ein sehr gutes Perf./W-Verhältnis, dass muss aber nicht zwangsläufig auch bei den anderen SKUs so gut ausfallen.
@GDDR6
MIA kann man ja nur sagen. Ich denke wenn/falls GDDR6 wirklich herauskommt ist es schon längst obsolet. Ich denke wir sei werden sich noch eine Weile mit GDDR5 über Wasser halten und dann auf HBM o.ä. onDie/onPackage/stacked umschwenken.
Hugo78
2014-04-24, 18:09:26
Zudem denke ich, auf 256 Bit tritt eine klare Performance-Bremse auf, wenn man wirklich die 780Ti einholen wollte. Unklar, ob dies mit 256 Bit überhaupt möglich ist.
Das hatten wir ja schon mal so ähnlich, bezogen auf OBRs GTX 880 mit 3200 SPs.
Nun die GTX 750Ti erreicht mit 48% der Bandbreite einer GTX 480, dennoch den gleichen** Speed. (86 GB/s @ 128bit SI ggü. 177GB/s @ 384bit SI)
Die spekulierte GTX 880 kommt auf 70% der Bandbreite ggü. der 780Ti / Titan Black, bei mindestens 15% mehr Rohleistung + Maxwells höheren Durchsatz.
edit: ** = mal mehr, mal weniger
Wie sieht es eigentlich mit MSAA aus. Bricht 750Ti dort stärker ein als die 480?
Ht4u hat eine 480 im 750Ti Test. Da verliert die 750Ti 1% im Performance-Index von 1680*1050 auf 1920*1080 ggü der 480.
- http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index40.php
TPU zeigt im Ranking, dass es einen Abfall um je 1% ggü zb. der 660 mit steigender Auflösung gibt (900p - 1080p - 1600p).
- http://www.techpowerup.com/reviews/ASUS/GTX_750_Ti_OC/25.html
Und auch bei CB verliert die 750Ti nur 1% ggü der 660, beim Wechsel von 4x auf 8x MSAA.
- http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/
robbitop
2014-04-24, 19:11:31
nur waren die 104er dann auch immer nen shrink. Kannst diese Regel jetzt also in der Pfeife rauchen ...
Nur dass die letzten Shrinks für sich gesehen kaum was gebracht haben, außer einer Flächenreduzierung. Und diese bringt nur etwas, wenn es kosteneffektiv ist. Das ist bei 20 nm wohl dann nicht mehr der Fall. Also wird man halt etwas größer. Scheint trotzdem billiger zu sein. Also sehe ich nicht, wo man diese Regel "in der Pfeife rauchen kann".
Ein GM104 der langsamer als GK110 ist, ergibt einfach zu wenig Kaufanreiz...
Sunrise
2014-04-24, 19:49:33
GM204 muss schneller als die Ti sein, wenn auch nur minimal, andernfalls kann NV sich dieses Salamitaktik-Spielchen wie bei GK104 (und später GK110) nicht mehr erlauben. Die Endkunden interessiert es recht wenig, ob die GPU kleiner ist und ob das Teil jetzt statt 250W nur 160W verbraucht*, vor allem da bereits viele eine 780 oder 780 Ti haben werden. NV möchte ja nicht nur Neukäufer ansprechen, sondern die Leute auch dazu bewegen, zur GM204 zu greifen. Das wäre zudem Kanibalismus im eigenen Line-Up, für den es aktuell keinen Grund gibt. Und wir kennen ja NV, die werden den Teufel tun und sich jetzt plötzlich in die eigenen Margen schneiden.
Auch AMD steht aktuell noch vor einer größeren Herausforderung, denn deren Die ist bereits ziemlich groß, das Interface ziemlich breit und der Verbrauch pro mm² ist jetzt schon relativ grenzwertig. Auch da müssen deutliche Effizienzverbesserungen her, wenn man (wie AMD ja zu verstehen gab) dieses Jahr noch auf 28nm setzen wird.
Mich interessiert aktuell allerdings, warum bei GM204 da eine "2" am Anfang steht. Denn wenn GM204 jetzt doch noch auf 28nm kommt, dann kann man unsere alten Theorien eigentlich vergessen. Andernfalls hätte man einfach das GM107-Design, also die erste Generation, multipliziert und aufgebohrt und das Ding GM104 genannt.
*Ich hatte selbst überlegt, ob ich von meiner GTX580 auf eine GTX 750 Ti springe, aber warum sollte ich das tun? Hätte ich einen HTPC und es würde eng zugehen, ok, aber für einen Desktop? Wenn die GTX 750 Ti wirklich überall so schnell wäre, dann hätte ich die GTX580 verkauft und mir von dem Geld die GTX 750 Ti gegönnt. Da sie aber nicht überall so schnell ist, habe ich diesen Schritt ausgelassen, auch wenn die GTX 750 Ti sich wirklich sehr gut präsentiert.
aufkrawall
2014-04-24, 20:20:35
Du hast halt mehr VRAM. BF4 dürfte mit 1,5GB in 1080p schon mal stocken, an MSAA gar nicht zu denken.
AffenJack
2014-04-24, 20:22:47
Mich interessiert aktuell allerdings, warum bei GM204 da eine "2" am Anfang steht. Denn wenn GM204 jetzt doch noch auf 28nm kommt, dann kann man unsere alten Theorien eigentlich vergessen. Andernfalls hätte man einfach das GM107-Design, also die erste Generation, multipliziert und aufgebohrt und das Ding GM104 genannt.
DX12 Feature-Level Support und nicht nur DX11.0 wie Maxwell 1Gen. Maxwell steht ja mittlerweile auch in der Roadmap mit DX12 drin. Ich glaube da nicht, dass sie nochmal tricksen wie bei DX11.1
Dawn on Titan
2014-04-24, 20:46:35
Exakt DX12 ~780ti Performance +X unter Full-HD + 4xMSAA. TDP ~670 Niveau.
Sunrise
2014-04-24, 20:50:57
DX12 Feature-Level Support und nicht nur DX11.0 wie Maxwell 1Gen. Maxwell steht ja mittlerweile auch in der Roadmap mit DX12 drin. Ich glaube da nicht, dass sie nochmal tricksen wie bei DX11.1
Ja, das wird wohl passieren (müssen), vor allem auch um das volle Potential von GM204 auszuspielen, damit werben zu können und dann wieder GK104-Preise oder höher ansetzen zu können.
@aufkrawall:
Ja, die 1,5GB sind in der Tat nichtmehr zeitgemäß. Das merkt man mittlerweile in recht vielen Titeln, wenn man höhere Einstellungen fährt.
boxleitnerb
2014-04-24, 23:30:45
Witzig wie Maxwell von den üblichen Verdächtigen vorab schon schlechtgeredet wird statt eine ergebnisoffene Spekulation zuzulassen...
robbitop
2014-04-24, 23:41:35
Wo wird Maxwell schlechtgeredet? :|
Timbaloo
2014-04-24, 23:50:20
Sehe ich jetzt auch nicht.
Hat jemand mal (eine Person, oder eine Seite) bei der 750ti den Speicher runtergetaktet und geschaut wie sich das auf die Performance (min-fps vor allem) auswirkt? Das fände ich seeehr interessant.
boxleitnerb
2014-04-24, 23:59:28
Wo wird Maxwell schlechtgeredet? :|
Siehst du das echt nicht? Da wird gar gleich abgeblockt, wenn man es für möglich hält, dass GM104 einen Tick schneller wie GK110 sein könnte. Mit allen möglichen fadenscheinigen Begründungen. Gerade die kleinen Keplers waren mit die effizientesten, siehe Leos Zusammenstellung der jeweiligen Launchartikel. Aber was nicht sein darf, kann nicht sein, so klingt das von den drei Tenören hier :D
Hübie
2014-04-25, 00:08:47
Meinst du mich damit? :| Ich halte alles für möglich aber drauf spekulieren würde ich nicht.
boxleitnerb
2014-04-25, 00:14:57
Ne, dich nicht :)
Wobei ich deinen Ausführungen jetzt auch nicht so folgen konnte ehrlich gesagt. Dreimal GM107 ist von TDP, Die Size und Performance her in 28nm locker machbar. Die Frage ist halt, ob es dann auch gemacht wird. Das kann uns selbstverständlich keiner beantworten.
robbitop
2014-04-25, 00:16:16
Siehst du das echt nicht? Da wird gar gleich abgeblockt, wenn man es für möglich hält, dass GM104 einen Tick schneller wie GK110 sein könnte. Mit allen möglichen fadenscheinigen Begründungen. Gerade die kleinen Keplers waren mit die effizientesten, siehe Leos Zusammenstellung der jeweiligen Launchartikel. Aber was nicht sein darf, kann nicht sein, so klingt das von den drei Tenören hier :D
Wir werden ja am Ende sehen, wer Recht hat. ;) Spielt also keine Rolle, wer was spekuliert.
boxleitnerb
2014-04-25, 00:20:10
Es geht nichtmal so sehr um das Recht haben, sondern vielmehr, wie man an so eine Sache rangeht ;)
Jedenfalls erwarte ich nicht, dass man GM104 so groß macht, aber ich halte es technisch für durchaus möglich.
robbitop
2014-04-25, 00:34:35
4xx sqmm könnten für 2560 SPs schon ausreichen... ;)
Im Vergleich mit GK110 ist das gar nicht mal soo groß.
Schneller als GK110 noch auf 28nm?
robbitop
2014-04-25, 01:08:59
Schneller als GK110 noch auf 28nm?
Wo ist das Problem? GM107 hat gezeigt, das deutlich mehr Punch pro Transistor möglich ist. Hinzu kommt, dass GM104/204 den ganzen GPGPU Kram vermutlich nicht herumtragen muss (hohe FP64 Leistung etc).
Nakai
2014-04-25, 01:40:43
GM204/104:
28nm
~18SMM
4 GPCs
~2304SPs
~340mm²
256Bit
6-8MB L2-Cache
+Secret-Sauce
Sowas sollte definitiv möglich sein. GM107 ist mit seinen 148mm² gerade zu winzig. GM107 hat bereits 128Bit. Ein doppelter GM107 sollte bereits mehr als nur zweifache SP-Anzahl besitzen. Unter 350mm² sollte man definitiv einen Chip bringen können, der Titan und Hawaii um etwa 20% schlagen sollte.
Nightspider
2014-04-25, 01:44:23
Schneller als GK110 noch auf 28nm?
Natürlich, es gibt absolut nichts was dagegen spricht.
Leonidas
2014-04-25, 07:14:11
Nun die GTX 750Ti erreicht mit 48% der Bandbreite einer GTX 480, dennoch den gleichen** Speed. (86 GB/s @ 128bit SI ggü. 177GB/s @ 384bit SI)
Die spekulierte GTX 880 kommt auf 70% der Bandbreite ggü. der 780Ti / Titan Black, bei mindestens 15% mehr Rohleistung + Maxwells höheren Durchsatz.
Treffende Argumentationslage. Ergo kann mit 256Bit eventuell doch möglich sein, von 770 auf 780Ti Niveau zu kommen - sind immerhin nur +40%.
DX12 Feature-Level Support und nicht nur DX11.0 wie Maxwell 1Gen. Maxwell steht ja mittlerweile auch in der Roadmap mit DX12 drin. Ich glaube da nicht, dass sie nochmal tricksen wie bei DX11.1
Leider bezeichnet NV seine DX11-Chips aber inzwischen auch schon als "Software-Support DX12". Wenn man das in einer Roadmap auf eine einzelne Angabe verkürzt, kann da durchaus auch einmal nur "DX12" herauskommen.
Will damit nicht sagen, daß Hardware-DX12 bei GM204 nicht die wahrscheinlichste Auflösung ist. Ist aber eben noch unsicher.
Hoffen kann man natürlich vieles, aber dass ein GM204 arg viel größer als 350mm² ist doch meiner Ansicht nach recht unwahrscheinlich. Zumal es ja noch einen GK210 zu geben scheint.
Skysnake
2014-04-25, 07:56:02
Kann mir vllt nochmal einer erklären wofür man die Denver Kerne in einer GPU sinnvoll nutzen könnte?
DX12 Feature-Level Support und nicht nur DX11.0 wie Maxwell 1Gen. Maxwell steht ja mittlerweile auch in der Roadmap mit DX12 drin. Ich glaube da nicht, dass sie nochmal tricksen wie bei DX11.1
Darauf würde ich nicht wetten. Nichtmal um nen Pfenning.
Dawn on Titan
2014-04-25, 08:21:34
Hoffen kann man natürlich vieles, aber dass ein GM204 arg viel größer als 350mm² ist doch meiner Ansicht nach recht unwahrscheinlich. Zumal es ja noch einen GK210 zu geben scheint.
GK210 ?????
AnarchX
2014-04-25, 08:43:41
GK210 ?????
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=534911
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.