PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

mrck
2014-06-08, 14:30:50
...

L233
2014-06-08, 14:51:54
Richtige Infos sind bei dem Clown Mangelware die letzten Jahre.

Hm, woher weisst Du das? Ist doch alles hinter der Paywall.

Edgecrusher86
2014-06-08, 15:23:01
Werden wir sehen, ob da etwas dran ist, oder nicht. Es kann in der Tat alles mögliche bedeuten - oder nichts. ;)

Wenn GM204 erst Q1/2015 kommt, wäre es möglich, dass NV die Produktpalette wieder wie bei Kepler launchen könnte - also für den Consumerbereich GM204 als Speerspitze 2015.
"GM200" Tapeout Ende 2014/Anfang 2015 und die ersten Teslas in Q3/2015. Der Desktop TITAN Black-Nachfolger könnte dann sogar erst Q1/2016 aufschlagen.
Ich hoffe, dass es nicht so kommt, aber möglich ist alles.

Mehr als Rätselraten ist das aber eh nicht....ein 28nm GM200 erst Anfang 2016 wär eh sehr spät, aber "16nm FinFET" erwarte ich nun auch irgendwie erst ab Pascal.

E: Zumindest eines ist klar - ein GM204 in 28nm und >= 400nm² wird mit einen AMD PI - Bermuda XT(X?) in ebenfalls 28nm sowie 4xx - 5xxmm² DIE-Size nicht mithalten können,
wie dies noch mit der GTX 680 vs. HD 7970 der Fall war. Zwischen 10 bis maximal 20% oberhalb eines GK110-425/430 ist wohl zu erwarten. Es dürften aber nicht mehr als 20 SMM (2560 SPs und 160 TMUs) verbaut sein.

Ailuros
2014-06-08, 15:36:21
Ich kenne keine anderen Beispiele. Der Spinner gilt unter AMD Fanboys als glaubwürdige Göttlichkeit, dem zu vertrauen ist. Richtige Infos sind bei dem Clown Mangelware die letzten Jahre.

Frage: wuerde es nicht reichen wenn Anand als Beispiel oder sonst jemand einer gut besuchten Seite eine verschleierte Anspielung macht dass es sich wie einer Lagerfeuer uebers Netz verbreitet und diverse Forum-Diskussionen anzuendet? Anand ist kein gutes Beispiel dafuer weil er dass was er weiss und nicht sagen darf/will auch nur fuer sich behaltet (er leitet auch eine um einiges ernsthaftere Seite), er dient aber hier nur zum Beispiel.

Wenn Charlie wirklich zu allem unrecht haben wuerde, wuerde ich Euch auch recht geben. Das daemliche ist eben dass er eine hoehere Anzahl an "told you so" Faellen hat, als totale flops wo er zu 180 Grad daneben lag.

Richtige Infos fangen alle bei Maxwell an, denn er war der erste der behauptete dass Maxwell durchgehend auf 28nm hergestellt werden wird. Moment wir reden gerade ueber Maxwell....Zufall?

Ich kann Dir sogar einige der heutigen Faelle aufzaehlen wo er total falsch liegt aber keiner dieser hat etwas mit Maxwell oder sogar desktop GPUs generell zu tun (ergo OT).

Loeschzwerg
2014-06-08, 17:57:54
Lasst mal Charlie bei Seite, um den einen Satz von ihm braucht man nicht unnötig herum spekulieren, können wir auch so gut ohne ihn :D

GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM204-INT0-A1

Weitere 32 Stück vom GM204 A1.

PG401-A00 SKU0000 GM204 256BIT 128M COMPUTER GRAPHICS CARDS P NO.699-1G401-0000-000

Und eine weitere Lieferung mit einem Test Board, damit sind zumindest die 256Bit 100%ig bestätigt.

Die 128M deuten auf den Speicher hin, der, wenn 128M x 32 organisiert, auf 4Gbit Speicher hinausläuft. 512MB pro Baustein.

Edit: Würde zumindest zu den 8GB Testboards passen.

CountDoku
2014-06-13, 18:51:23
Ich verlinke mal einen Artikel von PCGH hierhin. Denke mal das passt hier rein http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-GTX-800-Serie-schneller-und-guenstiger-1125122/. Die neuen Maxwell sollen wohl leistungsstärker werden (Das ist ja klar) das besondere ist sie sollen günstiger als die aktuelle Generation werden! Wäre ne tolle Sache finde ich:)

Nakai
2014-06-13, 19:00:21
Dass GM204 kleiner als GK110 und schneller, als dieser sein wird, sollte klar sein. Bei gleicher 28nm-Fertigung sollte aber nicht viel mehr als ~20%+ dabei rauskommen.

CountDoku
2014-06-13, 19:03:59
Es geht mir darum das laut dem Artikel die Geforce GTX 880 Ti und die Geforce GTX 880 schneller und billiger als ihre Vorgänger daherkommen. Das ist nicht so selbstverständlich finde ich;)

Loeschzwerg
2014-06-13, 19:07:57
Billiger... für uns Endkunden wohl eher nicht, da rechne ich mit den gleichen Preisen wie zur Einführung des GK104 bzw. sogar leicht drüber.

Nakai
2014-06-13, 19:09:41
Es geht mir darum das laut dem Artikel die Geforce GTX 880 Ti und die Geforce GTX 880 schneller und billiger als ihre Vorgänger daherkommen. Das ist nicht so selbstverständlich finde ich;)

Ich denke nicht, dass PCGH richtige Quellen für deren Berichterstattung vorweisen kann. Ich würde derzeit nicht soviel auf irgendwelche Namensbezeichnungen geben. Um ehrlich zu sein, finde ich, dass sich PCGH weit aus dem Fenster lehnt, wenn sie sagen, dass GM204 billiger verkauft wird, als GK110. Wenn GM204 schneller ist, wieso sollte er nicht teurer werden? Vor allem, wenn der Stromverbrauch niedriger ausfällt!? AMD muss Konkurrenz liefern und anders kann ich mir diese Berichterstattung nicht erklären, alles andere macht keinen Sinn.

CountDoku
2014-06-13, 19:10:14
Ja, normal rechnet man als Endkunde nicht damit. Aber warten wir mal ab ob nVidia wirklich so tickt;) ich fänds geil. Es wird Zeit das die "richtigen" Maxwell kommen bin da schon ganz scharf drauf.

@Nakai
So würde nVidia AMD aber sowas von die Hölle heiss machen. Warten wir mal ab obs wirklich so kommt:D

Nakai
2014-06-13, 19:16:40
@Nakai
So würde nVidia AMD aber sowas von die Hölle heiss machen. Warten wir mal ab obs wirklich so kommt:D

Wieso? Dass GK110 und Hawaii Stromschleudern sind, ist doch bekannt. Was GM107 liefert ist auch bekannt.

GM204 = GK104+~60%
GM204-Leistungsaufnahme ~ GK104-Leistungsaufnahme

AMD wird sicherlich auch an der Effizienzschraube drehen, so ineffizient, wie Tahiti und Co. sind.

€: Ahja Tonga wurde auch schon angekündigt. Tahiti-Leistung bei Pitcairn-Verbrauch klingt doch gut.

CountDoku
2014-06-13, 19:19:53
Ja AMD muss jetzt liefern. Das werden die auch wissen. Ich will da mal was sehen nicht nur auf dem Papier. nVidia liefert mit der 750Ti (wo wir wieder beim Thema wären) eine beeindruckende pre-Maxwell Demonstration. Denn die 750Ti ist Maxwell V1. Das sollte man bedenken.

Nakai
2014-06-13, 19:37:02
AMD kann sich ruhig noch Zeit lassen.

Tonga kommt September.

GM204 Ende des Jahres.

Und nein GM204 wird wohl nicht mit Tonga konkurrieren, jedenfalls im Desktop nicht.

Dass GM107 so groß und so schnell geworden ist, war notwendig. Im Mobilemarkt bekommt man kaum noch etwas gebacken, da Intel und AMD mit ihren APUs den unteren Bereich ordentlich abgrasen.

CountDoku
2014-06-13, 19:40:18
Dafür grast nVidia im dedizierten Desktopmarkt ab (65 Prozent Marktanteil) und mit Cuda. Ich bin gespannt und hoffe das sich der Artikel bewahrheitet:ucoffee:

Nakai
2014-06-13, 19:46:48
Für NV wird er sich bewahrheiten, für den Endkunden womöglich nicht. ;)

Godmode
2014-06-13, 19:54:10
Wenn GM204 wirklich in 28nm daherkommt, dann könnte das wieder sowas wie die 8800 GT werden, die gabs auch spottbillig. Somit könnte man auch GK110 Käufer zum Upgrade bewegen. 28nm wird ja mittlerweile billig sein im vergleich zur Einführung. Alleine wie viele User hier aufgrund der unverschämten Preise das Upgrade rauszögern, sagt einiges über den Markt aus.

Duplex
2014-06-13, 21:03:15
Wenn GM204 wirklich in 28nm daherkommt

Ist doch keine Überraschung mehr, steht doch schon länger fest.

dann könnte das wieder sowas wie die 8800 GT werden, die gabs auch spottbillig. Somit könnte man auch GK110 Käufer zum Upgrade bewegen.
Warum sollte Nvidia die GM204 Karten günstiger als GK110 anbieten?
Das macht kein sinn, wieviel hat eine GTX680 Anfangs gekostet, hat doch damals funktoniert, merkste was...

Ich würde wegen 30% meine GK110 Karte nicht ersetzen, 1. weil die neue Karte nicht günstiger wird und 2. weil ich auf 30% verzichten kann, wegen paar FPS...

Vor 16nm kommt keine neue Karte rein, die meißten GK110 Leute werden das nicht anders sehen.

aufkrawall
2014-06-13, 22:23:17
Wegen 30% würd ich aufrüsten, auch wegen mehr Speicher und viel besserer Compute-Leistung.
Wär auch ganz froh, nicht so viele unnütze DP-Einheiten mitbezahlen zu müssen. Wenn die Karte nicht zu abartig teuer wird. ;)

Iruwen
2014-06-13, 22:39:19
Warum sollte Nvidia die GM204 Karten günstiger als GK110 anbieten?
Das macht kein sinn, wieviel hat eine GTX680 Anfangs gekostet, hat doch damals funktoniert, merkste was...

Vielleicht einfach weil NV die Notwendigkeit sieht den Markt in dieser Form aufzumischen. Wenn sie merken, dass sie Marktanteile verlieren, reduzieren sie eben minimal die Marge.

Duplex
2014-06-14, 00:12:50
Wegen 30% würd ich aufrüsten, auch wegen mehr Speicher und viel besserer Compute-Leistung.
Wär auch ganz froh, nicht so viele unnütze DP-Einheiten mitbezahlen zu müssen. Wenn die Karte nicht zu abartig teuer wird. ;)
Die aktuellen GK110 Karten haben doch genug Speicher und sind günstig, GTX780 = 395 € & GTX780 Ti = 540 €.

Vielleicht einfach weil NV die Notwendigkeit sieht den Markt in dieser Form aufzumischen. Wenn sie merken, dass sie Marktanteile verlieren, reduzieren sie eben minimal die Marge.
Dann wird der Konkurrent evtl. das gleiche unternehmen und wo stehen wir dann wieder?

Timbaloo
2014-06-14, 00:19:48
Dann wird der Konkurrent evtl. das gleiche unternehmen und wo stehen wir dann wieder?
AMD würde die dann geringere Marge wahrscheinlich mehr weh tun als NV, von daher ist das nicht abwegig. Ich glaube aber trotzdem nicht, dass es so kommt.

Duplex
2014-06-14, 00:30:20
Afaik hat Nvidia im Profi Segment über 80% Marktanteil und im Desktop Markt setzt nur jeder 3. auf AMD...

Wenn sich was im Markt verändert, dann im Mobil Segment, hier kann AMD wegen den APUs mehr Anteile gewinnen.

Iruwen
2014-06-14, 00:34:51
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=547458
Wenn sich der Trend fortgesetzt und verschärft hat könnte NV Handlungsbedarf sehen.

N0Thing
2014-06-14, 02:32:33
Es geht mir darum das laut dem Artikel die Geforce GTX 880 Ti und die Geforce GTX 880 schneller und billiger als ihre Vorgänger daherkommen. Das ist nicht so selbstverständlich finde ich;)

Fragt sich, auf welchen Chip eine Geforce 880 basiert. Sollte es ein GM204 sein, wären die Karten de facto Nachfolger von GTX 680/770 und werden sicher nicht unterhalb deren Preispunkt verkauft. Handelt es sich um den GM2X0, so kann man sicher auch davon ausgehen, daß der Einführungspreis dank teurer 20nm Fertigung (oder gar der nächsten) nicht unterhalb der aktuellen Preise einer 780ti liegt.

Leonidas
2014-06-14, 07:06:47
Ich verlinke mal einen Artikel von PCGH hierhin. Denke mal das passt hier rein http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-GTX-800-Serie-schneller-und-guenstiger-1125122/. Die neuen Maxwell sollen wohl leistungsstärker werden (Das ist ja klar) das besondere ist sie sollen günstiger als die aktuelle Generation werden! Wäre ne tolle Sache finde ich:)


PCGH verlinkt auf
http://www.expreview.com/34003.html

Expreview verlinkt auf
http://www.kdramastars.com/articles/24370/20140609/gtx-800-series-news.htm

K-Drama erwähnt SweClockers, aber bei denen finde ich nix neues zum Thema

Kann das jemand aufklären?

Cortana
2014-06-14, 11:02:29
Ich will einfach ne neue GPU. Seit ich meinen 21:9 Monitor habe, kommt meine GTX770 ziemlich ins Schwitzen.

7-8 Tflops für ca. 400 Euro, möglich ohne 20nm?

Raff
2014-06-14, 11:39:15
7 TFLOPS kriegst du schon für 400 Euro - musst nur eine R9 290X finden, die 1.250 MHz Kerntakt mitmacht. ;) Bei einer GeForce ist das etwas einfacher und schon mit 1.215 MHz erreichbar (GTX 780 Ti), aber die kosten leider etwas mehr.

MfG,
Raff

Kriton
2014-06-14, 12:09:59
Die aktuellen GK110 Karten haben doch genug Speicher und sind günstig, GTX780 = 395 € & GTX780 Ti = 540 €.

Wenn Du das günstig nennst hat Nvidia bei Dir ja Erfolg gehabt. Ich nenne das hoffnungslos überteuert.

L233
2014-06-14, 12:58:04
Meine GTX680 2GB japst bei meinem WQHD-Monitor auch schon aus dem letzten Loch. Was neues muss her und eine GTX780 zu ein zu kleines Upgrade fürs Geld.

Ich würde mir 'ne Maxwell-Karte wünschen, die so ca. 780Ti+20% leistet, 4GB Speicher hat und als OC-Version mit Custom-Kühler so max. 500€ kostet. Und am besten noch dieses Jahr.

Realistisch?

Nightspider
2014-06-14, 13:02:43
Zumindest nicht unmöglich.
Wäre sogar locker drin wenn NV dieses mal humanere Preise ansetzt.

Edgecrusher86
2014-06-14, 13:22:59
Wobei günstiger bezogen auf eine GTX 880 auch $600 oder $550 MSRP bedeuten könnte - wäre auch günstiger als die 780 Ti mit $650 damals. :freak:

Duplex
2014-06-14, 14:10:06
Wenn Du das günstig nennst hat Nvidia bei Dir ja Erfolg gehabt. Ich nenne das hoffnungslos überteuert.
AMD hat damals die Karten zu hohen Preisen ageboten (7970), Nvidia hat noch einen draufgelegt, beschwer dich bei AMD...
Außerdem haben High End Karten schon immer viel gekostet, ich weiß garnicht was du hast.

Nightspider
2014-06-14, 14:17:18
Was ist das denn für eine bescheuerte Logik?

AMD war als Erster auf dem Markt und hatte dementsprechende Preise und sogar mehr VRAM und ein besseres Featureset.
Wenn dann hätte NVidia zu einem gleichen Preispunkt in den Markt starten müssen damit AMD nachziehen muss und die Preise senkt.

Was für ein extremer Fanboy muss man sein um den Fehler des Preises auf AMD zu schieben? Gehts noch?

Iruwen
2014-06-14, 15:01:39
AMD war als Erster auf dem Markt und hatte dementsprechende Preise und sogar mehr VRAM und ein besseres Featureset.
Wenn dann hätte NVidia zu einem gleichen Preispunkt in den Markt starten müssen damit AMD nachziehen muss und die Preise senkt.

AMD hatte die bessere Hardware aber wenn NV zum gleichen Preis gelauncht hätte hätten sie die Preise senken müssen, das wirft ein sehr gutes Bild auf AMD :D

aufkrawall
2014-06-14, 15:06:48
Die aktuellen GK110 Karten haben doch genug Speicher

Es gibt nicht "genug Speicher".

Außerdem will ich einfach nen Gamer-Maxwell. Das Ding ist rund, hat für Enduser offenbar keinerlei Schwächen.
Gibt weder bei Texturfilterung, Tessellation oder Compute was zu beanstanden. Es läuft einfach schnell, und zwar alles.

AMD hatte die bessere Hardware
Sie waren 10% langsamer, bei der Perf/W unterlegen und die 3GB waren zu dem Zeitpunkt noch relativ nutzlos.
Bei dem Featureset konnte NV zudem mit dem Boost punkten.

Kriton
2014-06-14, 15:07:44
AMD hat damals die Karten zu hohen Preisen ageboten (7970), Nvidia hat noch einen draufgelegt, beschwer dich bei AMD...
Außerdem haben High End Karten schon immer viel gekostet, ich weiß garnicht was du hast.

AMD kam mit einer neuen Fertigung deutlich vor Nvidia. Dass das tatsächlich kostet, anstatt Performancekarten im Highend-Segment überteuert zu verkaufen und die richtigen Highends später noch teurer zu machen, sollte klar sein.

Aufgrund der DP waren die 7950/7970 auch transistorenmäßig ganz andere Kaliber (kostenmäßig für AMD) als Nvidias 600er Karten.

Ailuros hat sich seinerzeit mehrfach sehr deutlich über das Kostenverhältnis von Nvidiakarten zu ihren Verkaufspreisen geäußert.

Kriton
2014-06-14, 15:10:21
Sie waren 10% langsamer, bei der Perf/W unterlegen und die 3GB waren zu dem Zeitpunkt noch relativ nutzlos.
Bei dem Featureset konnte NV zudem mit dem Boost punkten.

Die 3 GB sind jetzt aber von Vorteil (nicht jeder kauft jedes Jahr eine neue Karte) und AMD hat den besseren DX-Level (und wenn Nvidia das nicht boykottieren würde, würde der auch flächendeckender genutzt).

Und der Boost ist Mist - bei beiden.

aufkrawall
2014-06-14, 15:14:43
Die 3 GB sind jetzt aber von Vorteil (nicht jeder kauft jedes Jahr eine neue Karte) und AMD hat den besseren DX-Level (und wenn Nvidia das nicht boykottieren würde, würde der auch flächendeckender genutzt).

Bedank dich lieber bei MS für erratisches Festlegen von Featureleveln.
Außerdem können bis auf eine Ausnahme alle Features genutzt werden. Hat außer Dice aber auch noch niemand gemacht. Liegt wohl eher an der Win8-Verbreitung.


Und der Boost ist Mist - bei beiden.
Der Boost ist überhaupt kein Mist, so lange man Kontrolle über den Stromverbrauch und die Spannung hat.
Hilft wunderbar, den Stromverbrauch ohne spürbaren Effekt nicht explodieren zu lassen.

Auerdem kam der Boost in der PR gut an.

fondness
2014-06-14, 15:42:33
.. oder Compute was zu beanstanden...


Die INT-Leistung ist noch immer verbesserungswürdig...

Nightspider
2014-06-14, 15:45:25
Und die Videoaufzeichnung könnte weiter verbessert werden. Gerade in Bezug auf Leistungsverlust, Qualität und H.265 Komprimierung.

aufkrawall
2014-06-14, 15:49:54
Die INT-Leistung ist noch immer verbesserungswürdig...
Hast du einen Benchmark?

Duplex
2014-06-14, 17:12:53
Es gibt nicht "genug Speicher".
Für die meisten Gamer, FullHD @4xMSAA sind 3GB Speicher genug, scharfes Bild, schöne Kanten & hohe FPS zählen, alles andere ist für die 95% nicht relevant.

Außerdem will ich einfach nen Gamer-Maxwell. Das Ding ist rund, hat für Enduser offenbar keinerlei Schwächen.
Gibt weder bei Texturfilterung, Tessellation oder Compute was zu beanstanden. Es läuft einfach schnell, und zwar alles.
Warte doch erstmal bis Maxwell kommt, nicht zu früh freuen, wenn GK110 nach deiner Meinung nach schwach ist, dann wird GM204 nicht viel besser werden.
GK110 ist auch im Gaming Bereich sehr stark, es läuft doch ziemlich alles schnell.

Timbaloo
2014-06-14, 17:14:50
Redet sich da einer seine 780 schön? :D

Duplex
2014-06-14, 17:20:10
Da gibt es nichts schönzureden, zu behaupten GM204 würde im Gaming Bereich deutlich besser als GK110 abschneiden ist einfach nicht korrekt.
GM204 wird 15-25% schneller als GK110b und wird zu ähnlichen Preisen angeboten.

"Außerdem will ich einfach nen Gamer-Maxwell. Das Ding ist rund, Es läuft einfach schnell, und zwar alles."
Sonst gehts euch noch gut :eek:

Wegen solchen Kommentaren sollte man am besten hier seinen Account löschen lassen, unfassbar!

Nightspider
2014-06-14, 17:28:35
Selbst wenn GM204 erstmal nur 15-30% schneller wird als eine 780ti wäre das schon ein gutes Stück zumal der Chip ja kleiner sein soll als GK110 und somit günstiger zu fertigen und zu verkaufen wäre.

Enthusiasten könnten sich dann ein GM204 SLI leisten wobei selbst eine Karte schon genug Leistung für die meisten Spiele unter UHD haben würde.
So eine Karte für ~499,- Euro wäre genial und hätte sicherlich auch noch etwas besseres OC-Potential als GK110.

Nakai
2014-06-14, 17:45:59
Da gibt es nichts schönzureden, zu behaupten GM204 würde im Gaming Bereich deutlich besser als GK110 abschneiden ist einfach nicht korrekt.
GM204 wird 15-25% schneller als GK110b und wird zu ähnlichen Preisen angeboten.


Sonst gehts euch noch gut :eek:

Sieht gut aus.

Ich habe es zwar schon des öfteren gepostet, aber ich tus es nochmal:

16~20 SMMs
2048~2560 SPs
256Bit SI
4 MB L2-Cache
~350mm²

Ich denke, es werden 18 SMMs. Man wird von der Endleistung effektiv etwa 20% vor GK110 liegen. Dank dem niedrigerem Verbrauch kann man bestimmt etwas am Takt schrauben. Der Cache wird bei einem 256Bit SI auch helfen, bei höheren Auflösungen vor GK110 zu liegen.

Ja AMD muss jetzt liefern. Das werden die auch wissen. Ich will da mal was sehen nicht nur auf dem Papier. nVidia liefert mit der 750Ti (wo wir wieder beim Thema wären) eine beeindruckende pre-Maxwell Demonstration. Denn die 750Ti ist Maxwell V1. Das sollte man bedenken.

Also mehr Effizienz/Leistung gibt es nicht.
An was man etwas drehen kann ist der Verbrauch und die Packdichte, aber ich glaube kaum, dass man da noch viel getan hat. Wir sehen wohl eine etwas höhere Packdichte und dementsprechend etwas niedrigeren Takt.

Realverbrauch bei GM204 wird bei etwa 200W liegen, eventuell etwas mehr, je nachdem, welches Leistungsziel man anstrebt.

Bzgl AMD: AMD wird sicherlich irgendwas liefern. Aber ein direkter GM204-Konkurrent kommt wohl erstmal nicht, was nicht heißt, dass bestimmte Konkurrenzprodukte nicht erscheinen. Tonga wird wohl von der Größe näher an GM107 sein, als an GM204. Fiji ist eher GM200-Konkurrent, reinher von der Diesize.

Es ist sowieso sonderbar, wieso soviele aufeinmal mit dem Maxwell-Hype anfangen. Maxwell ist stark, aber seit GM107, weiß man eigentlich was alles auf uns zukommt, also Überraschungen gibt es nicht.

PedantOne aka OBR meinte, dass Maxwell vor 2015 kommt. Er bezieht sich wohl eindeutig auf GM204/206. GM204 Ende des Jahres. GM206 H1 2015.
GM200 kommt wohl auch in 28nm in 2015.

aufkrawall
2014-06-14, 17:50:53
Wegen solchen Kommentaren sollte man am besten hier seinen Account löschen lassen, unfassbar!
Heute Morgen aus dem Bett gefallen?
Komm mal wieder runter...

Nightspider
2014-06-14, 17:57:37
Wobei dein Post so geschrieben ist, als wenn du schon einen GM204 im Rechner hättest und genau wüsstest, wie die Spezifikationen sind. ;)

aufkrawall
2014-06-14, 18:00:55
Wenn man mit Hirn aus liest, muss das wohl zwangsläufig passieren, ja. :(

Raff
2014-06-14, 18:07:13
Der Boost ist überhaupt kein Mist, so lange man Kontrolle über den Stromverbrauch und die Spannung hat.
Hilft wunderbar, den Stromverbrauch ohne spürbaren Effekt nicht explodieren zu lassen.

Auerdem kam der Boost in der PR gut an.

Der Boost ist IMO reiner "up to"-Unsinn zum Zwecke großer Zahlen, der richtigen Spielern gar nichts bringt. Richtige Spieler spielen nämlich länger als 5 Minuten. Und ist die Grafikkarte erst mal richtig warm, geht der Takt in den Keller. Was hier noch Kosmetik ist, macht Tester, die präzise Werte erzielen möchten, wahnsinnig. Bei CPUs kann man den Unfug wenigstens im BIOS/ÜFI abschalten, warum nicht auch bei GPUs? Wie gut, dass es diverse Mod-BIOSe gibt. :)

MfG,
Raff

aufkrawall
2014-06-14, 18:09:16
Der Takt geht überhaupt nicht in den Keller, wenn das PT richtig eingestellt ist.
Es läuft dann vielleicht ~3% langsamer und bleibt dabei wesentlich leiser...

Nightspider
2014-06-14, 18:21:17
Wenn man mit Hirn aus liest, muss das wohl zwangsläufig passieren, ja. :(

Hey, hey, hey. Wie soll man es denn sonst verstehen?

Und schreibst davon, das du einen Gamer-Maxwell willst und schreibst wie rund und perfekt das Ding ist. :confused:

aufkrawall
2014-06-14, 18:31:59
So unbekannt ist die Architektur seit GM107 auch nicht mehr.
Und es gibt ebend nicht selten Fälle, in denen besagter Chip doppelt so effizient bei Compute ist wie GK110. Stichwort Mining. Dass das mit großen Chips nicht schlechter wird (so lange nicht zu viele Transistoren für Server-Features draufgehen), sollte klar sein.

Ailuros
2014-06-14, 18:51:02
So unbekannt ist die Architektur seit GM107 auch nicht mehr.
Und es gibt ebend nicht selten Fälle, in denen besagter Chip doppelt so effizient bei Compute ist wie GK110. Stichwort Mining. Dass das mit großen Chips nicht schlechter wird (so lange nicht zu viele Transistoren für Server-Features draufgehen), sollte klar sein.

Nun ja es gibt noch ein paar kleine Faktoren die den Stromverbrauch doch noch etwas mehr erhoehen koennte als die Leistung skaliert und sie werden wohl auch diesmal fuer den TDP den 3.3V rail nicht "vergessen" koennen mitzuberechnen.

Es ist eben nicht: ich hab so und so viel Leistung mit GM107 bei 65 *hust* 70W TDP, Nx mal so viel Leistung = Nx mal so viel Stromverbrauch.

Sonst da ich offensichtlich etwas verpasst habe, was genau erwatest Du nochmal vom GM204?

aufkrawall
2014-06-14, 18:55:37
Sonst da ich offensichtlich etwas verpasst habe, was genau erwatest Du nochmal vom GM204?
Du hast nichts verpasst, Duplex hat bei der Verteidigung seiner Lieblings-GPU nur etwas dick aufgetragen. Ich habe nie gesagt, dass GM204 großartig schneller als GK110 bei Spielen wird.
Bei diesem Anwendungsfall gehe ich von ~20% aus. NextGen-Spiele, die sehr stark auf Compute setzen, könnten stärker profitieren. Besonders GK104 dürfte dann im Vergleich recht schnell ziemlich alt aussehen.

Ailuros
2014-06-14, 18:57:26
GM204 wird 15-25% schneller als GK110b [b]und wird zu ähnlichen Preisen angeboten.


[devil's advocate mode]http://www.guru3d.com/news_story/nvidia_geforce_gtx_880_series_to_be_cheaper.html

The new Maxwell cards will offer quite a bit more performance (well doh), but the interesting rumor here is that the cards would become much cheaper opposed to the pricing levels you currently see with the 780 series.

Ich nix wissen.... :weg:

Du hast nichts verpasst, Dural hat bei der Verteidigung seiner Lieblings-GPU nur etwas dick aufgetragen. Ich habe nie gesagt, dass GM204 großartig schneller als GK110 bei Spielen wird.
Bei diesem Anwendungsfall gehe ich von ~20% aus. NextGen-Spiele, die sehr stark auf Compute setzen, könnten stärker profitieren. Besonders GK104 dürfte dann im Vergleich recht schnell ziemlich alt aussehen.

Schau Dir mal meinen vorigen Link an und denk an folgende These (nicht Theorie): wieso GM204 zu stark die Beine ausstrecken lassen wenn GM200 sowieso nicht die Chance hat sich allzu stark vom GK110b zu distanzieren. Der Hintergrund spricht von +40% fuer den top dog und die eher optimistischen wie ich schaetzen um die +50%.

Ein relativ niedriger Preis (stets angeblich - nichts garantiert natuerlich) fuer den GM204 schlaegt mir persoenlich erstmal keine SKU vor fuer den ersten Schub der um sooooooo viel schneller sein koennte als eine 780ti.

Persoenlich haette ich ueberhaupt nichts gegen eine SKU die in etwa 780 Leistung bei ca. 300 Kroeten auf den Ladentisch bringt und dazu auch mit einem sehr konservativem TDP.

aufkrawall
2014-06-14, 20:54:11
Der GM210 wäre doch nicht nur durch mehr Server-Features, sondern auch höhere DP:SP-Ratio, für Spiele leistungsmäßig im Vergleich stärker eingeschränkt als der 204.
Eventuell sparen sie sich den auf, um später gegen AMD nachzulegen?

fondness
2014-06-14, 20:57:54
GM204 = 780Ti +~10%, Preis keine Ahnung.

Cortana
2014-06-14, 21:05:20
Wann rechnet ihr denn mit Maxwell GPUs? Für 20nm reicht es dieses Jahr ja leider nicht mehr. AMD hat z.B. schon bestätigt, dass sie erst 2015 20nm GPUs anbieten werden.

Konami
2014-06-14, 21:30:57
Wahrscheinlich dieses Jahr, aber wahrscheinlich in 28 nm.

Nightspider
2014-06-14, 21:32:46
Ich hoffe mal September/Oktober.

Raff
2014-06-14, 21:40:50
Wenn das Tape-Out erst im April war, wird das wohl der früheste Termin. Ich rechne eher mit November (vorausgesetzt, Nvidia braucht keinen Spin).

MfG,
Raff

Cortana
2014-06-14, 22:01:34
Wieso dann nicht gleich warten und Februar rum Maxwell in 20nm rausbringen? Halte ich persönlich für wahrscheinlicher.

Raff
2014-06-14, 22:08:58
Weil Maxwell in 20 nm nicht bis dahin fertig ist, würde ich sagen (zumindest keine gleichwertig schnelle GPU). AMD wird vermutlich vorpreschen.

MfG,
Raff

L233
2014-06-14, 23:34:29
Hieß es nicht, dass 20nm gleich ganz übersprungen wird?

-/\-CruNcher-/\-
2014-06-15, 01:27:07
Es gibt nicht "genug Speicher".

Außerdem will ich einfach nen Gamer-Maxwell. Das Ding ist rund, hat für Enduser offenbar keinerlei Schwächen.
Gibt weder bei Texturfilterung, Tessellation oder Compute was zu beanstanden. Es läuft einfach schnell, und zwar alles.


Sie waren 10% langsamer, bei der Perf/W unterlegen und die 3GB waren zu dem Zeitpunkt noch relativ nutzlos.
Bei dem Featureset konnte NV zudem mit dem Boost punkten.

Mit von Grund auf auf Mantle und DX12 optimierten Low Level Engines wird sich Nvidia was einfallen müssen, Gameworks ist nicht weit Genug in die Zukunft gedacht diesmal ;)

Und die abhängigkeit vom Nvidia Ökosystem ist schon langsam am Bröckeln zumal AMD Nvidia mit den Preisen doch schon extrem unter Druck setzt momentan.

aufkrawall
2014-06-15, 01:31:47
Das hat nach unserem Wissensstand jetzt erstmal überhaupt nichts mit Maxwell zu tun, wenn es denn so käme.

Pentium M
2014-06-15, 04:01:20
Hieß es nicht, dass 20nm gleich ganz übersprungen wird?

Wer Wie Wo hat das gesagt .AMD war in den letzten Jahren immer Vorreiter bei GF,

TMSC(Ausser Intel). Worauf sollen sie warten 20 nm 3D Transistoren 2016 Vielleicht?

robbitop
2014-06-15, 08:51:59
Heute Morgen aus dem Bett gefallen?
Komm mal wieder runter...
Seine Reaktion war übertrieben. Aber du hast da schon ziemlichen Nonsens geschrieben. Keiner außer NV weiß, wie GM204 wie und wo performen wird.

Kriton
2014-06-15, 11:22:37
Bedank dich lieber bei MS für erratisches Festlegen von Featureleveln.

Außerdem können bis auf eine Ausnahme alle Features genutzt werden. Hat außer Dice aber auch noch niemand gemacht. Liegt wohl eher an der Win8-Verbreitung.


Natürlich wäre es mir lieber MS würde da klarere Schnitte machen, aber das ändert nichts daran, dass Nvidia den Fortschritt blockiert indem sie es nicht nutzen und damit die Verbreitung verhindern (erzähl mir nicht, dass liegt an Win 8, wer DX 11 nutzt kann auch DX 11.2 nutzen - als Entwickler).


Außerdem können bis auf eine Ausnahme alle Features genutzt werden. Hat außer Dice aber auch noch niemand gemacht. Liegt wohl eher an der Win8-Verbreitung.

Oder es ist eine Frage des Aufwands wenn ich nicht einfach den unterstützten Featurelevel abfragen kann und stattdessen auf die separate Karte abfragen muss.


Der Boost ist überhaupt kein Mist, so lange man Kontrolle über den Stromverbrauch und die Spannung hat.
Hilft wunderbar, den Stromverbrauch ohne spürbaren Effekt nicht explodieren zu lassen.

Das Thema hatten wir schon in der Vergangenheit. Der Boost bringt Dir was, wenn die Karte eh nicht ausgelastet ist, sonst würde sie ja nicht boosten (können).


Auerdem kam der Boost in der PR gut an.

DAS ist natürlich ein Argument... :rolleyes:

aufkrawall
2014-06-15, 11:47:43
Oder es ist eine Frage des Aufwands wenn ich nicht einfach den unterstützten Featurelevel abfragen kann und stattdessen auf die separate Karte abfragen muss.

Laut Coda ist der Aufwand gering.


Das Thema hatten wir schon in der Vergangenheit. Der Boost bringt Dir was, wenn die Karte eh nicht ausgelastet ist, sonst würde sie ja nicht boosten (können).

:facepalm:
Der Boost kann durchs PowerTarget verhindern, dass bei bestimmten Szenarien der Stromverbrauch explodiert. Das ist insbesondere bei nicht so mächtigen Kühlerkonstruktionen sehr hilfreich.
Mach mal Scrypt-N Mining mit OC an.

Seine Reaktion war übertrieben. Aber du hast da schon ziemlichen Nonsens geschrieben. Keiner außer NV weiß, wie GM204 wie und wo performen wird.
Ihr ignoriert, dass ich mich recht stark auf Compute bezogen hab und da lässt der GM107 natürlich bereits Rückschlüsse zu.
So lässt die Architektur bei madVR DirectCompute Error Diffusion Kepler ziemlich alt aussehen.

Dawn on Titan
2014-06-15, 11:54:59
GM204 muss nur die GK104 (und älter) Besitzer zum Aufrüsten animieren. Ich sage mal 780ti Leistung +/- 5% - TDP < 200W, Preis < 400 Euro und das Ding wird sich rasend verkaufen.

Mandalore
2014-06-15, 14:33:22
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Export-Listen-Maxwell-GM204-256-Bit-Speicherschnittstelle-GM200-Engineering-Sample-1125352/

Knuddelbearli
2014-06-15, 15:04:03
Hat irgendwer wirklich erwartet das GM204 mit 512Bit kommt?

Wenn ja was den das für Träumer?

Timbaloo
2014-06-15, 15:20:21
Vor einer ganzen Weile waren 384 und 320Bit noch im Rahmen der Spekulation. Aber die 256Bit heute als News zu verkaufen...

Knuddelbearli
2014-06-15, 15:36:47
naja 4GB/8GB standen doch schon lange fest war ja auf den export papieren sichtbar

da geht nur* 128 256 oder 512, 256 das einzige realistische

*ungleiche Bestückung ist immer Mist und das hat wohl auch NV inzwischen gelernt

Konami
2014-06-15, 15:49:03
Wird die Speicherbandbreite nicht langsam zu einem ernsthaften Flaschenhals? Die FLOPs steigen und steigen, aber gleichzeitig stagniert die Bandbreite bei 7 Gbps @ 256 bit?

Timbaloo
2014-06-15, 15:51:46
Deutlich größere Caches kompensieren Bandbreite (zumindest in vielen Fällen).

Hübie
2014-06-15, 15:59:37
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Export-Listen-Maxwell-GM204-256-Bit-Speicherschnittstelle-GM200-Engineering-Sample-1125352/

Auch hier noch mal: value per unit = ~34.000 INR = 420 Euro.

gnomi
2014-06-15, 16:06:18
GM204 muss nur die GK104 (und älter) Besitzer zum Aufrüsten animieren. Ich sage mal 780ti Leistung +/- 5% - TDP < 200W, Preis < 400 Euro und das Ding wird sich rasend verkaufen.

Etwas mehr als GTX 780 TI Niveau sollte schon bei rumkommen.
Kühlung & Stromverbrauch sind auch nicht gerade unwichtig.
Dazu DX 12 & 4 GB Ram.
400 Euro halte ich für zu optimistisch.
Ich gehe mal von 500-550 (GTX 880) & 400-450 (GTX 870, welche etwas später folgt) aus.
Und ich glaube auch, dass die Karten zu dem Preis prima laufen.

Nightspider
2014-06-15, 17:18:50
PCGH verwurstet einfach mal wieder alte Spekulationen zu neuen News und behauptet Dinge die nie jemand wirklich in Erwägung gezogen hat.

Gerade nach der GTX 750 mit winzigem Speicherinterface war klar das GM204 nur 256 Bit SI besitzen wird.

Mit aktuellem GDDR5 Speicher und viel besserer Speicher- bzw. Cachearchitektur kann man auch locker GTX780ti + 15% Leistung versorgen.

Dazu gleich mal eine Frage: Wenn man die GPU übertaktet, werden da auch die Caches mit übertaktet? Wenn ja würde man ja zwangsläufig mit übertakteter GPU nicht linear mehr VRAM Takt benötigen. Oder mit anderen Worten: GM204 könnte selbst bei UHD mit extremen Settings selten ins Bandbreitenlimit kommen.

Bin sowieso mal gespannt wie die neuen GPUs von AMD und NV in UHD skalieren werden.

Skysnake
2014-06-15, 17:23:37
Natürlich werden die Caches mit übertracket. Wenn könnte höstens der L2 mit einem Vielfachen des RAM Taktes laufen, aber ich würde das nicht erwarten.

Die Caches ziehen halt einfach linear mit.

Wird die Speicherbandbreite nicht langsam zu einem ernsthaften Flaschenhals? Die FLOPs steigen und steigen, aber gleichzeitig stagniert die Bandbreite bei 7 Gbps @ 256 bit?
So "langsam"? :freak:

Schon seit anbeginn der Zeit hat man im Prinzip immer! zu wenig RAM-Bandbreite. Deswegen gibt es Caches ja ÜBERHAUPT!

Damit versucht man das Problem des zu langsamen RAMs zu fixen, was meist sehr gut funktioniert. Aber wenn nicht, hat man halt die Arschkarte.

Wie sich das in Zukunft mit den neuen Konsolen entwickelt, die ja durch das APU-Konzept einiges direkt über die onchip Interconnects auch machen können, wird sich zeigen müssen.

Screemer
2014-06-15, 17:35:03
@hübi: hab ich doch im pcgh schon im 5ten post festgestellt ;)

Nightspider
2014-06-15, 17:41:48
Caches sind ja auch das Zauberwort für die Effizienz allgemein.
Irgendein Ingenieur von NV/AMD/Intel (weiß nicht mehr) hat ja mal gesagt, wie viel Watt man einsparen kann durch ein paar Caches hier und da mehr bzw. durch einfache Register.
Das war eine enorme Menge.

Selbst wenn 20nm keine großen Sprünge bei der Effizienz bringt lassen sich durch den Flächenvorteil viel mehr Register und Cache-Speicher verbauen was die Effizienz am Ende wieder merklich verbessert.

Deswegen wird Maxwell nicht nur Effizienz sondern gleichenzeitig Bandbreiteneffizient. Schließlich müssen viel weniger Datenpakete erst durch GPU, PCB zum VRAM geschickt und später ausgelesen werden. Da wird einiges an Weg und dadurch an Energie gespart, was natürlich gleichzeitig auch die Geschwindigkeit erhöht.

Als Laie würde ich mal behaupten das AMD und NV sich früher mehr auf die Entwicklung des VRAMs und der Fertigungsprozesse vertraut haben was Effizienz und Bandbreite angeht. Deswegen konnten sie früher mehr Fläche in Transistoren verballern. In den letzten Jahren mussten eben alle lernen mit Speicher die Leistung, Effizienz und Bandbreite zu erhöhen.
Man sieht ja auch was bei Intel die CPUs damals für Sprünge gemacht haben mit Intels guter Cache-Hierarchie.

Wobei diese eben auch intelligent im Design untergebracht werden wollen und genug zu optimieren gibts immer bei GPUs. Nvidia hat da aber noch einen merklichen Vorsprung zu AMD und Intel.

Skysnake
2014-06-15, 19:01:41
Nur das GPUs im Gegensatz zu CPUs im Allgemeinen Streaming-Architekturen sind.

Sprich der Datenreuse ist eher gering, bzw die Datensets eben viel zu groß, als das man die Caches so groß machen könnte.

Je mehr sich die Aufgaben in Richtung komplexer Compute Aufgaben mit relativ hohem Datenreuse dreht, desto eher bringen Caches etwas.

nen richtigen Sprung wird aber eh erst kommen, wenn der Speicher aufs Package wandert. Dann passt nämlich verdammt viel quasi in den LLC ;)

Hübie
2014-06-15, 19:04:17
nen richtigen Sprung wird aber eh erst kommen, wenn der Speicher aufs Package wandert. Dann passt nämlich verdammt viel quasi in den LLC ;)

THIS! :up: Ich rechne aber erst 2016 mit ersten stacked RAM Geschichten und vielleicht 1-2 Jahre später dann onpackage-RAM.

robbitop
2014-06-15, 19:13:27
Tja dann ist das Bandbreiten-"Problem" gelöst und schon hat man ein neues. Shrinken wird immer schwieriger und teuer -> man kann dann die Rohleistung nur immer langsamer und schwieriger steigern. :(

Kriton
2014-06-15, 19:58:07
:facepalm:
Der Boost kann durchs PowerTarget verhindern, dass bei bestimmten Szenarien der Stromverbrauch explodiert. Das ist insbesondere bei nicht so mächtigen Kühlerkonstruktionen sehr hilfreich.
Mach mal Scrypt-N Mining mit OC an.

Deinen facepalm kannst Du Dir sparen. Wenn Du Argumente hast bringe sie, oder lass es.
Der Boost ist nicht das Powertarget. Das begrenzt nur den Boost, ebenso wie das Temperaturtarget. Beides sind aber letztlich nur Schutzfunktionen welche auch ohne Boost funktionieren würden (dort aber unter normalen Umständen nicht gebraucht würden).
Bei Deinem Scrypt-N Mining wird der Boost vermutlich gar nicht greifen (wegen des Power- und Temperaturtargets) - das zeigt gerade die Sinnlosigkeit dessen.

Es bleibt dabei (was schon früher immer wieder betont wurde): Der Boost wirkt vor allem dann wenn man keine volle Auslastung der Karte hat, bzw. diese (noch) nicht aufgeheizt ist. D.h. vor allem dann, wenn ich ihn also gar nicht brauche.

Kriton
2014-06-15, 19:59:57
GM204 muss nur die GK104 (und älter) Besitzer zum Aufrüsten animieren. Ich sage mal 780ti Leistung +/- 5% - TDP < 200W, Preis < 400 Euro und das Ding wird sich rasend verkaufen.

300,- € mit leisem Kühler, vernünftigem DX-Level und ist gekauft.

aufkrawall
2014-06-15, 20:07:33
Es bleibt dabei (was schon früher immer wieder betont wurde): Der Boost wirkt vor allem dann wenn man keine volle Auslastung der Karte hat, bzw. diese (noch) nicht aufgeheizt ist. D.h. vor allem dann, wenn ich ihn also gar nicht brauche.
Willst du mir jetzt erzählen, du machst den ganzen Wind um popelige ~25Mhz?
Ohne Eingreifen des PTs oder TTs, dreht sich am maximalen Boost nämlich so gut wie nichts und das TT gabs nichtmal, als die 680 rauskam...

Kriton
2014-06-15, 20:10:19
Die 25 Mhz beziehen sich auf welche Karte?
Wir reden von einem System, was inzwischen alle Karten haben. Da ein einzelnes, genehmes, Beispiel raussuchen ist nicht repräsentativ - oder wie man auch einfach sagen könnte: Cherrypicking.

Und auch noch einmal: Ich rede nicht nur von Nvidia - bei AMD ist das genauso Mist.

aufkrawall
2014-06-15, 20:20:33
Ich wird dir morgen antworten, heute hab ich keine Zeit mehr.

Knuddelbearli
2014-06-15, 20:25:58
da wir in einem Nerd Forum sind bezieht er sich vermute ich maa auf den Top Dog.
Also 780, 780TI und Titan Black aber eben nur wenn man mit vorheizen und Gehäuse arbeitete sonst sind es schnell mal 100-150MHz also 10-15%

AffenJack
2014-06-15, 21:01:57
Es bleibt dabei (was schon früher immer wieder betont wurde): Der Boost wirkt vor allem dann wenn man keine volle Auslastung der Karte hat, bzw. diese (noch) nicht aufgeheizt ist. D.h. vor allem dann, wenn ich ihn also gar nicht brauche.

Der Boost ist ne coole Sache, wenn man ihn richtig zu nutzen weiß. Schön Framelimiter an, damit er nicht sinnlos läuft und heizt und wenn dann ne Spielszene mit hoher Auslastung kommt hat man vollen Boost für kurze Zeit. In der Regel dauern fordernde Szenen bei Shootern oder so eh nur ne sehr kurze Zeit und da bin ich froh über die kleine Geschwindigkeitserhöhung.

Leonidas
2014-06-16, 09:58:06
Ich würde es mal aus diesem Blickwinkel sehen:

AMD und NV sind in den letzten Jahren, ganz besonders aber bis 2010, immer dem neuesten Fertigungsverfahren hintergerannt - einfach, weil es jedes Jahr ein neues gab (früher nahm man ja auch die Half-Nodes mit). Da bliebt dann keine unendliche Zeit zur Designoptimierung. Heuer nun ist diese Zeit da - man will was neues bringen, hat dafür Zeit, aber keine neue Fertigung. Also wendet man sich Sachen zu, die früher liegengeblieben sind, wie eben die Effizienzsteigerung.

Für 1-2 Generationen ist da sicherlich viel machbar, danach werden die Effizienzfortschritte wieder auf ein normales Niveau fallen.

occ-kh@Mirko
2014-06-16, 11:46:28
Der Boost ist nicht das Powertarget. Das begrenzt nur den Boost, ebenso wie das Temperaturtarget. Beides sind aber letztlich nur Schutzfunktionen welche auch ohne Boost funktionieren würden (dort aber unter normalen Umständen nicht gebraucht würden).
Bei Deinem Scrypt-N Mining wird der Boost vermutlich gar nicht greifen (wegen des Power- und Temperaturtargets) - das zeigt gerade die Sinnlosigkeit dessen.

Es bleibt dabei (was schon früher immer wieder betont wurde): Der Boost wirkt vor allem dann wenn man keine volle Auslastung der Karte hat, bzw. diese (noch) nicht aufgeheizt ist. D.h. vor allem dann, wenn ich ihn also gar nicht brauche.
Boost ist im Prinzip nichts anderes als eine Herstellerseitige Übertaktung der Chips die durch genannte Schutzmechanismen begrenzt wird, dass heißt wenn Luft ist, kann der Chip einfach mehr leisten.

Die Schutzmechanismen wie z.B. PT etc. erlauben eine großzügigere Begrenzung der Leistungsaufnahme, eben bis der festgelegte Boosttakt aufgrund der vorgesehenen Parametervorgaben erreicht wird (Temp, TDP, Lüfterdrehzahl etc.) und dann bei zu starker Belastung (aus welchem Grund auch immer) wieder auf den Basistakt fällt.

Mit höherem Kühlungsaufwand (siehe Cutsomdesigns) kann man auch die Boosttakraten voll ausfahren und halten. Es liegt also etwas an einem selbst. Die Herstellereigenen Designs gehen hier einen Mittelweg von Leistungsaufnahme, Tempverhalten und Lautstärke. Da heisst nicht, dass das Design an sich nicht doch in der Lage wären den Boosttakt auch dauerhaft zu halten. Einfach mal die Lüfterdrehzahl manuell erhöhen.

Seit doch froh, dass euch die Hersteller diesen Spielraum lassen, sie könnten den Basistakt auch als höchstmöglichen Takt eingrenzen und damit hat man dann mehr gewonnen? Kaum...ich sehe es als Dreingabe, die es dazu gibt weil die Hardware dies eben leisten kann.

Natürlich geht das Ganze mit Erhöhung der VCore einher, dass man dies nicht endlos betreiben kann, und es von vielen Parametervorgaben und Designeigenschaften abhängt, dürfte klar sein.

N0Thing
2014-06-16, 14:12:06
Hieß es nicht, dass 20nm gleich ganz übersprungen wird?

Wer Wie Wo hat das gesagt .AMD war in den letzten Jahren immer Vorreiter bei GF,

TMSC(Ausser Intel). Worauf sollen sie warten 20 nm 3D Transistoren 2016 Vielleicht?

Es gab und gibt Spekulationen darüber, daß 20nmSoC bei TSMC von AMD und Nvidia übersprungen werden könnte, weil die Kosten pro chip gegenüber 28nm nicht sinken, dafür aber die Entwicklungskosten steigen. Dazu sollen die Verbesserungen durch 20nmSoC recht bescheiden ausfallen und der 20nm FinFet Prozess (aka 16nm) 12 bis 18 Monate später schon bereit stehen. GF hat afaik den nächsten Prozess selbst gestrichen und adaptiert Samsungs Entwicklung für einen Prozess mit FinFet-Transistoren.

Bisher sind nur Tape-outs für neue Chips im 28nm Prozess bekannt geworden (GM204 & GM206).

aufkrawall
2014-06-16, 14:58:54
Die 25 Mhz beziehen sich auf welche Karte?

Auf jede. Ab 71°C bzw. ab Boost 2.0 wohl nur noch bei über 81°C, wird eine Takt- und Spannungsstufe des Boosts reduziert. Zwei Booststufen sind 26Mhz.
Das ist der eigentliche Boost bzw. dessen Temperaturverhalten.


Wir reden von einem System, was inzwischen alle Karten haben. Da ein einzelnes, genehmes, Beispiel raussuchen ist nicht repräsentativ - oder wie man auch einfach sagen könnte: Cherrypicking.

Vielleicht solltest du mit den Unterstellungen erstmal abwarten, bis die Unklarheiten bei dir beseitigt sind?


Und auch noch einmal: Ich rede nicht nur von Nvidia - bei AMD ist das genauso Mist.
Nein, bei AMD ist das anders. Da kann Powertune quasi unendlich nach unten den Takt reduzieren. Bei NV geht es nie unter den Baseclock. Wo wir wieder beim eigentlichen Boost wären: Die Stufe(n) überm Baseclock.

da wir in einem Nerd Forum sind bezieht er sich vermute ich maa auf den Top Dog.
Also 780, 780TI und Titan Black aber eben nur wenn man mit vorheizen und Gehäuse arbeitete sonst sind es schnell mal 100-150MHz also 10-15%
Und das liegt am TT. Dreht man das hoch, wird bis 82°C, ohne Erreichen des PTs, nichts auf wundersame Weise gedrosselt.

Er ist einfach eine Kopplung des Takts an Auslastung (niedriger = geringerer Takt), Stromverbrauch (PT) und Temperatur (TT und einmalige Takt- und Spannungsreduktion), wobei PT & TT, entsprechend hochgedreht, optional sind.
So einfach ist das.

Beispiel wegen Nützlichkeit: Einige Spiele mit SGSSAA oder GPGPU verbrauchen Strom wie die Hölle, und mit Leckströmen durch steigende Temps sogar noch mehr. Das ist ein Teufelskreis, wenn die Wärmeabfuhr nicht richtig gut ist (wie etwa bei den Vapor-X Radeons oder anderen dicken Brocken).
Die Limitierung durchs PT, die geringfügig Taktraten und Spannung senkt, bricht aus diesem Teufelskreis aus. Die Karte taktet maximal ~4% langsamer, aber der Stromverbrauch ist gedeckelt. Und gedeckelt heißt 130% TDP statt 160%. Immer noch unsinnig?

Kriton
2014-06-16, 16:51:11
Nein, bei AMD ist das anders. Da kann Powertune quasi unendlich nach unten den Takt reduzieren. Bei NV geht es nie unter den Baseclock. Wo wir wieder beim eigentlich Boost wären: Die Stufe(n) überm Baseclock.


Mir ist klar, dass der Boost bei AMD anders funktioniert. Es ging mir in meiner Aussage darum, dass ich den Boost bereits konzeptionell nicht mag, und das ist herstellerunabhängig. HT4U hat das Problem beschrieben:

An diesem Punkt stellt sich somit natürlich die Frage nach dem Sinn des Boost-Verhaltens für Spieler. Gerade in besonders fordernden Szenen eines Spiels, wo die GPU-Auslastung eben das Maximum erreicht, braucht der Spieler höhere Frameraten. Dort bricht der GPU-Boost dann allerdings schnell weg, wohingegen er in weniger fordernden Bereichen für die GPU mehr Frames per Second zu liefern im Stande ist. Grundsätzlich müssen wir darum an dieser Stelle die Empfehlung aussprechen, mittels eines separaten Tools wie EVGA XPrecision oder MSI Afterburner das Power Target auf 132 Prozent zu setzen, damit der Boost in der Praxis auch deutlich häufiger seinen maximalen Takt erreichen kann. Das erkauft man sich dann aber durchaus mit einer etwas höheren Lüfterdrehzahl.

http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php


Die Limitierung durchs PT, die geringfügig Taktraten und Spannung senkt, bricht aus diesem Teufelskreis aus. Die Karte taktet maximal ~4% langsamer, aber der Stromverbrauch ist gedeckelt. Und gedeckelt heißt 130% TDP statt 160%. Immer noch unsinnig?

Auch wenn das Richtung Knuddelbearli ging: Das PT bzw. TT mögen ihre Berechtigung haben, aber der Boost ist, auch wenn diese ihne natürlich beeinflussen, erst einmal davon unabhängig.

Das Verhalten des Boost ist halt ein wenig unberechenbar, das schränkt die objektive Vergleichsmöglichkeit und damit einen informierten Kauf ein. Ganz zu schweigen davon, dass der Boost ja auch keine garantierte Zahl ist. Siehe z.B. hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10242836#post10242836

Vgl. auch den Test der Titan Black:

In Zwischensequenzen kann sich die Titan Black immer wieder einmal von den Strapazen kurz erholen und man erblickt höhere Taktstufen. Doch in der Praxis nützt dies dem Spieler kaum, da die Leistung kurz nach dem Levelstart dann wieder verpufft.

Man muss ohne Ausschweife festhalten, dass ohne händische Eingriffe über Tools die Basistaktrate von 889 MHz ein sehr häufiger Begleiter ist – geschuldet ist das dem Temperaturlimit. Eliminiert man dieses, erblickt man Temperaturen von bis zu 89 °C und meist einen Boost im Bereich von 980 MHz. Dafür steigert sich dann aber eben die Geräuschkulisse massiv.

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index14.php

Das Fazit:

Fazit


Wo fängt man bei der GeForce GTX Titan Black an und wo hört man auf? Starten wir doch vielleicht mit dem Punkt, dass dies keine Grafikkarte darstellt, welche sich an Interessenten richtet, die nicht selbst Einstellungen verändern möchten. Denn eines hat der heutige Test wieder einmal wunderbar gezeigt: Die werkseitige Auslieferung ist bedingt durch GPU Boost 2.0 reine Augenwischerei!

Die gesetzten Beschränkungen bei der Leistungsaufnahme und bei der Temperatur werden viel zu schnell erreicht, und binnen von Minuten im Spiel fällt ein Takt von 1.058 MHz auf den Basistakt von 889 MHz zurück. Der Vorteil dieser Beschränkungen ist natürlich die moderate Geräuschkulisse unter Last. Der Lüfter der GeForce GTX Titan Black wird dann hörbar, aber nicht richtig unangenehm laut.

Löst man die Drosseln mittels Tools, erhält man die schnellste Single-GPU-Grafikkarte der Welt, erkauft sich aber natürlich Temperaturen im Bereich von knapp 90 °C, und der Lüfter lärmt mit fast 35 dB(A) vor sich hin. Die Leistungsaufnahme ist mit 265 Watt bei dieser gebotenen Performance noch immer als gut zu bezeichnen.

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index42.php

Du wirst mir jetzt sagen, dass das ein Vorteil ist, weil man ja einstellen kann wie man will (vorgeblich). Ich sehe erst einmal ein Produkt, das im Auslieferungszustand nicht hält was es verspricht, und dass ich unter Eingehung von Kompromissen von anderen Kompromissen "befreien" kann.

Letztlich ist der Boost einfach nur Marketing um höhere Zahlen nennen zu können. Dass das (sehr situationsbezogen) auch mal Vorteile haben kann bestreite ich nicht. Aber das wiegt IMHO die Nachteile nicht auf.

aufkrawall
2014-06-16, 20:46:16
Maxwell billiger, weil man Kepler vorher noch teuer abverkauft?
http://www.guru3d.com/news_story/graphics_card_shipments_to_drop_30_40_percent_in_2q14.html

Zum Boost morgen mehr.

uweskw
2014-06-16, 20:47:44
Tschuldigung wenn ich euren Streit kurz störe;:freak:
hätte da aber mal eine Frage:
Zitat Main:

spekulativ: DirectX 12 in Hardware


Sind die DirectX 12 Spezifikationen denn schon fest?
Wo sind Unterschiede zu Mantle?
Nen Link langt mir schon.

Greetz
U.S.

CountDoku
2014-06-16, 21:04:46
Maxwell billiger, weil man Kepler vorher noch teuer abverkauft?
http://www.guru3d.com/news_story/graphics_card_shipments_to_drop_30_40_percent_in_2q14.html

Zum Boost morgen mehr.

Wo liest du das da raus? Ich verstehe das so das die Grakas auf Halde liegen und die Lieferung reduziert wird um den Preis stabil zu halten. Ich sehe da nichts über Maxwell. Oder verstehe ich da was falsch? Ich lese da wie gesagt garnichts über Maxwell raus. Und es liegt daran das Bitcoins im Preis gefallen sind daher liegen die Grakas auf Halde.

Ailuros
2014-06-16, 21:10:56
Maxwell billiger, weil man Kepler vorher noch teuer abverkauft?
http://www.guru3d.com/news_story/graphics_card_shipments_to_drop_30_40_percent_in_2q14.html

Zum Boost morgen mehr.

Nein. Ich befürchte dass es keinen weiteren Maxwell innerhalb des Jahres geben wird.

aufkrawall
2014-06-16, 21:13:33
Weil von AMD auch nichts kommt?

CountDoku
2014-06-16, 21:15:35
Du hast oben geschrieben das diese News was mit Maxwell zu tun hat und ich schrieb das die Verkäufe zurückgegangen sind und nun weniger ausgeliefert wird um den Preis stabil zu halten. Also wo ist jetzt die Maxwell News? Ich wills nur wissen. Wenn du mehr weisst lass es nur raus;)

Ailuros
2014-06-16, 21:19:18
Weil von AMD auch nichts kommt?

Kein IHV brütet unter normalen Umständen auf fertigen Produkten.

CountDoku
2014-06-16, 21:27:35
Also laut dieser News wird es erstmal KEIN Abverkauf geben die Preise werden gleich bleiben. Diese News hat erstmal garnichts hier im Maxwell Fred zu suchen. Eher negativ denn beide AMD und nVidia werden erstmal schön weitermelken.

Unicous
2014-06-16, 21:31:25
Diese "News" ist vor Allem ein Abklatsch von einer Digitimes "News" (außer sie haben die gleiche Quelle die das gern in Umlauf bringen wollte weil ihm die Aktienpreise nicht gefallen) und daher eher fragwürdig. Guru3D hat eh meist keine tollen Quellen.;)

http://www.digitimes.com/news/a20140616PD205.html

aufkrawall
2014-06-16, 21:34:09
Schon mies, ohne Quellenangabe. Sonst hätt ich auch das Original verlinkt. :freak:
Muss auch mal Aktien kaufen.

CountDoku
2014-06-16, 21:35:00
Beachtlich finde ich die Art und Weise wie die beiden handeln. Anstatt sinnigerweise die Preise senken wird die Produktion zurückgefahren. Bin mal gespannt ob beide nicht schön auf die Fresse fallen. Trotzdem schade hab wirklich auf ne Maxwell News gehofft...

Unicous
2014-06-16, 21:44:31
Na ein Glück nimmt CountDoku die "News" für voll und verteilt gleich die Schelte für dieses angeblich sträfliche Verhalten.:rolleyes:

Timbaloo
2014-06-16, 21:53:59
Kein IHV brütet unter normalen Umständen auf fertigen Produkten.
Also doch ein Spin nötig? Lass dir doch nicht alles aus der Nase ziehen :P

Nakai
2014-06-17, 01:57:23
Die W9100 schmeißt AMD einem aber Hinterher. Klar, die Gewinnspanne ist riesig, aber dennoch! Hawaii und Titan sehen gegen GM204 ziemlich mager aus. AMD kann Hawaii nur noch bis Ende des Jahres im Gamingmarkt eine Alternative sein. Mit GM204 wird in jeglicher Hinsicht alles deklassiert, jedenfalls bei PErf/Watt. GM200 sehe ich Mitte 2015 eintreffen, aber vorerst im HPC-Markt. Näheres zu GM200 lässt sich eh erst mit GM204 halbwegs einschätzen. Wie Maxwell wohl nach oben skalieren wird und, wie bedeutsam das verbesserte Cache-System werden wird.

Loeschzwerg
2014-06-17, 07:25:49
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Export-Listen-Maxwell-GM204-256-Bit-Speicherschnittstelle-GM200-Engineering-Sample-1125352/

Bezüglich einer GM200 Tapeout Meldung wäre ich mal vorsichtig ;) Das ist lediglich Testmaterial / ein Test-PCB.

Hier wurde ganz klar KEIN GM200 Chip versendet.

Ein Loadboard dient dazu Chips/ICs mit speziellem Test-Equipment zu verbinden => Signalqualität, Frequenzen usw...

Weitere Beispiele für Loadboards:
24-May-2014 85437099 GK104 FT#5 EVA2454 ( LOAD BOARD) ( PPCB BOARD)( FOR AUTOMATIC TEST EQUIPMENT) United States Banglore Air Cargo NOS 1 1,282,183 1,282,183
12-Jun-2014 90309090 GK110 CP-FTR LB #8 EVA2478 / FOR TEST EQUIPMENT United States Banglore Air Cargo NOS 1 1,322,395 1,322,395

Damit erklären sich die Stückzahl und der Preis der "GM200" Lieferung ;)

Skysnake
2014-06-17, 08:10:41
Die bereiten wohl die Validierung vor. Da können wir also noch gut und gerne 6+x Monate warten, bis etwas in den Regalen der Händler zu finden sein wird.

@Nakai:
Es ist echt immer wieder erstaunlich, wie hier über Chips Aussagen gemacht werden, als ob man Sie schon selbst in Händen gehalten hätte. Es sollte doch eigentlich inzwischen endlich mal klar geworden sein, das es durchaus gefährlich ist, von kleinen Chips auf große zu extrapolieren!

Heutzutage wird optimiert wos nur geht. Vor allem, wenn man schon die zweite Gen auf einem Node hat. Man muss es schlicht machen, weil man sonst kein Land sieht. Große Chips machen es einem aber schwerer zu optimieren, weil viele Sachen halt einfach nicht linear mitskalieren. Ob das jetzt die Verteilung der Clock ist, oder die Caches, die eben auch nicht linear skalieren bzgl. Komplexität, also Leistung vs. Verbrauch&Fläche, spielt erstmal keine Rolle. Es wird einfach schwieriger.

Und gerade clock sollte man nicht vernachlässigen. Mal ein kleiner Denkanstoß:

The power consumed by the clock tree is meaningful ... it’s on the order of 30% of the total power consumed y a chip! (http://www.cyclos-semi.com/pdfs/time_to_change_the_clocks.pdf)

Nur mal soviel zur clock, und ich denke es sollte klar sein, das man auf nem kleinen Chip die clock viel einfacher verteilt bekommt, als auf nem riesen chip.

Loeschzwerg
2014-06-17, 08:22:01
Die bereiten wohl die Validierung vor. Da können wir also noch gut und gerne 6+x Monate warten, bis etwas in den Regalen der Händler zu finden sein wird.


Jap, H1 2015, wenn es gut läuft.

Bin gespannt wann Zauba als Informationskanal dicht gemacht wird bzw. ob wir hier überhaupt GM200 Chiplieferungen sehen werden.

Dawn on Titan
2014-06-17, 08:48:28
Könnte auch noch Q4 werden. Wir haben erst Juni.

Loeschzwerg
2014-06-17, 08:57:47
GM204 möglich, GM200 sehr sehr unwahrscheinlich.

GM200 => Man müsste bereits jetzt funktionierende Chips haben und es darf kein Respin mehr nötig werden.

Ich sehe da keinen GM200 für 2014.

Ailuros
2014-06-17, 09:36:34
Also doch ein Spin nötig? Lass dir doch nicht alles aus der Nase ziehen :P

Das daemliche ist eben dass es weder ja noch nein ist im gegebenen Fall sondern eine merkwuerdige Mischung an Faktoren. Ich hab vor Seiten nicht aus reinem Zufall Denver erwaehnt. Sagen wir es mal so dass wenn sie diesen Tegra auch noch ganz abvoegeln koennen sie die gesamte Sparte dann auch gleich dicht machen. Sie muessen anstaendige A15/K1 Volumen fuer Xiaomi fuer den naechsten Monat parat haben und nach allen Indizien ist der Denver/K1 im naechsten Google Referenz-Geraet. So und jetzt erzaehl mir was, wo und wieso genau Prioritaet haben muss. Von AMD kommt anscheinends nichts mehr besonderes dieses Jahr als eine GM107 Antwort.

Könnte auch noch Q4 werden. Wir haben erst Juni.

6 Monate vom finalem tape out bis zum start der Massenproduktion. 6+6 = Dezember 2014 und ausser Du meinst einen Paperlaunch mit wahrer Verfuegbarkeit ab Mitte Januar 2015 in kleinen Mengen kann einfach nichts mehr dieses Jahr daraus werden. Steht uebrigens auch nirgends dass GM200 selbst in Q1 2015 fuer desktop erscheinen wird.

robbitop
2014-06-17, 10:16:30
Hawaii und Titan sehen gegen GM204 ziemlich mager aus. AMD kann Hawaii nur noch bis Ende des Jahres im Gamingmarkt eine Alternative sein. Mit GM204 wird in jeglicher Hinsicht alles deklassiert, jedenfalls bei PErf/Watt.
Du weißt doch bisher überhaupt nicht, wie GM204 aussehen wird. Auf welcher Grundlage basiert denn diese Aussage?
Wenigstens ein "ich vermute, dass..." solltest du bei solchen Aussagen schon bringen.

StefanV
2014-06-17, 10:28:24
Hawaii und Titan sehen gegen GM204 ziemlich mager aus.
Warum?


AMD kann Hawaii nur noch bis Ende des Jahres im Gamingmarkt eine Alternative sein. Mit GM204 wird in jeglicher Hinsicht alles deklassiert, jedenfalls bei PErf/Watt.
Wie kommst du darauf? Belege??

Unicous
2014-06-17, 10:40:22
Verstehe jetzt auch nicht wie die nicht existenten Produkte(/Chips) schon in den Klee gelobt werden und mit den aktuellen Produkten der Konkurrenz verglichen wird.
So wie es aussieht, könnte Tonga GM107 in nichts nachstehen was Effizienz angeht und es ist mutmaßlich ein deutlich leistungsfähigerer Chip.

HOT
2014-06-17, 11:26:31
Niemand weiss wie Tonga aussieht und was er leistet. Niemand weiss, wie sich das Maxwell-Designs in großen Strukturen auswirkt und wie effizient Maxwell in großen Designs ist. Diese ganzen Performancespekulationen sind ziemlich unsinnig. Kann ja auch sein, dass Tonga und GM204 fast gleich sind... der einzige Anhaltspunkt ist, dass beide um die 2000 Shader haben müssen und ein 256Bit Speicherinterface haben, das wars. Da werden dann irgendwelche Mondzahlen reininterpretiert, das ist einfach nur lächerlich.

Dawn on Titan
2014-06-17, 11:46:45
GM200 ist für mich noch lange nicht auf dem Schirm. Ich dachte an GM204.

HOT
2014-06-17, 11:57:08
GM200 hat jetzt erst sein Tapeout, also kann man glücklich sein, wenn man September 2015 eine Karte in der Hand hält. Ich würd sogar eher Winter sagen. Die großen Chips brauchen meist eher 1 1/2 Jahre Reifezeit. GM204 wird eh nix vor 2015. Und der Name "GTX880" ist sowieso verbrannt, weil NV diese Bezeichnungen schön in Notebooks mit GK1xx verheizt. GM204 wird ein GTX970 oder es gibt ein neues Namensschema. Meiner Ansicht nach ist GK210 ein "GTX980".

Ailuros
2014-06-17, 12:03:11
GM200 hat jetzt erst sein Tapeout, also kann man glücklich sein, wenn man September 2015 eine Karte in der Hand hält.

Nochmal im besten Fall sind es 6 Monate vom tape out bis zum Anfang der Massenproduktion. Es gibt noch nicht mal fertige GM200 chips, von etwas wie eine GPU mal ganz zu schweigen.

Ich würd sogar eher Winter sagen. Die großen Chips brauchen meist eher 1 1/2 Jahre Reifezeit.

Ja sie werden neben den Weinfaessern zum reifen gelagert :rolleyes:

GM204 wird eh nix vor 2015. Und der Name "GTX880" ist sowieso verbrannt, weil NV diese Bezeichnungen schön in Notebooks mit GK1xx verheizt. GM204 wird ein GTX970 oder es gibt ein neues Namensschema. Meiner Ansicht nach ist GK210 ein "GTX980".

Nicht dass Du insgesamt nicht recht hast, aber das Volumen an falschen Daten dass hier herumfliegt ist fast nicht mehr zu ertragen. Was sollen die ganzen falschen und dazu irrefuehrenden Maeander?

Mit aller Wahrscheinlichkeit wird es keinen weiteren Maxwell innerhalb 2014 noch geben und von AMD scheint auch nichts sehenwerteres als ein GM107-level chip zu kommen. Der Rest ist nur dekorativer Ueberfluss.

HOT
2014-06-17, 12:21:04
[...]
Ja sie werden neben den Weinfaessern zum reifen gelagert :rolleyes:

Das war ja auch totaaaaal wörtlich und vor allem ernst gemeint. Die Chiphersteller legen die gebackenen Chips dann in grooooße Lagerhallen....

Nicht dass Du insgesamt nicht recht hast, aber das Volumen an falschen Daten dass hier herumfliegt ist fast nicht mehr zu ertragen. Was sollen die ganzen falschen und dazu irrefuehrenden Maeander?

Das sollte eigentlich nur zeigen, dass alles anders sein wird, als es im Moment zurechtgesponnen wird. Ich wollte da keine absolute Wahrheit mit definieren.
[...]

Unicous
2014-06-17, 13:28:56
Das war ja auch totaaaaal wörtlich und vor allem ernst gemeint. Die Chiphersteller legen die gebackenen Chips dann in grooooße Lagerhallen....

Das sollte eigentlich nur zeigen, dass alles anders sein wird, als es im Moment zurechtgesponnen wird. Ich wollte da keine absolute Wahrheit mit definieren.

In gekühlte Lagerhallen natürlich, denn die Waffeln, eh Wafer waren ja beim Zuschneiden auch noch heiß.

Ailuros
2014-06-17, 13:57:37
In gekühlte Lagerhallen natürlich, denn die Waffeln, eh Wafer waren ja beim Zuschneiden auch noch heiß.

*schuettet heisse Schokolade ueber Unicous und steckt ihn in die Tiefkuehltruhe* :weg:

Iruwen
2014-06-17, 14:15:14
http://i.imgur.com/n6p25XX.jpg

Unicous
2014-06-17, 14:53:18
Die Vorstellung eines schokaldenüberzogenen Unicous macht euch offensichtlich ganz wuschig.

http://smilie-land.de/t/m-p/ostern/ostern0020.gif

OBrian
2014-06-17, 16:19:17
geil, es gibt wirklich für jeden Scheiß den passenden Smilie *lol*

Undertaker
2014-06-17, 17:48:57
Hatten wir das schon?

http://www.computerbase.de/2014-06/nvidia-geforce-gtx-880-und-870-mit-maxwell/

GM204 also noch dieses Jahr, Verkauf als GTX 800 Serie.

Nightspider
2014-06-17, 18:00:03
Steht ja mehr oder weniger seit bald einem halben Jahr fest. :)

Undertaker
2014-06-17, 18:29:47
Mancher hatte ja beides noch angezweifelt. ;)

Mandalore
2014-06-17, 19:12:46
Mancher hatte ja beides noch angezweifelt. ;)


Die ganzen Pros zweifelten;D. Auch der GM200 wird sich nicht derart verspäten wie manche hier behaupten bis Winter 15/16...

Loeschzwerg
2014-06-17, 19:27:01
Keine Sau zweifelt am GM204 für 2014 wenn in der Rev A1 schon alles passt ;) Das kann dir halt nur keiner vorhersagen und ich wage auch zu behaupten dass es selbst NV noch nicht zu 100% sagen kann.

GM200 wird es sicher H1 2015 funktionierendes Silizium geben, aber ob wir dann schon Consumer Products sehen werden steht wieder auf einem anderen Blatt. NV will sicher erst den GM204 ordentlich melken wenn von der Konkurrenz kein Druck kommt ;)

Thunder99
2014-06-17, 19:29:24
Die spekulieren auch nur rum. Es.ist aber logisch und wahrscheinlich das der GM204 der neue TopDog sein wird, wie damals der GK104 als "Nachfolger" aka GTX680 für die GTX580

Interessant wird nur sein das wann ;). Vor oder nach dem Weihnachtsgeschäft

Ailuros
2014-06-17, 20:27:15
geil, es gibt wirklich für jeden Scheiß den passenden Smilie *lol*

LOL :D

Genauso wie es fuer jeden Scheiss der behauptet wird irgend ein Flittchen im Netz geben wird der dieses als gesichert abschreiben wird, worauf dann andere verlinken und noch sicherer sind dass es sich um eine Tatsache handelt.

Wie Sweclockers aus Herstellerkreisen erfuhr, sollen die neuen Grafikkartenserien im vierten Quartal vorgestellt werden; die Monate Oktober oder November gelten als wahrscheinlich.

Fuer den start der Massenproduktion ja wenn alles zu 100% nach Plan laeuft und es keine metal spin Notwendigkeit geben sollte. Nur Loeschzwerg hat den Nagel auf den Kopf getroffen denn selbst NV ist sich noch nicht sicher.

prinz_valium
2014-06-17, 22:39:48
puhh gm200 soll angeblich auch noch in 28nm kommen. das hätte ich dann doch nicht gedacht.

also 20nm erst 2016?

occ-kh@Mirko
2014-06-17, 22:48:40
GM204 wahrscheinlich, falls er dieses Jahr erscheint, beim GM200 ist es definitiv nicht klar. Bordpartner hatten behauptet die 20nm wären für die Chipgröße noch nicht bereit. Von Nvidia stammt das aber nicht.

Kriton
2014-06-18, 09:03:52
Aber müsste Nvidia nicht langsam wissen welchen Prozess sie nehmen?
Ein anderer Prozess erfordert doch wieder Anpassungen am Design?!

Skysnake
2014-06-18, 09:32:58
Natürlich wissen die welchen Prozess Sie nehmen. Mir wäre nicht bekannt, das 20nm ein einfacher shrink von 28nm ist, wo man die Designs einfach nur skalieren kann.

Das gabs früher durchaus, das man fast alles einfach x% runter skalieren konnte. Aber heute wäre mir das nicht mehr bekannt.

Ailuros
2014-06-18, 09:32:58
GM204/206 und 200 sind hoechstwahrscheinlich alle auf 28nm.

HOT
2014-06-18, 09:54:14
20nm wird man sicher bei Tegra noch sehen.

Hübie
2014-06-18, 10:28:58
GM204/206 und 200 sind hoechstwahrscheinlich alle auf 28nm.

So langsam glaube ich auch nicht mehr an 20 nm in dieser Generation. Zwei (!) IHVs meinten es ist finanziell nicht lohnenswert. Deutet vielleicht also auch darauf hin dass man es versuchte und auf massive Probleme stieß. Gilt möglicherweise dann auch für das komplette lineup.
Eines steht aber fest: Die 1000-Dollar-Sparte soll mit jeder Gen wieder neu besetzt werden :eek:

Skysnake
2014-06-18, 10:35:40
Wer will schon Most, wenn er Champanier gekostet hat? ;)

Ailuros
2014-06-18, 10:39:46
So langsam glaube ich auch nicht mehr an 20 nm in dieser Generation. Zwei (!) IHVs meinten es ist finanziell nicht lohnenswert. Deutet vielleicht also auch darauf hin dass man es versuchte und auf massive Probleme stieß. Gilt möglicherweise dann auch für das komplette lineup.
Eines steht aber fest: Die 1000-Dollar-Sparte soll mit jeder Gen wieder neu besetzt werden :eek:

Wenn's keinen Strom spart wieso auch? Was wirklich im Hintergrund vorgelaufen ist erfahren wir sowieso um einiges spaeter; spaetestens beim ausrollen von 16FF werden wir ein besseres Bild zur heutigen Realitaet haben.

prinz_valium
2014-06-18, 12:05:33
GM204/206 und 200 sind hoechstwahrscheinlich alle auf 28nm.

was bedeutet das für konsolen shrinks,
die chips sind ja in der größenordnung von gm204 (zumindest in 28nm)
bei 20 würde man dann wohl unter 300mm landen?


ich dachte eigentlich an slim versionen mit die shrink ende 2015 zum black friday und weihnachtsgeschäft. realistisch? oder sollten 20nm chips in der größe zu der zeit noch zu teuer für konsolen sein?

Thunder99
2014-06-18, 12:08:00
Dem Kunden kann es egal sein. Der IHV muss halt seine Anforderungen nun auf andere Parameter setzen. Bleibt auf jeden Fall spannend wie sie es lösen

Ailuros
2014-06-18, 12:35:54
was bedeutet das für konsolen shrinks,
die chips sind ja in der größenordnung von gm204 (zumindest in 28nm)
bei 20 würde man dann wohl unter 300mm landen?


ich dachte eigentlich an slim versionen mit die shrink ende 2015 zum black friday und weihnachtsgeschäft. realistisch? oder sollten 20nm chips in der größe zu der zeit noch zu teuer für konsolen sein?

Es gibt dedizierte threads fuer Konsolen; weder NV noch Maxwell hat irgend etwas damit zu tun.

-/\-CruNcher-/\-
2014-06-18, 12:41:38
Nochmal im besten Fall sind es 6 Monate vom tape out bis zum Anfang der Massenproduktion. Es gibt noch nicht mal fertige GM200 chips, von etwas wie eine GPU mal ganz zu schweigen.



Ja sie werden neben den Weinfaessern zum reifen gelagert :rolleyes:



Nicht dass Du insgesamt nicht recht hast, aber das Volumen an falschen Daten dass hier herumfliegt ist fast nicht mehr zu ertragen. Was sollen die ganzen falschen und dazu irrefuehrenden Maeander?

Mit aller Wahrscheinlichkeit wird es keinen weiteren Maxwell innerhalb 2014 noch geben und von AMD scheint auch nichts sehenwerteres als ein GM107-level chip zu kommen. Der Rest ist nur dekorativer Ueberfluss.

Jep die nächste Karte kommt Q1 vor Februar denke mal Anfang Januar wird sie vorgestellt, wenn Nvidia schlau ist was ich laut aussagen von Petersen damals annehme wird sie nicht mehr als 300€ Kosten.
Dennoch AMD ist schon mitten im nächsten Release Zyklus und die Effizienz Verbesserungen werden sie auch demnächst vorzeigen.

Duplex
2014-06-18, 12:49:16
GM204/206 und 200 sind hoechstwahrscheinlich alle auf 28nm.
Wenn GM200 in 28nm nur 40-50% schneller als GK110b ist, dann kann man sich die ganze GM204 Diskussion sparen, auf die 10-20% mehr Leistung als eine GTX78x kann man doch pfeifen.
Wer bereits eine GK110 Karte hat, der sollte erst frühestens bei 16nm eine neue Karte kaufen, das heißt vor 2016 gibt es nichts mehr spannendes...

Ailuros
2014-06-18, 12:56:25
Wenn GM200 in 28nm nur 40-50% schneller als GK110b ist, dann kann man sich die ganze GM204 Diskussion sparen, auf die 10-20% mehr Leistung als eine GTX78x kann man doch pfeifen.
Wer bereits eine GK110 Karte hat, der sollte erst frühestens bei 16nm eine neue Karte kaufen, das heißt vor 2016 gibt es nichts mehr spannendes...

Ich glaube so langsam nicht mehr an die These dass 204 ueberhaupt schneller sein wird als eine 780Ti.

Rente
2014-06-18, 12:58:50
Ich glaube so langsam nicht mehr an die These dass 204 ueberhaupt schneller sein wird als eine 780Ti.
Soll GM204 dann einfach nur GTX760 bis 780 (ohne Ti/Titan) ersetzen? Erscheint mir doch recht unwahrscheinlich, allerdings scheint AMD ja ebenfalls in naher Zukunft nichts zu bringen.

ndrs
2014-06-18, 13:11:15
Soll GM204 dann einfach nur GTX760 bis 780 (ohne Ti/Titan) ersetzen?
Er soll wohl eher 780 inkl. TI ersetzen. Gleiche Leistung bei weniger Fertigungskosten und Stromverbrauch.

Ailuros
2014-06-18, 13:11:43
Soll GM204 dann einfach nur GTX760 bis 780 (ohne Ti/Titan) ersetzen? Erscheint mir doch recht unwahrscheinlich, allerdings scheint AMD ja ebenfalls in naher Zukunft nichts zu bringen.

Um das zu beantworten muesste man NV's genaue Plaene von Q4 14' bis Mitte 15' schon wissen. Die Gedankenfolge lautet im gegebenen Fall: angenommen rein theoretisch der zeitliche Abstand zwischen einer 204 und 200 desktop Veroeffentlichung ist klein, dann wuerde ich auch GM200 salvage parts mitberechnet den GM204 nicht so hoch anschlagen wollen wie bisher erwartet.

Anders Du hast in dem Fall:

780Ti Ersatz: GM200
780 Ersatz: GM200 salvage part

770 Ersatz: GM204
760 Ersatz: GM204 salvage part

Wenn jetzt NV natuerlich GM200 zuerst nur fuer HPC benutzen sollte, dann werden sie wohl eine ganz andere Masche benutzen.

Timbaloo
2014-06-18, 13:47:46
Wenn jetzt NV natuerlich GM200 zuerst nur fuer HPC benutzen sollte, dann werden sie wohl eine ganz andere Masche benutzen.
Dafür spricht dieses Mal aber doch nicht so viel. Bei GK110 war die Situation um 28nm doch recht angespannt, also vermutlich schlechte Ausbeute und allgemein geringe Kapazitäten, beides sollte heute bei 28nm kein Problem mehr darstellen (ausser NV macht irgendwelche Stunts mit der Packdichte). Auch gab es zu Zeiten von GK110 ein paar prestigeträchtige Projekte die man beliefern musste.

Imho: Wenn NV GM200 wieder deutlich später (nach HPC-Produkten) als Consumer-Produkt liefert, dann weil sie Blut geleckt haben und den Hals nicht vollbekommen können.

Ailuros
2014-06-18, 14:01:00
Fuer HPC ist nur die Frage wie lange sie noch mit ihren ~1.4TFLOPs DP einer K40 dort noch durchhalten koennen.

Dawn on Titan
2014-06-18, 14:07:38
Um das zu beantworten muesste man NV's genaue Plaene von Q4 14' bis Mitte 15' schon wissen. Die Gedankenfolge lautet im gegebenen Fall: angenommen rein theoretisch der zeitliche Abstand zwischen einer 204 und 200 desktop Veroeffentlichung ist klein, dann wuerde ich auch GM200 salvage parts mitberechnet den GM204 nicht so hoch anschlagen wollen wie bisher erwartet.

Anders Du hast in dem Fall:

780Ti Ersatz: GM200
780 Ersatz: GM200 salvage part

770 Ersatz: GM204
760 Ersatz: GM204 salvage part

Wenn jetzt NV natuerlich GM200 zuerst nur fuer HPC benutzen sollte, dann werden sie wohl eine ganz andere Masche benutzen.

Es ist klar, dass GM204 nur temporär Topdog sein wird. Trotzdem muss sie in dieser Position attraktiv sein. Ich erwarte DX12 + 780ti +/- 15% für die Topversion.

Das ist zwar etwas knapp für GM200 Salvage, aber im Zweifel wird man lieber den kleineren Chip verkaufen und GM200 teuer und in anderen Segmenten platzieren.

HOT
2014-06-18, 15:07:18
Wie wärs mit:
GM107 = 750 (TI) Ersatz
GM206 = 760 (TI) Ersatz
GM204 = 770/780 Ersatz
GK210 = 780TI + etwas mehr Leistung (GHz-Edition quasi)

Mit GM200 kann man dann ja auf ein neues Namensschema springen, der ersetzt ja wie bei Hawaii nur High-End.

Hübie
2014-06-18, 15:27:26
Ich kann mich nur wiederholen:

Ich sage mal nach wie vor dass vorerst nicht die 780 Ti der Maßstab sein sollte ;)

Man darf auch nicht ausser acht lassen dass Kepler doch schon ein ziemlich großer Wurf ist/war. Ailuros bringts aber auf den Punkt dass wir erst später die gegenwärtige Realität betrachten können.
Soviel mir bekannt ist konnte nVidia noch keinen fetten Maxwell-Deal abschließen was irgendwie ein Implizit für abwesende Entgültigkeit ist...

Mandalore
2014-06-18, 15:39:21
Naja, durch 4K und der raschen Weiterentwicklung hängt die GPU-Leistung schon arg hinterher, da muss man sich echt was Neues einfallen lassen, denn mit 40-50% mehr Leistung wird man die wenigsten bei UHD bewegen können was Neues zu kaufen (für 5-10 FPS mehr 1000€?! Net mal die Extremos würden sowas machen...)

Hübie
2014-06-18, 15:46:38
4k wird mit der Marktdurchdringung noch etwas Zeit benötigen und bis dahin werden sowohl AMD wie auch nVidia mainstream-Produkte liefern welche mit medium Details alles wiedergeben können was da kommt. Bis dahin ists "enthusiasts-hardware" vorbehalten.
Die durchschnittliche Bereitschaft in einen Monitor zu investieren liegt bei 150-200 Euro. Also fast genauso wie bei Grafikkarten. Darüber gibt's jedoch keine Statistiken. Das sind Erfahrungswerte.

Nightspider
2014-06-18, 15:53:34
Naja, durch 4K und der raschen Weiterentwicklung hängt die GPU-Leistung schon arg hinterher, da muss man sich echt was Neues einfallen lassen, denn mit 40-50% mehr Leistung wird man die wenigsten bei UHD bewegen können was Neues zu kaufen (für 5-10 FPS mehr 1000€?! Net mal die Extremos würden sowas machen...)

Naja wieso? Gehen wir mal davon aus das GM204-Karten 500 Euro kosten werden und dabei 15% schneller sind als die GTX780ti.

Für 1000 Euro bekommst du da schon SLI und hast die 200-210%ige Leistung einer GTX780ti bei mehr VRAM (4GB!).

Wenn ich in Watch Dogs mit einer nicht übertakteten R9 290X schon 20fps habe hätte man mit einem solchen Setup wohl recht flüssige 40-45fps in UHD, sofern man die GTX880 leicht übertaktet. 20% OC sind bei der sicherlich wieder drin.

Wenn man in allen aktuellen PS4 Portierungen mit "geiler" Grafik in UHD 45fps schafft wäre das doch völlig in Ordnung.

Und wenn man die Details minimal runterschraubt dürften auch 60fps bzw. 30fps mit einer einzigen Karte locker drin sein.

Skysnake
2014-06-18, 16:59:31
Ich kann mich nur wiederholen:



Man darf auch nicht ausser acht lassen dass Kepler doch schon ein ziemlich großer Wurf ist/war. Ailuros bringts aber auf den Punkt dass wir erst später die gegenwärtige Realität betrachten können.
Soviel mir bekannt ist konnte nVidia noch keinen fetten Maxwell-Deal abschließen was irgendwie ein Implizit für abwesende Entgültigkeit ist...
Absolut richtig. Man muss sich nur SandyBridge anschauen. Das gleiche kann bei nVidia auch drohen, wobei derart krass wird es natürlich NICHT! werden.

Loeschzwerg
2014-06-18, 18:14:41
Auch wenn der GM204 evtl . kein Überflieger im Hinblick auf die Leistung wird, in Sachen Effizienz und Preis könnte das Teil dann wiederum unschlagbar werden. Plus vielleicht ordentlich Overclocking Potential :)

Ich bin da für beide Optionen offen, "gut schneller als 780Ti" sowie "in etwa gleichschnell aber effizienter".

Ailuros
2014-06-18, 18:35:06
Auch wenn der GM204 evtl . kein Überflieger im Hinblick auf die Leistung wird, in Sachen Effizienz und Preis könnte das Teil dann wiederum unschlagbar werden. Plus vielleicht ordentlich Overclocking Potential :)

Ich bin da für beide Optionen offen, "gut schneller als 780Ti" sowie "in etwa gleichschnell aber effizienter".

Mir waere persoenlich ein =/<300 Euro Teil mit verdammt hoher Effizienz lieber als alles andere aber ich bin wohl auch allein mit diesem :cool:

AffenJack
2014-06-18, 18:57:30
Wie wärs mit:
GM107 = 750 (TI) Ersatz
GM206 = 760 (TI) Ersatz
GM204 = 770/780 Ersatz
GK210 = 780TI + etwas mehr Leistung (GHz-Edition quasi)

Mit GM200 kann man dann ja auf ein neues Namensschema springen, der ersetzt ja wie bei Hawaii nur High-End.

Ich glaube nicht, dass Gk210 überhaupt als normale Grafikkarte kommt. Entweder nur prof. Bereich oder sogar nur irgendein Testchip. Laut Ailuros gab es ja mal einfache Fermishrinks in 28nm zum Testen des Prozesses. GK210 als GK110 mit paar Veränderungen zum Testen von 20nm kann ich mir auch durchaus vorstellen und aus den Erfahrungen daraus schließend entweder 20nm Chips oder 20nm überspringen.

Loeschzwerg
2014-06-18, 19:01:51
Nur als Testchip für 20nm wäre der GK210 zu "dick", so mal eben shrinken ist nicht gerade einfach bei nem so komplexen Design. R/D gleich mit Maxwell Architektur macht da mehr Sinn oder ein kleiner Kepler.

@Ailuros: Nö du, wenn ich für 300-350€ einen vollen GM204 bekomme, immer her damit :) Mögen die Taktspiele beginnen.

Botcruscher
2014-06-18, 19:04:15
Man baut keinen extra Chip um ihn nicht zu verkaufen.


Eure 300-400€ Träume sind echt erheiternd. Das würde nur bei einem extrem starken AMD Gegenstück passieren. Ansonsten braucht es noch viel Heizkapital für Tegra. Da kommen schön Preise um 600€ und 500 für die kleine.

Nightspider
2014-06-18, 19:07:23
Mir waere persoenlich ein =/<300 Euro Teil mit verdammt hoher Effizienz lieber als alles andere aber ich bin wohl auch allein mit diesem :cool:

Wo ist das Problem? Du musst doch nur eine GTX770 kaufen und extrem weit untertakten + undervolten. Schon hast du die beste Effizienz. :D

Ailuros
2014-06-18, 20:21:08
Man baut keinen extra Chip um ihn nicht zu verkaufen.


Eure 300-400€ Träume sind echt erheiternd. Das würde nur bei einem extrem starken AMD Gegenstück passieren. Ansonsten braucht es noch viel Heizkapital für Tegra. Da kommen schön Preise um 600€ und 500 für die kleine.
Der Preis wird wie immer analog zur Leistung angelegt. Es gibt Gerüchte im Hintergrund über niedrigere Preise vs. Kepler und 600 Euro Leistung schenkt Dir NV bestimmt nicht mit einem 400 Euro MSRP ergo pick your poison.

HOT
2014-06-18, 20:34:54
Da der GK210 jetzt mehrmals aufgetaucht ist, würd ich den mal den als gesetzt ansehen. Ich seh jetzt keinen Grund, warum man den GK210 nicht ernst nehmen sollte.
An einen reinen Profichip glaub ich nicht, weil man den Chip als Komplettierung des Lineups gut gebrauchen kann und man sicher gerne auch entsprechende Volumina absetzen. Zudem gibts ja beim optimierten GK110 sicherlich auch noch taktmäßig Luft nach oben.

Dawn on Titan
2014-06-18, 20:39:03
Wobei, Zeitschiene. Wenn GM204 kommt, dürfte eine 780OC (non Ti) bei <400 liegen.

Ailuros
2014-06-18, 21:03:33
Da der GK210 jetzt mehrmals aufgetaucht ist, würd ich den mal den als gesetzt ansehen. Ich seh jetzt keinen Grund, warum man den GK210 nicht ernst nehmen sollte.
An einen reinen Profichip glaub ich nicht, weil man den Chip als Komplettierung des Lineups gut gebrauchen kann und man sicher gerne auch entsprechende Volumina absetzen. Zudem gibts ja beim optimierten GK110 sicherlich auch noch taktmäßig Luft nach oben.

So lange Du mir nicht definieren kannst fuer was GK210 genau steht und fuer was er bestimmt ist, hat das Ganze keinen Nutzen. Ich hab auch keine Ahnung um was es sich handelt, aber das Ding regt bei mir auch kein besonderes Interesse an da so oder so eine Kepler-wasauchimmer Variante.

Kriton
2014-06-18, 23:07:56
Mir waere persoenlich ein =/<300 Euro Teil mit verdammt hoher Effizienz lieber als alles andere aber ich bin wohl auch allein mit diesem :cool:

Nein, bist Du nicht. Aber DX 12 komplett sollte es schon können.

-/\-CruNcher-/\-
2014-06-19, 00:04:20
Der Preis wird wie immer analog zur Leistung angelegt. Es gibt Gerüchte im Hintergrund über niedrigere Preise vs. Kepler und 600 Euro Leistung schenkt Dir NV bestimmt nicht mit einem 400 Euro MSRP ergo pick your poison.

Man darf aber einfach nicht vergessen das sie die Konvergenz AMDs im nacken haben. Gamer sind vielleicht etwas einfacher zu manipulieren aber sie für so bescheuert zu halten glaube ich ist ein großer Fehler.
Sie müssen verhindern das AMD noch mehr leute rüberzieht das geht nur mit Preis sprich es ist wieder Zeit für eine Mega Card wie damals die 460 GTX in der neuen Compute Generation das Timing wäre auch perfekt ;)
Und sie müssen jetzt unbedingt boden gut machen die Gameworks Strategie scheint nicht wirklich so zu greifen die 750 TI war doch ein sehr guter schritt das sollte man konsequent weiterführen und vor allem die Zweifler innerhalb der eigenen reihen besänftigen.

Ailuros
2014-06-19, 08:42:33
Man darf aber einfach nicht vergessen das sie die Konvergenz AMDs im nacken haben. Gamer sind vielleicht etwas einfacher zu manipulieren aber sie für so bescheuert zu halten glaube ich ist ein großer Fehler.
Sie müssen verhindern das AMD noch mehr leute rüberzieht das geht nur mit Preis sprich es ist wieder Zeit für eine Mega Card wie damals die 460 GTX in der neuen Compute Generation das Timing wäre auch perfekt ;)
Und sie müssen jetzt unbedingt boden gut machen die Gameworks Strategie scheint nicht wirklich so zu greifen die 750 TI war doch ein sehr guter schritt das sollte man konsequent weiterführen und vor allem die Zweifler innerhalb der eigenen reihen besänftigen.

Wenn dann haetten sie Kepler SKU Preise schon seit langem reduziert. So lange eine Firma so viel verkauft wie sie wollen wird gar kein Preis reduziert.

Dural
2014-06-19, 09:39:11
ich frage mich die ganze zeit wie so viele davon ausgehen das GM200 so viel später kommt als der GM204.
offensichtlich ist der GM200 ja auch noch in 28nm, so mit sehe ich absolut keinen grund wie so der so viel später kommen soll. ich würde mal sagen, wenn alles nach plan läuft GM204 + 6 Monate für den GM200.
und ich halte das schon extrem viel für ein 28nm Chip, aber die ganzen "Pro" Anpassungen die der GM204 sicher nicht hat brauchen halt auch etwas Zeit.

wie lange geistern GM204 Chips schon durch die Welt? Seit Dezember 2013? Plus 12 Monate Dezember 2014, Plus 6 Monate Juni 2015 :)

Ailuros
2014-06-19, 09:57:32
ich frage mich die ganze zeit wie so viele davon ausgehen das GM200 so viel später kommt als der GM204.


GM204 = tape out April 2014 best case scenario --> start of mass production Oktober 2014.

GM200 = tape out Juni 2014 best case scenario --> start of mass production Dezember 2014.

offensichtlich ist der GM200 ja auch noch in 28nm, so mit sehe ich absolut keinen grund wie so der so viel später kommen soll. ich würde mal sagen, wenn alles nach plan läuft GM204 + 6 Monate für den GM200.
und ich halte das schon extrem viel für ein 28nm Chip, aber die ganzen "Pro" Anpassungen die der GM204 sicher nicht hat brauchen halt auch etwas Zeit.

Es koennten einer oder beide chips noch einen oder mehr metal spin(-s) brauchen.

wie lange geistern GM204 Chips schon durch die Welt? Seit Dezember 2013? Plus 12 Monate Dezember 2014, Plus 6 Monate Juni 2015 :)

Bullshit; siehe oben.

Cortana
2014-06-19, 10:04:27
Oktober-Dezember Release? Da kann Nvidia ja gleich auf 20nm warten.

Skysnake
2014-06-19, 10:42:59
Rechne eher mit Dezember bis März.

Ailuros
2014-06-19, 10:51:00
Oktober-Dezember Release? Da kann Nvidia ja gleich auf 20nm warten.

NV benutzt fuer GM2xx 20SoC wohl absichtlich nicht weil sie nichts besonderes dazugewinnen gegenueber 28HP was den Stromverbrauch betrifft. Um die libraries von 28HP auf 20SoC zu aendern braucht man im idealsten Fall 6 Monate ergo Juni 2015 + noch zumindest einen metal spin September 2015 fuer den GM200. :crazy2:

Mancko
2014-06-19, 11:07:23
Man darf aber einfach nicht vergessen das sie die Konvergenz AMDs im nacken haben. Gamer sind vielleicht etwas einfacher zu manipulieren aber sie für so bescheuert zu halten glaube ich ist ein großer Fehler.
Sie müssen verhindern das AMD noch mehr leute rüberzieht das geht nur mit Preis sprich es ist wieder Zeit für eine Mega Card wie damals die 460 GTX in der neuen Compute Generation das Timing wäre auch perfekt ;)
Und sie müssen jetzt unbedingt boden gut machen die Gameworks Strategie scheint nicht wirklich so zu greifen die 750 TI war doch ein sehr guter schritt das sollte man konsequent weiterführen und vor allem die Zweifler innerhalb der eigenen reihen besänftigen.

Äh mir ist nicht bekannt, dass AMD es in den letzten 18 Monaten geschafft hat seine Marktanteile auszubauen oder den Umsatz mit dedizidierten Karten für den PC besonders signifikant zu steigern. Eher das Gegenteil ist der Fall. In beiden Kerngrößen hat AMD gegenüber Nvidia an Boden verloren. Insofern ist mir nicht ganz klar wovon du sprichst. So eine große Marktdurchdringung im PC Segment hatte Nvidia schon eine ganze Weile nicht mehr. Wenn Sie etwas mit Maxwell schaffen müssen, dann ist es diese Position möglichst zu halten. Noch mehr zu wachsen halt ich für nicht besonders realisitisch. Dann wäre AMD im PC Segment ja erledigt. Eins ist fakt. Die letzte Runde bei den dedizidierten GPUs ging ganz klar an Nvidia - ohne wenn und aber. Das zeigen alle Umfragen und Kerndaten.

Und das sich Gameworks nicht auszahlt kannst Du im Augenblick gar nicht beurteilen. Ich weiß nicht ob es sich auszahlt, allerdings läuft AMDs PR Abteilung einschließlich Richard Huddy derzeit herum wie eine Gruppe Heulsusen und versucht krampfhaft Gameworks zu bashen. Sprich sie haben Angst davor. Also kann es ganz so erfolglos nun auch wieder nicht sein. Sonst wäre es ihnen nicht diese ständigen jämmerlichen Interviews wert.

CountDoku
2014-06-19, 11:35:36
PCGH hat einen schönen Artikel über die 750 Ti und seine OC-Fähigkeiten gebracht. Das Ding scheint ein OC-Wunder zu sein. Sprich bis zu 16 Prozent Mehrleistung bei OC und wenig Mehrverbrauch.

--------------->http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Geforce-GTX-750-Ti-Tuning-Maxwell-ohne-TDP-Limit-ausreizen-1123719/

Dural
2014-06-19, 11:41:07
nichts neues, meine GTX750Ti als PhysX Karte macht über 1400MHz ohne zu Trosseln (EVGA FTW) und bleibt dabei quasi kalt ;)

CountDoku
2014-06-19, 11:47:11
Es geht mir darum hier durch diesen Artikel mal zu schauen wie sich das auf die "grösseren Brüder" auswirkt. Maxwell scheint sehr sehr gut zu skalieren nach oben hin. Und man sieht wie stark diese Architektur ist. Also ich hoffe dieses Jahr kommt wenigstens der GM204. Mein Mund ist wässrig genug.

Und PCGH schnallt einen Mugen 2 auf die Karte:freak::D;D

Hübie
2014-06-19, 11:57:53
Gabs das überhaupt schon mal? Mehr Leistungsgewinn als Verbrauchsanstieg in den Grenzbereichen.

Cubitus
2014-06-19, 12:07:32
ich frage mich die ganze zeit wie so viele davon ausgehen das GM200 so viel später kommt als der GM204.
offensichtlich ist der GM200 ja auch noch in 28nm, so mit sehe ich absolut keinen grund wie so der so viel später kommen soll. ich würde mal sagen, wenn alles nach plan läuft GM204 + 6 Monate für den GM200.
und ich halte das schon extrem viel für ein 28nm Chip, aber die ganzen "Pro" Anpassungen die der GM204 sicher nicht hat brauchen halt auch etwas Zeit.


Auch wenn die technische Machbarkeit gegeben ist:
Nvidia wird die Kuh melken bis die Euter eitern ;(
Oder AMD, NV in Bedrängnis bringt

Und erst dann wenn wir alle wieder gierig auf HighEnd sind, kommt der Dicke raus.
Wenn wir Pech haben dann für 1200 Euro als Titan Platin. Denn die Titan verkaufte sich ja wie geschnitten Brot. :(

hasebaer
2014-06-19, 13:42:16
Oder AMD, NV in Bedrängnis bringt

Indirekt passiert das durch die neuen Konsolen.
Die sind zwar langsamer im Verhältniss zum PC, als noch 2005, aber dennoch werden sie die nächsten 2-3 Jahre wieder mehr Druck auf den Gaming-PC Markt ausüben, als in den letzten 2-3 Jahren.

HOT
2014-06-19, 13:50:19
Solange die Konsolen schnell genug sind für Minimalanforderungen ist das kein Problem. Der große Unterschied zu den alten Konsolen ist, dass die aktuellen Konsolen richtig dick RAM haben, während die alten schon bei Release superknapp bestückt waren. Das ist der Knackpunkt. Zudem ist im Verhältnis heute mehr CPU-Leistung drin, jedenfalls, wenn man gut optimiert. Jaguar ist deutlich einfacher zu optimieren als Cell oder Xenos es je war. Die neue Konsolen sind im Verhältnis nur grafisch schlechter, was sich recht einfach mit 30FPS und geringen Auflösung abfangen lässt. Wer mehr will muss halt nen PC haben.
Microsoft scheint die XB1 sowieso mittlerweile eher als MinimalPC für Multimedia und Spiele zu sehen. Das sieht man daran, dass Windows8 immer mehr an die XB1 angepasst wird. Erst der Controller, dann das Store-Upgrade, dann Kinect, DirectX12, welches offenbar beide Plattformen näher zusammenbringe soll, usw.

Timbaloo
2014-06-19, 14:15:36
Gabs das überhaupt schon mal? Mehr Leistungsgewinn als Verbrauchsanstieg in den Grenzbereichen.
Falls du auf die "179 (+3 %)" anspielst, das ist das Gesamtsystem...

Hübie
2014-06-19, 15:18:03
Das ist mir wohl klar ;) Ich meinte 10% mehr Verbrauch bei 16% mehr Performance.

Timbaloo
2014-06-19, 15:21:14
Auch da bezieht sich der Verbrauch auf das Gesamtsystem...

Hübie
2014-06-19, 15:24:19
Ja und? Die CPU ist ziemlich konstant im Verhalten. Also muss der Anstieg ja überwiegend von der GPU kommen oder nicht? ;)

Timbaloo
2014-06-19, 15:33:01
Au mann...

Stark verinefachte Rechnung:

Nehmen wir an die 750ti zieht im Standardfall P_gpu = 65W.

P_rest = P_ges - P_gpu

P_rest = 173W - 65W = 108W

Unter der Vereinfachung, dass der Verbrauch des Restsytems beim übertakten der GPU nicht ändert ergibt sich:

P_gpu_oc = P_ges_oc - P_rest

P_gpu_oc = 190W - 108W = 82W

Ins Verhältnis setzen: 82W / 65W = 1.26

Also 26% Mehrverbrauch der Karte.

Hübie
2014-06-19, 15:46:07
Ding dong. Stimmt hast Recht. Oh man jetzt ist mir das aber peinlich ;D Danke fürs aufwecken.
Hab die ganze Zeit net gecheckt worauf du hinaus willst.

Timbaloo
2014-06-19, 15:54:40
Oh man jetzt ist mir das aber peinlich ;D
Peinlich sollte dir eher sein, dass du überhaupt geblaubt hast, dass Maxwell die Physik aushebelt ;)

Unicous
2014-06-19, 15:58:21
Peinlich sollte dir eher sein, dass du überhaupt geblaubt hast, dass Maxwell die Physik aushebelt ;)
:biggrin:

Hübie
2014-06-19, 16:01:20
Peinlich sollte dir eher sein, dass du überhaupt geblaubt hast, dass Maxwell die Physik aushebelt ;)

:P Streu noch Salz in die Wunde. Ich muss wirklich zugeben dass ich einfach nur die Zahlen angeglotzt hab und dachte: "Boah wie geil!" Ohne weiteres Nachdenken. Okay vergessen wir das schnell wieder ;D

Nakai
2014-06-19, 16:10:14
Es wird auch allgemein die Temperatur vernachlässigt. Höhere Temperatur -> höherer Verbrauch. Das sieht man sehr schön an der R2xx-Serie von AMD, welche immer sehr nah am maximalen Temperaturlimit/Powerlimit liegt. Vor allem die R7 260x gegen HD7790 sieht interessant aus. Beides ist Bonaire mit ähnlichen Settings, erstere wird unter Last mal 20°C heißer und verbrauch dadurch schonmal ein Stück mehr Strom.

Kurz, ein anderer Kühler, welcher deutlich besser kühlt, kann Auswirkungen auf die Leistungsaufnahme haben.

Timbaloo
2014-06-19, 16:16:22
An einen reinen Profichip glaub ich nicht, weil man den Chip als Komplettierung des Lineups gut gebrauchen kann und man sicher gerne auch entsprechende Volumina absetzen.
Wo würde sich der GK210 deiner Meinung nach denn einordnen? Bzw. wo ist das Lineup denn nicht komplett?

Ist der GK210 nicht evtl. ein Relikt aus der Zeit als NV noch nicht wusste ob/wann man auf 20SoC geht? Also ein Chip der gekommen wäre um die Zeit bis Maxwell@20SoC zu überbrücken? Mit Maxwell@28HP ergibt ein Kepler-Refresh@28HP für mich zumindest keinen tieferen Sinn.

Loeschzwerg
2014-06-19, 20:18:40
Keine Ahnung was der GK210 werden soll/sollte, es gab zumindest schon lange keine Lieferungen mehr mit diesem Chip.

17-Jun-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, INT PART - 45414, GM204-INT41684-A1 United States Banglore Air Cargo NOS 5 53,143 10,629
17-Jun-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, INT PART - 45413, GM204-INT41684-A1 United States Banglore Air Cargo NOS 5 53,143 10,629
17-Jun-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, INT PART - 45415, GM204-INT41684-A1 United States Banglore Air Cargo NOS 5 53,143 10,629
17-Jun-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, INT PART - 45412, GM204-INT41684-A1 United States Banglore Air Cargo NOS 5 53,143 10,629

Der GM204 rollt ordentlich. Wenn ich mir vorherige Chip anschaue, dann sind diese mit "INTxxxxx" Bezeichnung bisher immer in dieser Revision erschienen. Es ist eine reine Vermutung, aber Revision A1 des GM204 scheint es zu bleiben :)

Unicous
2014-06-19, 20:20:35
HPC Tesla?

Leonidas
2014-06-20, 12:49:39
Es gibt Gerüchte im Hintergrund über niedrigere Preise vs. Kepler


So was läßt sich aber immer recht einfach realisieren. Der Nachfolger der 780Ti muß nur weniger Launch-Listenpreis haben als die 780Ti zu ihrem Launch. Schon sieht es nach günstiger aus.

prinz_valium
2014-06-20, 16:46:40
So was läßt sich aber immer recht einfach realisieren. Der Nachfolger der 780Ti muß nur weniger Launch-Listenpreis haben als die 780Ti zu ihrem Launch. Schon sieht es nach günstiger aus.


aber midrange cip preise werden die grafikkarten doch wieder nicht erreichen.
was waren das für schöne spekulatius über einen gk104 für 250 euro und dann gab es eine gtx 680 für 500 euro


jetzt würde ich mich schon über einee gm204 salvage 870 für 299 tierisch freuen
glaubt wer dran? ich nicht

Thunder99
2014-06-20, 18:19:21
Warum setzt denn nvidia nicht auf die GT730/40 Lösungen ein GM108? :confused: zu stark für den Markt?

reaperrr
2014-06-20, 20:32:24
Warum setzt denn nvidia nicht auf die GT730/40 Lösungen ein GM108? :confused: zu stark für den Markt?
Zu geringe Margen, als dass sich ein neuer Chip lohnen würde, schätze ich. Vielleicht auch noch zu viele Restbestände an alten Chips.

AnarchX
2014-06-28, 08:47:39
35x GM204-CS0-A1 am 26.06. bei Zauba. Das dürften wohl Customer Samples sein. Vielleicht sickern da bald ein paar erste Werte von den AIBs durch.

GM200 Bauteile sind auch unterwegs:
HSFCBGA45X45-M53X53-0.8-2397 THERMAL HEAD(GM200/GK210/GK180/GK110), LATB6000470

SFCBGA45X45-M53X53-0.8-2397 GUIDE PLATE (GM200/GK210/GK180/GK110), 10101188100

SFCBGA45X45-M53X53-0.8-2397 RETAINER (GM200/GK210/GK180/GK110), 10101188120

Da dürfte sich wohl die Die-Size von GM200 in ähnlichen Dimensionen wie bei GK110 bewegen.

Timbaloo
2014-06-28, 13:50:55
Irgendwann kommt raus, dass NV einfach irgendwelche fiktiven Teile in der Weltgeschichte herumschickt... ein groß angelegter Troll :ufinger:

Von GM206 bisher auch noch keine Spur.

Loeschzwerg
2014-06-30, 09:42:44
35x GM204-CS0-A1 am 26.06. bei Zauba. Das dürften wohl Customer Samples sein. Vielleicht sickern da bald ein paar erste Werte von den AIBs durch.

GM200 Bauteile sind auch unterwegs:


Da dürfte sich wohl die Die-Size von GM200 in ähnlichen Dimensionen wie bei GK110 bewegen.

45X45 Package und 53X53 Mounting. An der Pin-Belegung wird sich vermutlich nicht viel ändern, sofern NV beim GM200 ebenfalls bei 384Bit bleibt (wovon ich ausgehe nach den 256Bit des GM204).

Mmh, Customer Samples :) Also bleibt es beim A1?

AffenJack
2014-06-30, 10:53:06
Würde ich mal vermuten bei den CS Samples. Also sollte nen Start gerade zur Weihnachtszeit möglich sein. GM107 launchte 4 1/2 Monate nach den CS Samples.

Loeschzwerg
2014-06-30, 11:58:04
Richtig. Ich halte sogar Oktober/November für möglich, auch wenn die Timeline dafür sehr straff ist.

Godmode
2014-06-30, 23:02:15
Weiß man jetzt eigentlich ob GM200 oder wie auch immer der Nachfolger von GK110 heißen soll, in 28nm oder gleich in 20/16nm hergestellt wird? In 28nm hat man ja nicht mehr viel Luft nach oben und 20/16nm ist ja wohl frühestens H2/2015 vorstellbar, gerade bei einem großen Chip. Kommt da jetzt wirklich noch eine abgespeckte 28nm Variante und später dann der GK110 Nachfolger (Maxwell+Shrink) mit 12-14 Mrd Tranistoren und in 16nm?

Nakai
2014-06-30, 23:04:24
28nm höchstwahrscheinlich.

Godmode
2014-06-30, 23:09:53
28nm höchstwahrscheinlich.

Die Frage die sich mir dann stellt ist, wann erscheint dieser Chip und wie steht er im Verhältnis zu GM204? Eigentlich macht diese Serie nur Sinn, wenn man dadurch die alten GKxxx Chips ablöst und die bis dahin günstigere 28nm Fertigung voll ausreizt. Wenn GM204 und GM200 in 28nm zu Weihnachten 2014 vorgestellt werden, könnte man damit wohl noch das gesamte Jahr 2015 überbrücken und dann Ende 2015 die 20nm bzw. 16nm Varianten auflegen. Eventuell könnte die geschrinkte Version von GM204 dann doch schon früher erscheinen, also irgendwann im Monat 6-9 2015. Der wirkliche GK110 Nachfolger, also maximale Ausbaustufe von Maxwell und neuer Fertigungsprozess könnte dann erst Anfang 2016 starten, womit Titan aka GK110 dann 3! Jahre auf dem Markt wäre.

Nakai
2014-06-30, 23:17:14
Die Frage die sich mir dann stellt ist, wann erscheint dieser Chip und wie steht er im Verhältnis zu GM204? Eigentlich macht diese Serie nur Sinn, wenn man dadurch die alten GKxxx Chips ablöst und die bis dahin günstigere 28nm Fertigung voll ausreizt. Wenn GM204 und GM200 in 28nm zu Weihnachten 2014 vorgestellt werden, könnte man damit wohl noch das gesamte Jahr 2015 überbrücken und dann Ende 2014 die 20nm bzw. 16nm Varianten auflegen. Eventuell könnte die geschrinkte Version von GM204 dann doch schon früher erscheinen, also irgendwann im Monat 6-9 2015. Der wirkliche GK110 Nachfolger, also maximale Ausbaustufe von Maxwell und neuer Fertigungsprozess könnte dann erst Anfang 2016 starten, womit Titan aka GK110 dann 3! Jahre auf dem Markt wäre.

Also GM204 sollte über Titan angesiedelt sein und etwa 350mm² groß sein.
GM200 wird etwa 550mm² groß sein.

GM200 wird eher 2015 auf dem Markt kommen und wohl erst für den Profibereich. Eher H2 2015 für Normalos.

Skysnake
2014-07-02, 09:10:50
Charlie berichtet etwas von einer Änderung auf den Roadmaps von Maxwell, der Artikel ist aber hinter einer Paywall. Hat jemand vielleicht ne Ahnung, um was es da jetzt geht?

Godmode
2014-07-02, 09:28:16
Charlie berichtet etwas von einer Änderung auf den Roadmaps von Maxwell, der Artikel ist aber hinter einer Paywall. Hat jemand vielleicht ne Ahnung, um was es da jetzt geht?

Ich denke mal um genau dass, über was Nakkai und ich diskutiert haben.

robbitop
2014-07-02, 09:45:00
Mich wundert, dass durch seine Paywall nichts leakt... :D

Undertaker
2014-07-02, 09:48:24
Vielleicht gibt es einfach niemanden, der für seine Ergüsse auch noch zahlt. :D

hasebaer
2014-07-02, 12:41:25
Shield 2 zur GDC oder Gamescom 2014
http://www.computerbase.de/2014-07/nvidia-shield-2-streaming-full-hd-tegra-k1/

edit. bitte verschieben ... :hammer:

Loeschzwerg
2014-07-02, 12:57:13
Ich denke mal um genau dass, über was Nakkai und ich diskutiert haben.

with big Maxwells and shrinks now listed

Da wird vermutlich nix überraschendes drin stehen.

Am GM204 Fahrplan ändert sich nix, GM200 @28nm steht erstmals konkret auf der Roadmap und es gibt eine Aussicht auf Shrinks. "Suprise" könnte evtl. der Wegfall von 20nm sein, also direkt 16nm.

Meine Vermutung.

Ailuros
2014-07-02, 13:05:57
Also GM204 sollte über Titan angesiedelt sein und etwa 350mm² groß sein.

Mein Gefluester redet >350mm2. Sehr genau sind sie selten.

GM200 wird etwa 550mm² groß sein.

Duerfte stimmen.

GM200 wird eher 2015 auf dem Markt kommen und wohl erst für den Profibereich. Eher H2 2015 für Normalos.

Schaetze ich auch so, aber auch jetzt noch mehr da er fuer desktop kein besonderes Ereignis sein wird.

with big Maxwells and shrinks now listed

Da wird vermutlich nix überraschendes drin stehen.

Am GM204 Fahrplan ändert sich nix, GM200 @28nm steht erstmals konkret auf der Roadmap und es gibt eine Aussicht auf Shrinks. "Suprise" könnte evtl. der Wegfall von 20nm sein, also direkt 16nm.

Meine Vermutung.

Wir haben bisher keine Indizien dass GM204 einen metal spin braucht, eher das Gegenteil. Ich folge da lieber meinem Instinkt dass zu einem 2014 release tendiert.

GM204 wird afaik tatsaechlich nicht groesser sein als 400mm2 von dem was ich links und rechts hoehre, eher mit einer Tendenz in Richtung 350mm2@28HP. Ausser sie brauchen einen potentiell schnelleren refresh fuer GM204 sehe ich keinen besonderen Grund warum sie so frueh auf 16FF steigen sollten, ausser NV hat sich bei TSMC wund geheult und TSMC hat ihnen einen riesigen Rabbatt fuer 16FF quasi am Anfang seiner Herstellung gegeben was verdammt unwahrscheinlich klingt. Einen Gewinn was die Herstellungskosten betrifft so frueh fuer 16FF sehe ich nicht.

Godmode
2014-07-02, 13:22:17
Warum sollte die 28nm Version von GM200 so spät kommen (H2/2015)? Für GM200 @ 20/16 FF kann ich das durchaus verstehen, für 28nm nicht. Was spricht den gegen einen Launch von GM204@28 etwa im Herbst 2014 und GM200@28 dann vielleicht in Q1 2015. Nach 9-12 Monaten könnte man diese Chips dann durch die 20/16 nm Versionen ersetzen.

Loeschzwerg
2014-07-02, 13:25:44
Wir haben bisher keine Indizien dass GM204 einen metal spin braucht, eher das Gegenteil. Ich folge da lieber meinem Instinkt dass zu einem 2014 release tendiert.

Nichts anderes habe ich gemeint mit "Am GM204 Fahrplan ändert sich nix" :)


GM204 wird afaik tatsaechlich nicht groesser sein als 400mm2 von dem was ich links und rechts hoehre, eher mit einer Tendenz in Richtung 350mm2@28HP. Ausser sie brauchen einen potentiell schnelleren refresh fuer GM204 sehe ich keinen besonderen Grund warum sie so frueh auf 16FF steigen sollten, ausser NV hat sich bei TSMC wund geheult und TSMC hat ihnen einen riesigen Rabbatt fuer 16FF quasi am Anfang seiner Herstellung gegeben was verdammt unwahrscheinlich klingt. Einen Gewinn was die Herstellungskosten betrifft so frueh fuer 16FF sehe ich nicht.

2015 kommt man mit GM204/GM200 @ 28nm sicher gut über die Runden und dann kann man Ende 2015 / Anfang 2016 gleich auf 16nm gehen. Oder was meinst du mit früh?

Nakai
2014-07-02, 15:07:25
Mein Gefluester redet >350mm2. Sehr genau sind sie selten.

GM204 wird afaik tatsaechlich nicht groesser sein als 400mm2 von dem was ich links und rechts hoehre, eher mit einer Tendenz in Richtung 350mm2@28HP. Ausser sie brauchen einen potentiell schnelleren refresh fuer GM204 sehe ich keinen besonderen Grund warum sie so frueh auf 16FF steigen sollten, ausser NV hat sich bei TSMC wund geheult und TSMC hat ihnen einen riesigen Rabbatt fuer 16FF quasi am Anfang seiner Herstellung gegeben was verdammt unwahrscheinlich klingt. Einen Gewinn was die Herstellungskosten betrifft so frueh fuer 16FF sehe ich nicht.

Ich hab eher etwas zwischen 300 und 350mm² gerechnet, da das gleiche Package verwendet wird. Aber etwas leicht über 350mm² könnte die Performance definitiv leichter über Titan-Niveau pushen.

Ailuros
2014-07-02, 15:42:06
2015 kommt man mit GM204/GM200 @ 28nm sicher gut über die Runden und dann kann man Ende 2015 / Anfang 2016 gleich auf 16nm gehen. Oder was meinst du mit früh?

Mir klingt alles (mit halbwegs komplizierten GPU chips) unter 16FF innerhalb 2015 noch zu teuer. Das natuerlich unter der Vorraussetzung dass es sich nur um einen einfachen hypothetischen shrink vom GM204 handelt.

Es gibt keinen wirklichen Drang bei einem <400mm2@28nm chip wie der GM204 diesen auf einem kleineren Prozess herzustellen da man nichts daran gewinnen wird. Mehr als schaetzungsweise $80 duerfte so ein chip unter 28nm nicht kosten. Selbst bei gleichen wafer und binning yields unter 16FF duerfte jeder core ueber 30% mehr kosten.

Dawn on Titan
2014-07-02, 15:58:20
Ich hab eher etwas zwischen 300 und 350mm² gerechnet, da das gleiche Package verwendet wird. Aber etwas leicht über 350mm² könnte die Performance definitiv leichter über Titan-Niveau pushen.

rund 370mm²

Nakai
2014-07-02, 16:18:25
rund 370mm²

Dann würde ich etwa 2560SPs schätzen. Damit schlägt man definitiv Titan und man wird kaum mehr als GK104 verbrauchen.

Damit ziehe ich die Analogie, dass GM204 dementsprechend größer wird, wie GM107 zu GK107 größer wurde(~25%) und so kommt man etwa auf ~368mm².
GM107 bringt auf GK107 etwa 80% Mehrperformance(eher etwas mehr). Ich erwarte ungefähr von GM204 zu GK104, eher etwas weniger.

fondness
2014-07-02, 19:15:19
Angebliche GM210 Maxwell Die-Shots, das Die ist relativ groß allerdings kleiner als GK110, die Karte hat 3 power connectors (6+6+8pin)

http://videocardz.com/50980/nvidia-geforce-gtx-880-pictured

Undertaker
2014-07-02, 19:26:10
Wenn die Bild-Verhältnisse stimmen, wäre GM210 etwas kleiner als GK110... Hätte ich nicht unbedingt erwartet, aber lassen wir uns von den finalen Zahlen überraschen. Viel spannender ist imo ohnehin, ob die Effizienz ähnlich zulegt wie bei GM107... :)

HOT
2014-07-02, 19:29:15
256Bit Speicherinterface... ist eher ein GM204 Testboard oder? Grob geschätzt hat der etwas über 400mm², vielleicht misst das ja jemand nach :D. Die Powerconnectors würd ich jetzt dem Vorserienstatus zuschreiben, also ob man mit 2 6ern, einerm 8er oder 6er und 8er braucht.

AnarchX
2014-07-02, 19:33:16
GM204:
IC (INTEGRATED CIRCUIT) PI-HER FCBGA (ELF) (40*40) 1745 DEVICE:AS GM204-A01 LOT NO:T6A995.005 S.PN:AJC4040B

fondness
2014-07-02, 19:34:05
Dann wäre GM204 aber verdammt groß^^

Edgecrusher86
2014-07-02, 19:35:21
Das dürfte in der Tat GM204 sein - in Serie wird man sicherlich maximal 8+6 Pin verbauen, wie etwa bei der GTX 770 der Fall, wobei der Verbrauch sicherlich bei unter 225W liegen dürfte. Fraglich ist natürlich auch, ob es bei 4GB bleiben könnte - 8GB dann z.B. als Quadro.

E: Interessant - T6A996 statt T6A995 wie von Zauba für GM204 gelistet. :)

AnarchX
2014-07-02, 19:37:54
Der GK110 ist hier falsch skaliert, da sein Package größer ist als bei GK104 und GM204:
http://cdn.videocardz.com/1/2014/07/GM204-vs-GK110-vs-GK104-comparison.jpg

Laut Pixelvergleich: ~430mm² für GM204.

Ailuros
2014-07-02, 19:38:33
Wenn die Bild-Verhältnisse stimmen, wäre GM210 etwas kleiner als GK110... Hätte ich nicht unbedingt erwartet, aber lassen wir uns von den finalen Zahlen überraschen. Viel spannender ist imo ohnehin, ob die Effizienz ähnlich zulegt wie bei GM107... :)

Videocardz ist die eine "Quelle" und die andere Gamersky? Ok jetzt bin ich ueberzeugt.....:rolleyes:

HOT
2014-07-02, 19:39:15
Dann ist GM204 das neue Topmodell. 440mm² mit 3072 Shadern und 256Bit Interface? Die neue Cachestruktur könnte das zulassen.
Kein Wunder, dass es einen GK210 zusätzlich geben soll, denn der hier ist sicher 1/32 DP und hat ein zu kleines Speicherinterface.

fondness
2014-07-02, 19:39:17
Das wäre immerhin ~Hawaii-Größe, für einen reinen Gaming-Chip ziemlich mächtig.

Ailuros
2014-07-02, 19:39:54
Der GK110 ist hier falsch skaliert, da sein Package größer ist als bei GK104 und GM204:
http://cdn.videocardz.com/1/2014/07/GM204-vs-GK110-vs-GK104-comparison.jpg

Laut Pixelvergleich: ~430mm² für GM204.

Bilder fueren immer zu falschen Messungen; Charlie und co. haben auch geschworen dass GK104 ganze 354mm2 gross ist (oder irgendwo in der Naehe). Etwas mehr Geduld und ja es ist ein 204 ;)

In der Zwischenzeit amuesieren wieder die Schlussvolgerungen gleich darauf :P

AnarchX
2014-07-02, 19:41:25
Die Package-Size von GM204 ist die von GK104, insofern ist das ganz manipuliert oder GM204 doch über 400mm² groß.

Ailuros
2014-07-02, 19:42:45
Die Package-Size von GM204 ist die von GK104, insofern ist das ganz manipuliert oder GM204 doch über 400mm² groß.

Wie gesagt trau den Bildern nicht.

AnarchX
2014-07-02, 19:43:46
Wie gesagt trau den Bildern nicht.
Eigentlich waren diese Bilder bisher immer ein guter Ansatzpunkt.

HOT
2014-07-02, 19:44:05
Bei der Größe ist der auf jeden Fall bei 225 bis 250W mit entsprechenden Taktraten. Da wollte es NV aber wissen :D.

Edgecrusher86
2014-07-02, 19:44:49
KW 21 - 19.5. - 25.5 , das kann doch eigentlich nur GM204 sein.

E: Also wenn die Die-Size jetzt auch in Echt um die 60mm² geringer ausfällt, wie vorher bei GK104 vermutet, dann sind wir bei um die 370mm² - das würde ganz gut passen.

fondness
2014-07-02, 19:44:55
Bei der Größe ist der auf jeden Fall bei 225 bis 250W mit entsprechenden Taktraten. Da wollte es NV aber wissen :D.

Die Frage ist ob ein Server-Maxwell mit hoher DP-Leistung da überhaupt noch schneller wäre in Spielen^^

HOT
2014-07-02, 19:46:16
Die Frage ist ob ein Server-Maxwell mit hoher DP-Leistung da überhaupt noch schneller wäre in Spielen^^
Wahrscheinlich nicht. Jedenfalls nicht wesentlich. Vielleicht wollten die die DP-Monster aus dem Spielemarkt raushaben. War vielleicht auch beim GK110 ursprünglich nicht geplant... jedenfalls wird das Teil Numero Uno in Sachen Performance, daran gibts jetzt keine Zweifel mehr.