PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33

Hübie
2014-09-24, 17:37:21
Dass es wohl eher tragische Ironie ist jemand arrogant zu nennen wenn es um OBR geht :biggrin:

X-D Vielleicht ist unser Mandalorianer mit dem falschen Fuß aufgestanden und / oder kennt OBR & Co nicht. :|
@Mandalor: Nimms locker und lächle drüber ;)

Godmode
2014-09-24, 17:47:05
Die Specs von OBR sind für die Katz. 20 SMMs wäre möglich, der nächste Schritt wäre 24 und dann noch 25.

384Bit SI wäre sicher, wegen Kompatibilität zu GK110.

Ein 384Bit SI müsste eigentlich reichen, wenn man es mit GM204 vergleicht. Eventuell bekommt GM200 noch mehr Cache.

Mandalore
2014-09-24, 17:47:29
X-D Vielleicht ist unser Mandalorianer mit dem falschen Fuß aufgestanden und / oder kennt OBR & Co nicht. :|
@Mandalor: Nimms locker und lächle drüber ;)


Nein, bin ich nicht. Und ich habe mich nicht auf OBR und den HWLUXX-Leser bezogen. Es ging um einen älteren Post der gegen mich gerichtet war. Wegen OBR: Von mir aus könnt ihr mit ihm machen was ihr wollt, die meiste Zeit war er eh nur ein Großmaul...;D

Nightspider
2014-09-24, 17:49:16
Zumal es in einem halben Jahr vllt schon ein wenig schneller getaktete Speicherchips gibt.

Skysnake
2014-09-24, 19:07:26
Ich verstehe echt nicht was euer Problem ist.

Zitat von THG (http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-8.html) im Fazit:

Variante 1: Die Sparsamen

Lässt man das Power Target genau dort, wo Nvidia es bei der Referenz gesetzt hat, dann sind die Karten mit Sicherheit immer noch recht flott, begügen sich aber bei der Leistungsaufnahme mit bisher einmalig niedrigen Werten fürs tatsächlich Gebotene.

Variante 2: Die Übertaktungskracher

Durch die Aufstockung des Power Targets auf fast das Doppelte lassen sich recht einfach Karten konzipieren, deren angehobener Werkstakt allein schon ausreicht, um an der nächsthöheren Leistungsklasse zu kratzen. Gleichzeitig bieten sie auch ohne Spannungserhöhung noch sehr viel Freiraum und Potenzial für eine manuelle Übertaktung. Je nach Großzügigkeit des Herstellers beim Power Target kann dann auch der Boost-Takt unter Last länger gehalten werden.
hm...

Was heist denn hier den Boost länger halten?

Kann etwa nicht jeder GTX900 den Boost dauerhaft halten? Wenn ja, muss man sich das wohl wieder genauer anschauen.

Hatte hierzu (Temps usw) bisher nichts explizietes gelesen, und daher gedacht, dass der Boost wieder stabil gehalten werden kann unter praktisch allen Situationen. Wenn nicht, wird wohl der eine oder andere Review für die Tonne sein :(

memoal
2014-09-24, 19:24:58
Vielleicht hat das Ganze seinen Lauf auch dort begonnen: http://www.nordichardware.se/Grafik/msi-avvaktar-med-lightning-modell-av-maxwell-vaentar-pa-gtx-980-ti-eller-gtx-990.html#comments

http://www.nordichardware.se/images/labswedish/artiklar/Grafik/Nvidia_Geforce_GTX_970_roundup/largethumbnails/Lightning780.jpg

Weil MSI keine Lightning ala 980 bringen möchte und von irgendeiner OC Begrenzung durch nV gesprochen haben soll.

Auf Anfrage erklärte MSI aber jetzt, dass es derzeit keine Pläne für eine Lightning-Version der GeForce 900 Serie gäbe. Der Grund seien Restriktionen beim Overclocking, die Nvidia den Grafikkartenherstellern auferlegt habe.
Diese Erklärung hat die Spekulationen über ein weiteres und nochmal schnelleres GeForce 900 Modell aber nicht abreißen lassen...
http://www.hartware.de/news_61800.html

-/\-CruNcher-/\-
2014-09-24, 19:53:43
Na ja, würden Custom-Karten 165W verbrauchen gäbe es auch kein Problem ;). Aber es stinkt einfach: 165W TDP anzugeben und sämtliche kaufbare Varianten verbraten durch die Bank mehr...
Ich beschwer mich da nicht, AMD und Intel haben sowas auch schon gebracht. Aber die Größenordnung ist schon ziemlich krass ausgefallen diesmal.

Einige hersteller geben den Original TDP Verbrauch ihres Boards an siehe Asus andere wiederum flüchten sich in Netzteil angaben ;)

Bei Asus liegt der bei 225W (stock oced) auf 1er 8er Leitung das Board ist aber wohl bis 300W ausgelegt wie bei Gigabyte auch um diese Peaks zu verkraften nehme ich an

Da Asus das ganze aus einer Leitung zieht (150W) sollte man schauen ein gutes Netzteil zu haben min ab 50€ und ~500W ;)

Was viel interessanter ist ist der idle verbrauch der erhöht sich anscheinend doch schon ganz heftig bei den Custom karten hier werden aber unterschiede von 2W von den meisten Reviewer gemessen bei THG betrug der unterschied aber 10W bei der 970 Gigabyte im Vergleich zur 980 Custom

Da sollte man mal genauer hinschauen als sich über den Last verbrauch so aufzuregen ;)

oder man geht einfach danach das alle karten gut sind die 0 DB idle supporten und das die Gewinnen die die 0 db unter last am längsten halten können (einfach effiziente messmethode ohne spezieles equipment) ;)

Godmode
2014-09-24, 19:55:52
hm...

Was heist denn hier den Boost länger halten?

Kann etwa nicht jeder GTX900 den Boost dauerhaft halten? Wenn ja, muss man sich das wohl wieder genauer anschauen.

Hatte hierzu (Temps usw) bisher nichts explizietes gelesen, und daher gedacht, dass der Boost wieder stabil gehalten werden kann unter praktisch allen Situationen. Wenn nicht, wird wohl der eine oder andere Review für die Tonne sein :(

Ich denke ist so gemeint, dass wegen des schon erhöhten Werkstaktes auch der Boost höher ist. Durch das größere PT kann dieser auch gehalten werden.

PCGH heizen die Karten eigentlich immer auf, außer sie haben das geändert.

hasebaer
2014-09-24, 20:15:35
hm...

Was heist denn hier den Boost länger halten?

Kann etwa nicht jeder GTX900 den Boost dauerhaft halten?

Das Referenzdesign der 980 kann das nicht, hier greift das Temperaturtarget weil Nvidia ja unbedingt am DHE Kühler sparen musste und nur ne Kupferplatte statt Vaporchamber verbaut.
Und auch das TDP Target wird selbst wenn die Temps noch ok sind, auch mal hin und wieder erreicht.

Die GTX 970 Custommodelle der Boardpartner laufen dagegen mit stabilem Boost, primär dank der deutlich besseren Kühlung, aber auch weil die TDP nicht bei nur 145W liegt, sondern im Schnitt bei 225W.
Das bietet genug Raum für den Boost.

dildo4u
2014-09-24, 20:29:45
Das Referenzdesign der 980 kann das nicht, hier greift das Temperaturtarget weil Nvidia ja unbedingt am DHE Kühler sparen musste und nur ne Kupferplatte statt Vaporchamber verbaut.
Und auch das TDP Target wird selbst wenn die Temps noch ok sind, auch mal hin und wieder erreicht.

Die GTX 970 Custommodelle der Boardpartner laufen dagegen mit stabilem Boost, primär dank der deutlich besseren Kühlung, aber auch weil die TDP nicht bei nur 145W liegt, sondern im Schnitt bei 225W.
Das bietet genug Raum für den Boost.
Das passt nicht so ganz zu dem hier liegen die 970 unter der 980.

http://www.hardwareheaven.com/2014/09/geforce-gtx-980-review/

memoal
2014-09-24, 20:40:55
Nvidia verbaut auf dem Referenzdesign diesmal ein austauschbares Steuermodul für die Boostfunktionen. Auf NCP81174-Basis, 180-12500-1102-A01 (U3).

http://abload.de/thumb/gtx980_epower_magicyiuy9.jpg (http://abload.de/image.php?img=gtx980_epower_magicyiuy9.jpg)
http://trash.xdevs.com/evga/980/small/gtx980_epower_magic.jpg

Dieses dürfte wohl auch Einfluss haben wie hoch die Leistungsaufnahme ausfallen kann. Sitzt direkt hinter den VRMs auf der Platine. Auf einigen Customdesigns fehlt dieses Modul. Und damit wohl auch eine gewisse Beschränkung. Wieviel Einfluss das direkt auf die Leistungsaufnahme haben kann/hat, k.A.

-/\-CruNcher-/\-
2014-09-24, 20:50:56
Prozentual gesehen wahrscheinlich immer noch mehr als bei dir; im theoretischen Fall dass du deine billige Propaganda, die so durchschaubar wie Plexiglas ist (http://www.youtube.com/watch?v=tcV7VN3l3bY&feature=player_detailpage#t=78), mal stecken lassen würdest.

250w Custom Platinen verbrauchen mehr als 165w Ref PCBs, das ist keine Raketentechnik. Wem das nach seiner Kaufentscheidung doch nicht passt kann wie hasebaer anmerkte den Powerregler nach links ziehen. Und der damit zusammenhängende Boost ist imho ein Vorteil für den IHV, die AIBs und den Endkunden:



Vor dem Boost waren Werks OC Karten imo weitgehend überflüssig, mittlerweile kann ich als Kunde entscheiden ob mir eine günstige sparsame Karten mit Referenzleistung reicht, oder mir als Übertakter eine Version mit fetterer Platine und Kühlung hole.
Theoretisch ist diese Betrachtung sogar vom IHV unabhängig, praktisch wirbt NV mit dem Baseclock wobei der Boost (grob 25% mehr) von den eben beschriebenen Faktoren abhängt, während AMD mit dem Boost wirbt und der Baseclock (grob 30% weniger) von den eben beschriebenen Faktoren abhängt.

Blödsinn OC exestiert nicht mehr es ist generel überflüssig geworden nur noch in deinem Kopf ist es anscheinend noch präsent.

Der value ist vorberechnet der Gewinn ist vorberechnet alles ist in die Garantie eingerechnet das ist kein Overclocking mehr was es mal wahr es ist eine Kategorie die man sich bezahlen lässt und der Mehrgewinn gegenüber dem Energieverbrauch ist es meistens überhaupt nicht wert, sich veräppeln zu lassen.

Du erhälst daraus auch keinen wirklichen Vorteil die gewinne sind marginal und auf diese Gewinne baut niemand irgendwas auf sie verpuffen für den Endkunden dafür hast du aber Nachteile in vieler hinsicht.

hasebaer
2014-09-24, 20:53:55
Das passt nicht so ganz zu dem hier liegen die 970 unter der 980.

http://www.hardwareheaven.com/2014/09/geforce-gtx-980-review/

Du meinst den Verbrauch?
Ja ich sag auch nicht, dass die TDP gleich auf 225W hochschnellt, nur weil man der Karte den Raum bietet. Es kommt halt immer auch auf die Auslastung der Einheiten an, sowie der anliegenden Spannung und Frequenz.
Meine noch aktuelle GTX 670 betreibe ich immer mit +122% PT (ergo 208W TDP, statt 170W) aber der Gesamtsystemverbrauch ist nicht gleich ~40W höher, sondern es bleibt idR. bei nur so 10-15W mehr.

Aber bei den Temps sieht man ja, die 980 im Ref.Design lässt nur 81°C zu (bei PCGH sinds es zb. nur 79°C), aber selbst die "verruchte" Gigabyte 970 G1 Gaming kommt dank der super Kühlung nur auf 64°C obwohl man nur 6W unter der 980 liegt.

Und das ist auch der einzige fette Kritikpunkt den ich bei der 980 habe.
Nvidia ist schlecht beraten hier so einen "Anscheins-Titankühler" zuverbauen, wenn die Karte 500€ kostet.
Dieser Anscheins-Titankühler wird wohl tatsächlich nur für max. 200W ausgelegt sein, statt auch mal max. 300W wegzukühlen, wie es das Original kann.

memoal
2014-09-24, 21:25:50
Dieser Anscheins-Titankühler wird wohl tatsächlich nur für max. 200W ausgelegt sein, statt auch mal max. 300W wegzukühlen, wie es das Original kann.
Was für eine Performancekarte vielleicht auch ausreichend ist. Wer meint im Referenzdesign wildes OC zu betreiben, macht bestimmt was falsch.

-/\-CruNcher-/\-
2014-09-24, 21:30:24
Jo und um die paar FPS mehr der Referenz zu erreichen muss man die GTX 970 auf min 225W TDP prügeln um den shader verlust ausgleichen zu können

memoal
2014-09-24, 21:42:52
Jo und um die paar FPS mehr der Referenz zu erreichen muss man die GTX 970 auf min 225W TDP prügeln um den shader verlust ausgleichen zu können
Also mit der MSI nicht, die nimmt dann 25-40w mehr, übertreiben darf man es nun mal nicht, sie liegt dann aber in Custom 780ti Bereichen und was die so raushaut dürfte bekannt sein. Und Referenz und OC passte noch nie zusammen.

http://www.eurogamer.net/articles/digitalfoundry-2014-nvidia-geforce-gtx-970-review

-/\-CruNcher-/\-
2014-09-24, 21:48:10
Die MSI ist doch dafür überdimensioniert für dieses Ziel und das wirkt sich auf den idle aus wobei wie gesagt das MSI ein eigenes sehr einfaches app dazupackt da gegenzusteuern find ich nicht schlecht :)

und ja Asus 225W angabe scheinen nochmal ihren OC headrom zu inkludieren nicht die stock base OC clock aber so gesehen legt MSI ihre karte ja auf 300W aus wenn man rein von den Anschlüssen geht (oder MSI will einfach nur mit der zwei Rail verteilung mehr sicherheit bieten) und Asus nur wie gesagt auf Max 225W

wobei ich denke diese Auslegung ist eher den Peaks geschuldet und der Belastung dieses schnellen switchen muss ja von den komponenten abgefangen werden und zudem für eine gewisse Zeit die Peaks gehalten werden ohne das die Karte abraucht.

Ich wünschte mir echt einen Effizienztest der Karten Designs vor allen Zotac,MSI, Asus und Gigabyte durchgeführt von THG ;)

Ravenhearth
2014-09-24, 22:07:38
Ich sag mal:

GM200
- 28nm TSMC, ~560mm²
- ~ 8,5 Mrd. Transistoren
- 3 Raster-Engines
- 24 SMM, 3072 Shader
- 192 TMUs
- 64 ROPs
- 384Bit Speicherinterface

Nakai
2014-09-24, 22:15:27
Von der Größe her sollten 3 SMMs etwa so groß sein bzw leicht größer sein, wie 2 SMXs. Also über 20 SMMs sollte GM200 daher schon haben.

Akkarin
2014-09-24, 22:21:17
https://i.imgur.com/DZAYS6C.jpg

Von LinusTechTips. Ich hab irgendwie auch keine andren Benchmarks für die 970 unter tess gefunden.

hasebaer
2014-09-24, 22:23:03
Was für eine Performancekarte vielleicht auch ausreichend ist. Wer meint im Referenzdesign wildes OC zu betreiben, macht bestimmt was falsch.

Darum geht es nicht.
Es geht darum, dass man für eine 500€ Karte bezahlt.
Da gehört zu gutem Ton, auch einen entsprechenden Kühler zuverbauen.
Und es ist ja nicht so, als ob Nvidia den erst entwickeln müsste.

dildo4u
2014-09-24, 22:29:12
https://i.imgur.com/DZAYS6C.jpg

Von LinusTechTips. Ich hab irgendwie auch keine andren Benchmarks für die 970 unter tess gefunden.
Stone Giant
http://abload.de/img/nvidia-geforce-gtx-986wumm.jpg

Reine Tess Benches.
www.hardware.fr/articles/928-4/performances-theoriques-geometrie.html

Akkarin
2014-09-24, 22:43:04
Irgendwas kann bei Hardware.fr nicht stimmen. Keine/Kaum Verbesserungen bei der 285, und AMD und nVidia so nah beisammen ?

Godmode
2014-09-24, 22:48:17
Blödsinn OC exestiert nicht mehr es ist generel überflüssig geworden nur noch in deinem Kopf ist es anscheinend noch präsent.


Also bei mir existiert OCing sehr wohl noch und das wird auch so bleiben. Das neue System will ich wieder mit maximalen Taktraten betreiben. Der Verbrauch ist mir herzlich egal, ich spiele ja nicht 24/7. Und OCing bringt eben nicht nur 10% mehr Leistung.

Oder was willst du uns genau sagen?

dildo4u
2014-09-24, 22:49:39
Irgendwas kann bei Hardware.fr nicht stimmen. Keine/Kaum Verbesserungen bei der 285, und AMD und nVidia so nah beisammen ?
Die 285 ist massiv schneller als die 280 und NV ist deutlich schneller als AMD kein Plan was du meinst.

Akkarin
2014-09-24, 22:59:54
Ich hatte irgendwie Tessmark Tessellation Insane im kopf, wo der unterschied (770/285 vs 280/290) beim faktor 2 lag.

-/\-CruNcher-/\-
2014-09-24, 23:11:38
Denke mal das kann man gut als Referenz nehmen da ist man bei jedem Design wohl auf der sicheren seite :)

3、Minimum 500W or greater system power supply (with a minimum 12V current rating of 42A)


Die einzigste Angabe bis jetzt die wirklich so genau ist :)

also bei den Designs mit 2 Rails kann man dann von 20A absicherung pro Rail ausgehen bei Asus sollte man die 42A folglich dann auf einer Rail lieferen können

memoal
2014-09-24, 23:50:31
Was ist denn das hier? http://wccftech.com/nvidia-geforce-gtx-980-ti-gtx-titan-x-coming/

BlacKi
2014-09-25, 00:40:11
Was ist denn das hier? http://wccftech.com/nvidia-geforce-gtx-980-ti-gtx-titan-x-coming/

50% vor der titan black? da kann amd einpacken bevor sie ausgepackt haben.

natürlich wird fiji keine 999$ gpu wie big daddy, aber irgendwas lässt mich zweifeln das amd sie ordentlich positionieren kann.

AffenJack
2014-09-25, 07:58:54
Das ist doch nur der gleiche Bullshit von OBZ nun von wccfttech geposted. Grandios.

Ailuros
2014-09-25, 08:37:16
Ich sag mal:

GM200
- 28nm TSMC, ~560mm²
- ~ 8,5 Mrd. Transistoren
- 3 Raster-Engines
- 24 SMM, 3072 Shader
- 192 TMUs
- 64 ROPs
- 384Bit Speicherinterface

Ueber 15Mio/mm2 Packdichte unter 28nm? Sonst sind die ROPs nach wie vor ans SI gekoppelt (ergo fuer 384bit = 96 ROPs) und es kann auch nicht weniger GPCs als GM204 selber haben. 6 rasters mit 16 pixels/clock macht 96 pixels/clock ;) Transistoren? Die Zahl schwirrt doch schon seit einer Ewigkeit rum :P

Reine 3DC Spekulation:

* 561mm2
* 7.9b transistors
* 6 GPCs, 16 pixels/clock/raster
* 4 SMM/GPC
* 4 SIMD32/SMM
* 2 quad TMUs/SMM
* 6*64bit MC
* 16 ROPs/partition
* 64 FP64 SPs/SMM

mal sehen wie viele Rotz-abschreiber das jetzt weitertragen :P

Godmode
2014-09-25, 10:03:24
Ueber 15Mio/mm2 Packdichte unter 28nm? Sonst sind die ROPs nach wie vor ans SI gekoppelt (ergo fuer 384bit = 96 ROPs) und es kann auch nicht weniger GPCs als GM204 selber haben. 6 rasters mit 16 pixels/clock macht 96 pixels/clock ;) Transistoren? Die Zahl schwirrt doch schon seit einer Ewigkeit rum :P

Reine 3DC Spekulation:

* 561mm2
* 7.9b transistors
* 6 GPCs, 16 pixels/clock/raster
* 4 SMM/GPC
* 4 SIMD32/SMM
* 2 quad TMUs/SMM
* 6*64bit MC
* 16 ROPs/partition
* 64 FP64 SPs/SMM

mal sehen wie viele Rotz-abschreiber das jetzt weitertragen :P

Dann war ich ja nicht so schlecht beim ALU und GPC Ratespiel :)

Das Ding jetzt bitte noch vor Weihnachten und ich bin wieder für ne Weile zufrieden.

Ailuros
2014-09-25, 10:05:41
Dann war ich ja nicht so schlecht beim ALU und GPC Ratespiel :)

Das Ding jetzt bitte noch vor Weihnachten und ich bin wieder für ne Weile zufrieden.

Ein vierer-Pack mit $999 pro Stueck? :freak:

aufkrawall
2014-09-25, 10:09:11
Macht Sinn fürs Rift, wenn man vier Augen hat.

Godmode
2014-09-25, 10:24:36
Ein vierer-Pack mit $999 pro Stueck? :freak:

Nein, ich bleibe bei maximal 2. Mit 3 und 4 läuft das ganze IMHO nicht mehr so rund.

Btw. 980 Ti oder Titan 2 mit 8 GB hoffentlich.

Hübie
2014-09-25, 10:25:40
What-the-fuck-tech schreibt eh nur ab. Egal ob von Mister told-you-so, dem Oberschlaumaier oder Hans Dampf. Da geb ich erst mal nix drauf ausser dass es n feuchter Traum ist. Wobei Titan Black konservativ getaktet ist. 40% lass ich mir schmecken.
@godmode: 8 GB mit 384 Bit ist eher unwahrscheinlich.

Nightspider
2014-09-25, 11:04:21
Nein, ich bleibe bei maximal 2. Mit 3 und 4 läuft das ganze IMHO nicht mehr so rund.

Btw. 980 Ti oder Titan 2 mit 8 GB hoffentlich.

Was du planst mit Oculus Rift zu spielen könnte sich 4way SLI wieder lohnen, da dann jeweils 2 Karten an einem Bild arbeiten könnten und sich 4way SLI so verhalten könnte, wie es jetzt 2 Karten tun.

aufkrawall
2014-09-25, 11:23:03
Was du planst mit Oculus Rift zu spielen könnte sich 4way SLI wieder lohnen, da dann jeweils 2 Karten an einem Bild arbeiten könnten und sich 4way SLI so verhalten könnte, wie es jetzt 2 Karten tun.
Mikroruckler und Input Lag bei VR?
Klingt ungesund.

Nightspider
2014-09-25, 11:26:04
Ziel bei VR ist es hohe FPS Raten zu erreichen und oberhalb von 80fps dürften die Mikroruckler von 2 Karten quasi nicht auffallen.

aufkrawall
2014-09-25, 11:28:22
Ohne fps-Limiter merkst du den Lag auch oberhalb von 80fps deutlich und AFR bringt meist leider nicht nur eine feste Varianz bei den Frametimes, sondern auch wesentlich mehr Ausreißer, die man auch bei sehr hohen fps bemerkt.

fondness
2014-09-25, 11:39:50
Ueber 15Mio/mm2 Packdichte unter 28nm? Sonst sind die ROPs nach wie vor ans SI gekoppelt (ergo fuer 384bit = 96 ROPs) und es kann auch nicht weniger GPCs als GM204 selber haben. 6 rasters mit 16 pixels/clock macht 96 pixels/clock ;) Transistoren? Die Zahl schwirrt doch schon seit einer Ewigkeit rum :P

Reine 3DC Spekulation:

* 561mm2
* 7.9b transistors
* 6 GPCs, 16 pixels/clock/raster
* 4 SMM/GPC
* 4 SIMD32/SMM
* 2 quad TMUs/SMM
* 6*64bit MC
* 16 ROPs/partition
* 64 FP64 SPs/SMM

mal sehen wie viele Rotz-abschreiber das jetzt weitertragen :P

Das wäre jedenfalls von GM204 ausgehend erstaunlich viel. 50% mehr SMM plus insgesamt 1536 FP64 SPs, plus 50% mehr ROPs/SI, plus 50% mehr GPCs und das alles in nur 40% mehr Die-Size?

boxleitnerb
2014-09-25, 11:49:13
Möglich, die statischen Anteile werden ja nicht größer. Der Kram, der skaliert, macht nicht die ganze GPU aus.

fondness
2014-09-25, 11:53:23
Möglich, die statischen Anteile werden ja nicht größer. Der Kram, der skaliert, macht nicht die ganze GPU aus.

Schon klar, aber wenn wirklich alles von ROPs über SI bis hin zu SPs und GPCs um 50% erhöht wird und dann auch noch erheblich Double-Precision Leistung dazu kommt wäre das schon beachtlich.

Alleine die angeblichen 1536 FP64 ALUs sollten gut Platz brauchen.

Ailuros
2014-09-25, 12:10:56
Das wäre jedenfalls von GM204 ausgehend erstaunlich viel. 50% mehr SMM plus insgesamt 1536 FP64 SPs, plus 50% mehr ROPs/SI, plus 50% mehr GPCs und das alles in nur 40% mehr Die-Size?

Ich hab es als Spekulation mit Absicht betitelt und mit Verlaub macht das Ganze von vorne bis hinten um zich mal mehr Sinn als der Mist der in letzten Tagen herumschwirrt.

7.9 vs. 5.2b sind 52% mehr Transistoren und ich hab schon zich Male wiederholt dass ich auf GM200 eine um einiges hoehere Packdichte erwarte. Wenn man von 13 auf 14Mio/mm2 steigt dann wird auch eventuell weniger die area verbraucht.

Alleine die angeblichen 1536 FP64 ALUs sollten gut Platz brauchen.

Sonst da Dir und anderen die FP64 SPs konstant "Sorgen" machen: nochmal nur fuer synthesis nehmen die hypothetische zusaetzlichen 1472 FP64 SPs die "Unsumme" von 36,80mm2 unter 28nm ein wenn man auf 1GHz takten will. Wird wohl nicht ueber 850MHz steigen damit der Stromverbrauch nicht durch die Decke haut, ergo rechne selber weiter. So und jetzt definier mal "gut" :rolleyes:

Ein GM204 hat 3.2x Mal so viele FP64 SPs wie ein GM107, hat insgesamt 2.78x Mal mehr Transistoren und 2.69x Mal mehr die area. Der hypothetische GM200 hier hat 24.0x Mal so viele FP64 SPs, 1.52x Mal mehr Transistoren und 1.41 Mal mehr die area.

GM107 vs. GM204

GPCs Faktor 4.0
SMM Faktor 3.2
TMU Faktor 3.2
ROP Faktor 4.57
FP64 Faktor 3.2
Trans. Faktor 2.78
area Faktor 2.69

GM204 vs. "GM200"

GPCs Faktor 1.5
SMM Faktor 1.5
TMU Faktor 1.5
ROP Faktor 1.5
FP64 Faktor 24.0
Trans. Faktor 1.52
area Faktor 1.41

Godmode
2014-09-25, 13:31:57
@godmode: 8 GB mit 384 Bit ist eher unwahrscheinlich.

Omg, Schande über mein Haupt. ;D Das müssen dann natürlich 6GB bzw. 12GB sein.

Was du planst mit Oculus Rift zu spielen könnte sich 4way SLI wieder lohnen, da dann jeweils 2 Karten an einem Bild arbeiten könnten und sich 4way SLI so verhalten könnte, wie es jetzt 2 Karten tun.

Wäre sicher interessant, aber die sollen erstmal einen wirklich gute VR-Brille entwickeln.


GM204 vs. "GM200"

GPCs Faktor 1.5
SMM Faktor 1.5
TMU Faktor 1.5
ROP Faktor 1.5
FP64 Faktor 24.0
Trans. Faktor 1.52
area Faktor 1.41

Das sieht ganz schlüssig aus. Mal sehen was dann wirklich kommt.

Godmode
2014-09-25, 19:34:00
Weiß man eigentlich ob GM204 eventuell auch schon 1:2 DP kann? Wenn man GM204 im Profisegment ansiedelt, würde das ja Sinn machen.

=Floi=
2014-09-25, 19:40:44
GM104 kann 1/32 DP

M4xw0lf
2014-09-25, 19:44:30
Weiß man eigentlich ob GM204 eventuell auch schon 1:2 DP kann? Wenn man GM204 im Profisegment ansiedelt, würde das ja Sinn machen.
Ich glaube nicht, dass der viel mehr als 1/32 kann, dafür leistet sich Nvidia ja dicke Chips wie den GK110 und den GM200.

Ailuros
2014-09-25, 19:44:55
GM104 kann 1/32 DP

Haarspalterei GM204 da >DX11.0 beim GM107. 204 hat ebenso wie der GM107 4 FP64 SPs/SMM.


http://www.hardware.fr/medias/photos_news/00/45/IMG0045595_1.jpg

http://www.hardware.fr/articles/928-23/gm204-smm-nouveautes.html

Timbaloo
2014-09-25, 20:01:25
Haarspalterei GM204 da >DX11.0 beim GM107.
Ist das denn bestätigt dass die 2 daher kommt?

Hübie
2014-09-25, 20:06:23
Das war wohl eher ein Anfall von Zählwut bei Jensen der mit der Ziffer 2 endete X-D Die 1 in GK110 kommt ja angeblich* von der verbesserten compute-fähigkeit ggü. 104 ;D

*weiß gar nicht mehr wer das sagte, aber wird schon stimmen.

Ailuros
2014-09-25, 20:11:31
Ist das denn bestätigt dass die 2 daher kommt?

Ich kann mir keinen besseren Grund vorstellen :D

Timbaloo
2014-09-25, 20:15:36
Ich konnte mir immer schon gut vorstellen, dass GM104 und Konsorten in 20SoC geplant wurden, dann GM204 und Konsorten als 28nm-Backup-Lösung gestartet wurden als die Gefahr da war 20SoC (aus welchen Gründen auch immer) fallen lassen zu müssen, was ja dann letztlich auch passiert ist.

Coda
2014-09-25, 20:58:03
Ist das denn bestätigt dass die 2 daher kommt?
Nein, aber doch sehr wahrscheinlich. Das sind ja durchaus recht umfangreichte Veränderungen für den 11.3/12-Support.

Ailuros
2014-09-25, 21:04:15
NV nennt GM20x nicht zufällig 2nd Generation Maxwell. 204 kam wie lange später als 107 an? So viel Zeit brauchten sie ungefähr das >DX11 Zeug einzubauen.

Hatten sie auch noch von 28 auf 20nm gewechselt haette es womöglich noch länger gedauert.

Fiji im Gegensatz kommt so spät weil sie auch noch HBM als Meilenstein haben.

Nebenbei ist das iPhone6 gerade erst in Produkten erschienen. Rechne mal zumindest
1.5 Jahre zurück für dessen tapeout. So lange ist es schon IHVs bewusst wo Apple herstellen wird.

Hübie
2014-09-25, 21:16:25
Ende Juni 2012 hatte ASML die ersten 20-nm-step/scan Geräte verschafft. Kurz darauf liefen die ersten GK110 vom Band. Und im Herbst wurden erste 20-nm-Chips gefertigt (risk, keine Ahnung was das war). Also wusste nVidia schätzungsweise Anfang 2013 dass es mit 20 nm wohl nix wird.

Unicous
2014-09-26, 20:39:36
Sehr oberflächliche Vorstellung von Maxwell mit Tom Peterson, aber die Demos (Global Illumination mit Hilfe von Voxeln) sind ganz nett.

cr-GToUHino

Ryan Shrout fragt mal wieder sehr investigativ nach mit dem "Okay *schulterzuck*".:freak:

Hübie
2014-09-26, 22:42:58
Ryan Shrout fragt mal wieder sehr investigativ nach mit dem "Okay *schulterzuck*".:freak:

Hahahaaaa... :freak: Ich liebe das. Vor allem sieht man es dann bei ihm oben rattern:biggrin:
Aber man kennt das ja irgendwie. Ich werds mir bei Gelegenheit mal ansehen. Danke fürs verlinken.

AnarchX
2014-09-27, 13:13:38
Auf der Spur von GM206: eventuell nur 8 SMM. (http://www.pcdvd.com.tw/showthread.php?p=1084866364)
Das wäre dann wieder vergleichbar zu GF1x6.

Das könnte natürlich erklären warum es mit N16E-GT einen auf 10 SMM beschnitten GM204 gibt.
Die Zauba-Listungen deuten jedoch auf 192-Bit hin. Mit vielleicht 6Gbps 192-Bit und OC-GM204-Spannung kommt man da möglichweise auf ~60% der GTX 980 und in das Territorium von GTX 760/R9 285. Wenn da die TDP in der Nähe von 100W (~110W) bleibt und man wieder bei 220-240mm² landet, wäre das für NV durchaus vorteilhaft.

Leonidas
2014-09-28, 08:55:33
Angesichts von 5 SMM bei GM107 wäre dies arg wenig ... aber andererseits sind 1024 SE auch nicht wenig. Würde aber dann kaum GTX770-Niveau erreichen können, sprich NV bräuchte eventuell noch eine weitere GM204-Abspeckung.

Mit 8 SMM + 192 Bit wären möglich: Niveau GTX 760 +X
Mit 10 SMM + 192 Bit wären möglich: knapp Niveau GTX 770

AnarchX
2014-09-28, 10:15:15
Sollte die GTX 960 wirklich innerhalb der nächsten Wochen auftauchen, ist die Wahrscheinlichkeit hoch, dass es GM204 ist. Das wird auch in dem Forum-Link so geäußert.

Ausgehend von GK104:GK106, könnte ein 10SMM GM206 wohl bei ~300mm² liegen. Das ist NV eventuell zu groß. Ein 8SMM ~240mm² Chip wäre für das $149-199 Segment durchaus eine profitable Konfiguration und mit 192-Bit kann man auch den 3GiB Zwischenschritt gehen.

von Richthofen
2014-09-28, 13:30:35
Da gänge man aber schon früh beim Abspecken in die Vollen.
Eine GTX 960 mit GM204 und vllt. noch ein/zwei SKUs mit dem GM206, (der GM200 scheint ja auch nicht in all zu weiter Ferne) hätte man in sehr kurzer Zeit ein ziemlich ansehnliches Maxwell-basierendes Portfolio im Desktop zusammen. Das zog sich in jüngerer nV-Vergangenheit gern (viel) länger hin.

Hab mal nachgeschaut (Desktop-SKUs): bei den Topchips (Performance-Highend) geht man mit den ALus nie (G80 aufwärts) mehr als 33% runter. Beispielsweise GK110 von 2880 (780 Ti) auf 2304 (780 Vanilla, -33%) oder GK104 von 1536 (680/770) auf 1152 (760, -25%).
Ein Mainstream/Lowendchip hingegen "verliert" schonmal bis zu 50% Ausführungseinheiten.

Weniger als 12 freigeschaltete SMMs bei GM204 wäre somit "Rekord" unter Unified-Architekturen bei nV.
Wenn nV bei GM204 die Verwurstungsmaschinerie schon in so kurzer Zeit hochfährt, kann AMD sich die Schlüpfer schonmal bis in die Achseln hochziehen.

Aber mal anders herum:
Gibt es Hinweise auf eine Möglichkeit zusätzliche Rechenwerke (970) freizuschalten? Solche Möglichkeiten sind ja eher im Roten Lager bekannt.

Hübie
2014-09-28, 13:38:16
Soviel ich weiß macht nVidia da schon seit einer Ewigkeit lasercut. Man möge mich korrigieren.

mczak
2014-09-29, 03:46:12
Ausgehend von GK104:GK106, könnte ein 10SMM GM206 wohl bei ~300mm² liegen. Das ist NV eventuell zu groß. Ein 8SMM ~240mm² Chip wäre für das $149-199 Segment durchaus eine profitable Konfiguration und mit 192-Bit kann man auch den 3GiB Zwischenschritt gehen.
Den Grössenunterschied zwischen 8 und 10 SMM Konfiguration kann ich jetzt nicht nachvollziehen. Bleibt sonst alles gleich dürfte das etwa ~30mm² ausmachen. Ein 10 SMM 192bit SM206 müsste deutlich unter 300mm² bleiben.

Ailuros
2014-09-29, 09:23:46
Sollte die GTX 960 wirklich innerhalb der nächsten Wochen auftauchen, ist die Wahrscheinlichkeit hoch, dass es GM204 ist. Das wird auch in dem Forum-Link so geäußert.

Ausgehend von GK104:GK106, könnte ein 10SMM GM206 wohl bei ~300mm² liegen. Das ist NV eventuell zu groß. Ein 8SMM ~240mm² Chip wäre für das $149-199 Segment durchaus eine profitable Konfiguration und mit 192-Bit kann man auch den 3GiB Zwischenschritt gehen.

Nur so am Rand: ich bezweifle ernsthaft dass ein hypothetischer 240mm2 chip unter 28nm mehr als $40 in Herstellung kostet heutzutage und schon die 40 sind verdammt grosszuegig.

Hübie
2014-09-29, 10:41:36
Dann kann man auch gleich GK104 weiter laufen lassen.

Ailuros
2014-09-29, 10:54:33
Dann kann man auch gleich GK104 weiter laufen lassen.

Ich bezweifle dass es notebook OEMs aus ihren Socken hauen wuerde ;)

differenzdiskriminator
2014-09-29, 11:11:45
Auf die ersten Testberichten zu GM204 im Mobile bin ich tatsächlich mal gespannt...

Hübie
2014-09-29, 11:14:39
Ich bezweifle dass es notebook OEMs aus ihren Socken hauen wuerde ;)

Ach was. Da wird die Eins gestrichen und durch eine fette Zwei ersetzt. Schon sind die glücklich. Machen die doch sonst auch. :D

Ailuros
2014-09-29, 11:16:25
Ach was. Da wird die Eins gestrichen und durch eine fette Zwei ersetzt. Schon sind die glücklich. Machen die doch sonst auch. :D

Auch beim Stromverbrauch? :P

Dawn on Titan
2014-09-29, 11:25:39
GM206 könnte 670M Leistung für 40-45W TDP abliefern. Das wäre in der Klasse von 30-45W ein ziemlicher Sprung.

ilibilly
2014-10-02, 18:37:26
Ne Frage ne die Experten,denkt ihr das Big Maxwell ,die nächsten 90 Tage erscheint?
Bei evga gibts ja Sosein stepup Programm,wo quasi der bezahlte NP berechnet wird wenn man upgraden will,allerdings eben bis 90 Tage nach Kauf.
Der Plan wäre ne 980gtx für 550 zu holen und für einen womöglichen Big maxx mit 6gb der 699€ kostet 149 draufzulegen,

Godmode
2014-10-02, 18:50:09
Ne Frage ne die Experten,denkt ihr das Big Maxwell ,die nächsten 90 Tage erscheint?
Bei evga gibts ja Sosein stepup Programm,wo quasi der bezahlte NP berechnet wird wenn man upgraden will,allerdings eben bis 90 Tage nach Kauf.
Der Plan wäre ne 980gtx für 550 zu holen und für einen womöglichen Big maxx mit 6gb der 699€ kostet 149 draufzulegen,

Möglich. Ich denke aber nicht das es GM200 so billig geben wird.

Edgecrusher86
2014-10-02, 19:02:46
Falls GM200 Ende tatsächlich Ende diesen Jahres noch kommen sollte, dann vermutlich nur als "TITAN" - mit unter 950€ UVP wird das also nichts.
Salvage dürfte dann wieder so 3 Monate später für um die 650€ (Ref) kommen. Ich vermute mal, dass dieser dann als "GTX 980 Ti oder GTX 1xxx" mit 6GB erscheint.
Die nächste TITAN, um den Preis in die Höhe zu treiben, sogar mit 12GB - denn nur DP als einzigen Unterschied zum Salvage neben grob 10 - 15% Mehrleistung zu bieten, ist dann doch etwas mager aus meiner Sicht, um zum Beispiel 300€ oder mehr Aufpreis zu rechtfertigen. Fiji XT und PRO dürfte in Q2 '15 ja vermutlich mit 8GB kommen - insofern wär NV vll. nicht schlecht beraten, bei der dicksten Consumer-Karte diesen Wert zu überbieten.

Eines ist natürlich klar - kommt die nächste TITAN in Q1, dann muss man sicherlich wieder bis Mitte/Ende Mai warten, bis eine Salvage-Karte im Sub-$700-Segment aufschlägt.
Ein zeitnaher Launch der beiden schnellsten SGPUs dürfte unwahrscheinlich sein, wenn AMD noch nichts abgeliefert haben sollte.


Ich hoffe das GM200 noch dieses Jahr erscheint, von mir aus auch als Titan. Zwei davon sind schon fix eingeplant für das neue System.

Same here. :biggrin:


edit: Alle die ne Titan gekauft haben, haben alles richtig gemacht. Erst die 980 lässt die Titan etwas alt aussehen.

So sieht es aus - allerdings nichts, wo man jetzt unbedingt wechseln müsste - alleine schon, dass man "nur" 4GB VRAM hätte. Beruhigt zurücklehnen ist hier die Devise. Wenn dann richtig aufrüsten.

Das einzige "Problem" ist halt die "Langeweile" zwischen den Generationen...aber immerhin hat sich so der Preis amortisiert -> 2x TITAN zu Launch gekauft - je 2x 500€(+) Karten 2013/2014 gespart. Insofern war es jetzt auch nicht teurer....;D

Mit GM200 TITAN kann man es dann wieder genauso handhaben. Warten bis der dicke Pascal kommt. :)

Godmode
2014-10-02, 19:06:09
Ich hoffe das GM200 noch dieses Jahr erscheint, von mir aus auch als Titan. Zwei davon sind schon fix eingeplant für das neue System.

edit: Alle die gleich am Anfang eine Titan gekauft haben, haben alles richtig gemacht. Erst die 980 lässt die Titan etwas alt aussehen. Auch wenn der Preis für die Titan sehr hoch war, hatte man bis jetzt noch immer eine sehr konkurrenzfähige GPU.

Knuddelbearli
2014-10-02, 22:10:48
Gut dann habe ich ja alles richtig gemacht auch wenn ich dei Titan nicht behalten habe XD

Godmode
2014-10-02, 22:22:41
Können wir nicht ein Crowdfunding starten, um genügend Bestechungsgeld zu Sammeln, um das GM200 Launchdatum zu erfahren? :biggrin:

On Topic: 6 oder 12 GB VRAM, was meint ihr?

Botcruscher
2014-10-03, 09:43:16
6 oder als Überraschung 8. Mehr wird nicht.

Ailuros
2014-10-03, 09:47:13
6 oder als Überraschung 8. Mehr wird nicht.

Mit einem 384bit bus 8GB? Zu umstaendlich. Falls sie einen Titan2 planen wird dieser sehr wohl 12GB haben und Du kannst Gift drauf nehmen dass mit dem MSRP dass das Ding haben wird sie immer noch brutalen Gewinn machen werden; sonst desktop GM200 SKUs default 6GB, vendor Initiativen auch bei 12GB mit Wucherpreisen.

Skysnake
2014-10-03, 12:05:43
Erwarte ich auch so.

Ailuros
2014-10-03, 12:11:58
Wobei ich mich wundere wieso NV noch keine "GTX990" mGPU auf einer Art GTX970 Basis veroeffentlicht hat, um hier den naechsten $999 MSRP zu haben bis GM200 in breiterer Masse erscheinen wird.

Edgecrusher86
2014-10-03, 12:23:39
Bei einer GTX 990 dürfte normal 2x GTX 980 mit etwas niedrigeren Taktraten bei etwas über 300W drin sein. Auf 970 Basis nur, wenn man immer unterhalb 300W bleiben möchte. Wobei ja auch die 690 mit 1019 MHz Boost bei vollem GK104 nur einen durchschnittlichen Verbrauch von um die 270W hat. Insofern sollte auch eine 990 mit je 16 SMM bei 11xx MHz boost bei maximal 330W möglich sein. Vermutlich kommt die 990 vor Titan - GM204 ist ja gerade dazu prädestiniert für eine flotte und sparsame Dual-GPU-Karte bei maximaler Gewinnspanne.

Sunrise
2014-10-03, 12:44:05
Wobei ich mich wundere wieso NV noch keine "GTX990" mGPU auf einer Art GTX970 Basis veroeffentlicht hat, um hier den naechsten $999 MSRP zu haben bis GM200 in breiterer Masse erscheinen wird.
Möglicher Grund:
2x GTX970 wären einfach zu schnell und würden GM200 gefährden. Den MSRP will sich NV wohl exklusiv für Titan reservieren. Von GM200 würde ich sowieso keine Wunder erwarten, in Anbetracht der Die-size von GM204.

dildo4u
2014-10-03, 12:45:11
Die Dual Karte wäre eh kein guter Kauf,da sie nur 4GB pro GPU haben wird.

Ailuros
2014-10-03, 12:46:36
Die Dual Karte wäre eh kein guter Kauf,da sie nur 4GB pro GPU haben wird.

Was sie aber durchaus von dem hier aufgehalten hat http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-690/specifications obwohl es auch keine direkte Not dafuer gab ausser vielleicht fuer einen $999 MSRP Platzhalter.

Möglicher Grund:
2x GTX970 wären einfach zu schnell und würden GM200 gefährden. Den MSRP will sich NV wohl exklusiv für Titan reservieren. Von GM200 würde ich sowieso keine Wunder erwarten, in Anbetracht der Die-size von GM204.

Es wird ziemlich lange dauern bis Pascal erscheinen wird so wie es aussieht. Wie willst Du bis dahin die gesamte Langeweile genau verstreuen? Idiotische Angebote gibt es von beiden IHVs; es ist ja nicht gerade so dass ein Titan Z irgendwie sinnvoll ist bei dem Preis.

Botcruscher
2014-10-03, 12:58:06
Mit einem 384bit bus 8GB? Zu umstaendlich. Keine Ahnung ob die 384Bit jetzt feststehen.
Falls sie einen Titan2 planen wird dieser sehr wohl 12GB haben und Du kannst Gift drauf nehmen dass mit dem MSRP dass das Ding haben wird sie immer noch brutalen Gewinn machen werden; sonst desktop GM200 SKUs default 6GB, vendor Initiativen auch bei 12GB mit Wucherpreisen.

Titan2 kommt mit 6G für Wucherpreise und Monate später die Black mit 12. Es hat schon einmal funktioniert.

Sunrise
2014-10-03, 12:59:45
Es wird ziemlich lange dauern bis Pascal erscheinen wird so wie es aussieht. Wie willst Du bis dahin die gesamte Langeweile genau verstreuen? Idiotische Angebote gibt es von beiden IHVs; es ist ja nicht gerade so dass ein Titan Z irgendwie sinnvoll ist bei dem Preis.
Wenn NV ganz dreist ist könnten sie GM200 erstmal im Profimarkt im Vollausbau verkaufen, während GM200 Salvage dann erstmal als GTX990 Ti für $699-$849 erscheint und dann den GM200-Vollausbau später als Titan für Consumer bringen. Sei froh das ich nicht bei NV arbeite. :D

Der mGPU-Lückenfüller würde evtl. dieses Preisgefüge zerstören. Ich bin mir nicht sicher, ob da eine mGPU überhaupt reinpasst.

Dawn on Titan
2014-10-03, 13:04:09
Wobei ich mich wundere wieso NV noch keine "GTX990" mGPU auf einer Art GTX970 Basis veroeffentlicht hat, um hier den naechsten $999 MSRP zu haben bis GM200 in breiterer Masse erscheinen wird.

mGPU ist nur relevant um die schnellste Karte zu haben, das schafft GM200 Titan auch so. Die 790 hat sich als ziemlicher Reinfall erwiesen. Die Leute die so viel Geld ausgeben und SLI wollen kaufen eher 2xTitan, was für NV auch besser ist, während der Imagegewinn minimal war.

hasebaer
2014-10-03, 13:21:19
Wobei ich mich wundere wieso NV noch keine "GTX990" mGPU auf einer Art GTX970 Basis veroeffentlicht hat, um hier den naechsten $999 MSRP zu haben bis GM200 in breiterer Masse erscheinen wird.

Es sind doch erst 2 Wochen seit Release der 980/970 und die Titan Z ist auch noch nicht abverkauft.

Ailuros
2014-10-03, 13:47:20
Wenn NV ganz dreist ist könnten sie GM200 erstmal im Profimarkt im Vollausbau verkaufen, während GM200 Salvage dann erstmal als GTX990 Ti für $699-$849 erscheint und dann den GM200-Vollausbau später als Titan für Consumer bringen. Sei froh das ich nicht bei NV arbeite. :D

Der mGPU-Lückenfüller würde evtl. dieses Preisgefüge zerstören. Ich bin mir nicht sicher, ob da eine mGPU überhaupt reinpasst.

Es hat NIE reingepasst auch im Fall von der 690 nicht. Das daemliche ist lediglich dass NV es vor nicht allzu langem schon mal gemacht haben und wenn sie gut genug damit kassiert haben, haelt NV relativ wenig auf es zu wiederholen.

Dass ich persoenlich nichts von mGPUs jeglicher Art generell und auch >$600 Produkte halte sollte bekannt sein.

Knuddelbearli
2014-10-03, 15:17:35
12Gb und 1499$Dollar für Titan 3

dildo4u
2014-10-07, 12:05:52
GeForce GTX 970m on the other hand only sports 1280 CUDAs. This card also comes with shorter bus width (192-bit) and less memory (starting with 3GB).

http://videocardz.com/52978/nvidia-launches-geforce-gtx-980m-and-gtx-970m

Das dürfte die Desktop 960 sein.

-/\-CruNcher-/\-
2014-10-07, 12:07:08
http://videocardz.com/52978/nvidia-launches-geforce-gtx-980m-and-gtx-970m

Das dürfte die Desktop 960 sein.

Jup sollte passen ca doppelte cores von der 750 TI somit etwas unter GM204 GTX 970 und mit ca 100-120W TDP nehmen wir mal an :)

Calypso
2014-10-07, 16:02:28
also alles in allem genauso schnell wie eine 760? Wenn man bedenkt, dass in den Preisbereichen wesentlich mehr Karten verkauft werden als > 200 Euro könnten sich aber sehr sehr viele verarscht vorkommen, wenn sie nach einem Wechsel keinen Unterschied in der Performance spüren... :eek:

mczak
2014-10-07, 17:33:29
Ich bin von einer GM204 Desktop GTX 960 nach wie vor nicht überzeugt. Mit 10 SMM / 192bit dürfte so etwas zwar performancemässig irgendwo zwischen GTX 760 und 770 liegen, bloss frage ich mich ob sich das lohnt. Das Board dürfte zwar billiger werden der Chip ist aber doch erheblich grösser, da kann nvidia ja genau so gut auf gm206 warten und weiterhin den ollen gk104 verkaufen. Bei Notebooks ist das natürlich aufgrund der viel höheren Bedeutung des gesunkenen Strombedarfs etwas ganz anderes.

dildo4u
2014-10-07, 17:37:36
Die Leute mit 670/760 müssen aufrüsten weil sie 2GB Krüppel haben,mit 3Gb kann man wenigsten Konsolenqaulität zocken.

hasebaer
2014-10-08, 13:18:23
Nvidia GeForce GTX 960 auf 2015 verschoben
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-960-auf-2015-verschoben/

... bis dahin ist GM206 wahrscheinlich eh fertig.

Dural
2014-10-08, 13:27:33
schlecht von NV, die grosse Nachfrage der 970 hätten sie eigentlich sehen kommen müssen. spätestens seit es die R285 gibt. eventuell reichte die zeit halt nicht mehr aus um mehr zu bestellen / oder generell keine Kapazitäten mehr vorhanden waren.

Blediator16
2014-10-08, 13:34:20
Jap. Ich wollte evtl. von der 660 auf eine 860 wechseln, aber da es so lange dauert, könnte AMD dann doch eine Alternative werden, falls sie da auch was haben bzw. kurz danach was kommt.

hasebaer
2014-10-08, 14:10:49
schlecht von NV, die grosse Nachfrage der 970 hätten sie eigentlich sehen kommen müssen.

Es wurde doch gefordert das die 970 nicht wieder um 400€ startet wie die GTX 670 damals. ... ist also auch wieder Falsch ... ;D

Akkarin
2014-10-08, 14:20:01
Wieso gehen so viele seiten davon aus das die 960 ein GM204 chip wäre ?

Sunrise
2014-10-08, 15:41:49
Die Aussage von NV heißt übersetzt, dass man mehr Geld mit GM204 verdienen kann, wenn man sie als 970/980 verkauft, zudem müsste man wohl wahrscheinlich die 960er-Bestände künstlich füllen, damit man dann die Nachfrage bedienen kann. Das ergibt vorne und hinten nur Sinn, wenn es Yield-Probleme gäbe und man genug verwertbaren Ausschuss hat.

Somit schiebt man einfach die Vorstellung für den eigentlichen GM206 weiter raus, weil es dafür ein separates ASIC gibt, zusammen mit einem PCB und den restlichen Komponenten, die allesamt billiger in der Herstellung sind.

Dass NV zuwenig GM204 bestellt hat, ist wohl ein anderes Thema, vor allem im letzten Quartal des Jahres (sehr bald ist Weihnachtszeit). Ist schon etwas eigenartig, die Nachfrage hätte doch aufgrund der für NV-Verhältnisse recht moderaten Preise gut abgeschätzt bzw. bekannt sein müssen. Ist ja jetzt nicht so als gäbe es da viele Alternativen, wenn man nicht gerade zur Titan greifen will.

hasebaer
2014-10-08, 17:22:52
Nvidia hat einfach nur sehr früh die ersten GM204 rausgehauen und will ihre Erstkäufer der 970 nicht anpissen, also setzt man gleich bei 329 USD an.
Zudem gibt es neben der 16 SMM GTX 980 und der 13 SMM 970, auch noch eine 12 SMM GTX 980M und die 10 SMM 970M.
Maximale Salavage Ausbeute, da wird kein GM204 je ein Lagerraum sehen, die gehen sicher sofort in den Versand.

Und wenn jemand vor sechs Monaten gesagt hätte, dass GM204 am 19.Sep. einen hardlaunch hinlegt, hätte man ihn ausgelacht, weil zu der Zeit grade erst die ersten testboards auf zauba vermutet wurden.

Zum Beispiel:
Vergleicht man die Daten mit GM107, warens für A2 Stepping 8Monate bis zum release. Also hat GM204 gerade seinen Tapeout gehabt und wir sehen ihn im Dezember in A2 oder mit ganz viel Glück Oktober mit A1.

AnarchX
2014-10-08, 18:17:03
Nvidia GeForce GTX 960 auf 2015 verschoben
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-960-auf-2015-verschoben/

... bis dahin ist GM206 wahrscheinlich eh fertig.
Das passt dann schon wieder eher zu den letzten Shipping Daten von Zauba.

Eine "GTX 970M" ähnliche Konfiguration wäre wohl für NV-Verhältnisse im Desktop-Markt zu unrentabel.

MadManniMan
2014-10-08, 18:21:45
War die Idee, die 960 könnte auf dem GM204 basieren, je sonderlich salonfähig?

AnarchX
2014-10-08, 18:30:14
War die Idee, die 960 könnte auf dem GM204 basieren, je sonderlich salonfähig?
Sofern es bei einem Oktober Launch geblieben wäre, hätte es wohl ein GM204 sein müssen. Und dann gab es noch das Gerücht aus Asien mit den nur 8 SMM auf GM206, wodurch man hier durchaus ein Lücke für eine 10-12 SMM (@192-Bit) SKU gehabt hätte.

Nun können wohl in diesem Segment Tahiti und GK104 ihren dritten Geburtstag feiern. :ugly:

Akkarin
2014-10-08, 19:35:03
GM204 für 960 ti (192-256 bit, 10-12SMM) + GM206 für 960 etc.pp. macht mMn am meisten Sinn.

Allerdings müsste GM107 dann 940 und 940 ti sein, sollte nVidia sie umbennen wollen.

-/\-CruNcher-/\-
2014-10-08, 19:38:59
Nvidias Rechnung wird voll aufgehen, die Strategie die sie momentan fahren ist klasse damit hat AMD und die ex Nvidianer bei AMD wohl nicht gerechnet ;)

schlecht von NV, die grosse Nachfrage der 970 hätten sie eigentlich sehen kommen müssen. spätestens seit es die R285 gibt. eventuell reichte die zeit halt nicht mehr aus um mehr zu bestellen / oder generell keine Kapazitäten mehr vorhanden waren.

Man kann bis dahin die Treiber verbessern bug fixen und feedback ohne ende sammeln ;)

Und zum Witcher 3 start hat man alle Maxwell ready für maximale Gameworks Performance, davor hat man noch AC5 und FarCry 4.


Die 980/970 er gehen momentan als Enthusiast Beta tester ins Feld :)

Botcruscher
2014-10-08, 19:54:24
Nvidias Rechnung wird voll aufgehen, die Strategie die sie momentan fahren ist klasse damit hat AMD und die ex Nvidianer bei AMD wohl nicht gerechnet ;)

Abgesehen vom unerwartet günstigen Preis der 970 ist eigentlich nichts überraschendes dabei. PS: Wobei der auch nicht so günstig ist. Er passt halt nur ins Preisgefüge.

-/\-CruNcher-/\-
2014-10-08, 20:02:04
Ja damit pushen sie beides x60 sowie x70 der hauptfokus war ja bis jetzt immer auf x60

Godmode
2014-10-10, 10:08:45
Um GM200 ist es so still geworden, gibt es keinen neuen Gerüchte? :confused:

fondness
2014-10-10, 10:11:48
Dass NV zuwenig GM204 bestellt hat, ist wohl ein anderes Thema, vor allem im letzten Quartal des Jahres (sehr bald ist Weihnachtszeit). Ist schon etwas eigenartig, die Nachfrage hätte doch aufgrund der für NV-Verhältnisse recht moderaten Preise gut abgeschätzt bzw. bekannt sein müssen. Ist ja jetzt nicht so als gäbe es da viele Alternativen, wenn man nicht gerade zur Titan greifen will.

Die Preisentscheidung ist womöglich sehr kurzfristig gefallen...

Thunderburne
2014-10-10, 17:47:47
Um GM200 ist es so still geworden, gibt es keinen neuen Gerüchte? :confused:
Das wäre wohl zu früh informationen zu streuen.
Habe meine Ti rechtzeitig verkauft und warte nun.
Die 980 und 970 sind nicht meins haben einfach zu wennig bums.
Zur Zeit quälle ich meine PS4 um die Zeit Abends tot zu schlagen.;D
Den Unterbau habe ich in der zwischen Zeit auch noch Multi GPU fähig gemacht da vorher ein Mini ITX Impackt drin war.

Godmode
2014-10-10, 18:02:32
Das wäre wohl zu früh informationen zu streuen.
Habe meine Ti rechtzeitig verkauft und warte nun.
Die 980 und 970 sind nicht meins haben einfach zu wennig bums.
Zur Zeit quälle ich meine PS4 um die Zeit Abends tot zu schlagen.;D
Den Unterbau habe ich in der zwischen Zeit auch noch Multi GPU fähig gemacht da vorher ein Mini ITX Impackt drin war.

Ja wird wohl so sein. Wenn wirklich erst in Q12015 gelauncht wird, müssen wir noch lange warten. Ich überlege ob ich nicht doch noch eine "Übergangs GPU" ala 980 oder so kaufe. :wink:

Rampage 2
2014-10-12, 00:08:00
http://videocardz.com/52978/nvidia-launches-geforce-gtx-980m-and-gtx-970m

Das dürfte die Desktop 960 sein.

Mit 192Bit SI wären das dann aber nur 3GB VRAM - ob das wohl für die Next-Gen Spiele 2015-17 reichen wird, in 1080p @ max. Details @4xMSAA/SSAA zu spielen? Ich bezweifel das...

Wenn es wirklich nur 192Bit SI ist, wird wohl ziemlich sicher 7Gbps-Speicher verbaut - also 176GB/sek. Bandbreite. Genauso viel, wie die PS4 hat:freak:;D

Die neuen Konsolen sind sowas von Epic Fail - besonders die XBOne. Das Einzige, was wirklich gut ist, ist der solide Speicherausbau - 8GB RAM sollte das Problem mit LQ-Texturen für die nächsten 5 Jahre aus der Welt schaffen. Aber sowohl Speicherbandbreite als auch Rechenleistung sind enttäuschend - ich hätte bei der PS4 224GB/sek. oder wenigstens 192GB/sek. Speicherbandbreite erwartet sowie wenigstens 1536 Shader-Einheiten. Und die CPU bringst ja mal voll nicht:freak: - eine 8-Core-CPU von AMD mit 1.6GHz Takt:facepalm: - es hätten wenigstens 2.4-2.5GHz sein können...

Wäre das alles für 500€ nicht realisierbar gewesen?

R2

Edit, Rechenfehler - wäre doch nur 168GB/sek. bei 7Gbps-Speicher. Die PS4 ist doch schneller... ein bisschen;D

Nach wie vor finde ich die Leistungsdaten der neuen Konsolen ziemlich enttäuschend...

Rente
2014-10-12, 00:25:05
Denk noch mal nach...

Die Konsolen würden dann sowohl mehr verbrauchen als auch noch einmal deutlich heißer werden, das passt nicht zum Formfaktor.
Darüber hinaus ist Jaguar mit > 2 GHz wohl alles andere als effizient.

Ich sehe nicht wo die Konsolen "Epic-Fail" sind, mehr Leistung wäre schön gewesen (gerade bei der One), es ist aber trotzdem ein riesiger Sprung.

On Topic: Ich hab mit meiner 780 Ti aktuell kaum Bedarf, nur die Spiele die jetzt schon bei 1080p über 4GB VRAM benötigen stinken mir etwas, ich warte aber lieber auf GM200.

N0Thing
2014-10-12, 01:39:20
Wäre das alles für 500€ nicht realisierbar gewesen?

R2

Nein. Und auch nicht innerhalb von 150W TDP. Der Konsolenmarkt zielt nun einmal nicht auf Leute, die alleine für eine Grafikkarte 200€ ausgeben wollen. Diese Käufer gibt es natürlich auch, aber die Masse hat eine der beiden Konsolen und daneben keinen Spiele-PC.

Als PC-Spieler kann man sich eigentlich freuen, daß zum einen 8GB RAM/VRAM verbaut wurden und in beiden Konsolen 8-Kerner mit niedriger Taktrate verbaut wurden, das dürfte in den nächsten Jahren zwangsweise zu einer besseren Ausnutzung von mehr als vier Kernen auch auf den PCs führen.
____

Wenn der Preis der 960 ähnlich attraktiv wie bei der 970 ausfällt, dürfte auch dies eine sehr interessante Karte werden.

Hübie
2014-10-12, 01:53:39
Wenn diese ebenfalls über 3 bzw. 4 GB verfügt und 250€ Preispunkt erfüllt dann ja.

Blediator16
2014-10-12, 11:00:32
Wenn diese ebenfalls über 3 bzw. 4 GB verfügt und 250€ Preispunkt erfüllt dann ja.

Wucher. 160 sollte eher der Preis für diese Karte sein.

hasebaer
2014-10-12, 11:29:41
Eine GTX 960 Ti die der 980M einspricht (1536 ALUs, 4GB @ 256bit SI) wird sicherlich bei 250€ einsteigen.
Eine GTX 960 die der 970M entspricht (1280 ALUs, 3GB @ 192bit SI) wird sicherlich bei 180€ einsteigen, weniger wird es nicht.
AMD hat da ja nur die 285, und die ist zwar gleichschnell, aber verbraucht vermutlich 60-90Watt mehr und kostet aktuell 200€.

ilibilly
2014-10-12, 14:33:48
Die. 960ti wäre damit ja auf Augenhöhe mit der 970
Glaub kaum das Nvidia da so nah kommen will

reaperrr
2014-10-12, 14:42:31
Die. 960ti wäre damit ja auf Augenhöhe mit der 970
Glaub kaum das Nvidia da so nah kommen will
Ich auch nicht.

Außerdem meine ich irgendwo ein Gerücht gelesen zu haben, demzufolge GM206 nur 8 SMM haben wird, insofern wäre noch Platz für eine GM204-960 Ti mit 10 oder 11 SMM.

Loeschzwerg
2014-10-17, 10:23:03
Möglicherweise tut sich gerade wieder etwas an der GM206 Front

Evtl. GM206 GPU -> JISI2
49893

Sehr wahrscheinlich GM206 PCB -> 699-12726-...
49892

GM200 699-12720-... und GM204 699-12724-... PCB
49890 49891

-/\-CruNcher-/\-
2014-10-17, 10:51:17
Die. 960ti wäre damit ja auf Augenhöhe mit der 970
Glaub kaum das Nvidia da so nah kommen will

Das glaub ich nicht 2k/4k werden sicher stärker einbrechen auf der 960 und auch durchgehend 60 fps bei 1080p je nach shader belastung hab ich meine zweifel ;)

Wenn dann noch der VXGI load Physx, Hairworks und Co dazu kommen ist sehr schnell die luft raus vor allem überall above 1080p

So gesehen hat man deutlich mehr headroom mit der 970 + DX12 die diese belastung noch ordentlich stemmen könnte auch above 1080p :)

Godmode
2014-10-17, 15:01:03
Möglicherweise tut sich gerade wieder etwas an der GM206 Front

Evtl. GM206 GPU -> JISI2
49893

Sehr wahrscheinlich GM206 PCB -> 699-12726-...
49892

GM200 699-12720-... und GM204 699-12724-... PCB
49890 49891

Hmm, die sollen mal mit GM200 weitermachen, ich warte...

Loeschzwerg
2014-10-17, 15:13:51
Kann ich verstehen, dein neues 8 Kern System will auch bei der Grafikkarte entsprechend bestückt sein.

Bist aber nicht allein, ich warte auch auf den GM200 ;( Der GM204 ist zwar super, aber irgendwie dann doch ne Nummer zu lasch.

Eigentlich sollte der GM200 schon gut durch sein mit der Validierung...

Godmode
2014-10-17, 15:52:16
Kann ich verstehen, dein neues 8 Kern System will auch bei der Grafikkarte entsprechend bestückt sein.

Bist aber nicht allein, ich warte auch auf den GM200 ;( Der GM204 ist zwar super, aber irgendwie dann doch ne Nummer zu lasch.

Eigentlich sollte der GM200 schon gut durch sein mit der Validierung...

Ich kaufe mir vielleicht trotzdem 2xGM204 und verscherbel sie später hier im Forum.

Thunderburne
2014-10-19, 07:33:34
Ich kaufe mir vielleicht trotzdem 2xGM204 und verscherbel sie später hier im Forum.
Wenn man nach was grösserem strebt könnten derzeit 2*970 übergangsweise wohl die Beste Lösung sein.

Bei den 980ern im SLI habe ich so den verdacht das mann schnell viel Geld verbrennt.
Im Hinblick auf Big Max und die neuen AMDS Anfang des Jahres.

Der GM204 ist zwar ne gute Sache jedoch eigentlich nicht das was ich anstrebe.
Gerade mit DSR in 3840*2160 fehlt es noch an Rohleistung im SLI da täten noch mal ca 35%+ Mehrleistung pro GPU richtig gut.
Im Zuge dessen auch noch etwas mehr Ram.:smile:

Geil wäre es wen BiG Max mit möglichst vielen Einheiten aber etwas moderaterem Takt daher kommt so ca 1GHZ mit ca 35-40 % mehr Druck.
Unter Wakü sich dann aber auch bis zu1.5GHZ betreiben ließen inc Mod Bios.

Das klingt für den einen oder anderen vielleicht etwas übertrieben mit ca.500MHZ OC jedoch ist das nicht unrealistisch.
Zum Beispiel EX ref Gigabyte 780Ti unter Luft hat sie in meinem Gehäuse auf den Reftakt herunter getaktet und zwar 876 MHZ mit Wakü und Modbios lief sie mit 1325MHZ das sind mal eben 50% Mehrtakt gewesen.


Schade das man uns da bezüglich des Starts der GPUs so im dunkeln läst.

Hübie
2014-10-19, 13:58:32
Ich kaufe mir vielleicht trotzdem 2xGM204 und verscherbel sie später hier im Forum.

Dann melde ich schon mal interesse an :biggrin::sneak:

Meine beiden kotzen in 4k nur noch. Das bockt nicht. Also zurück auf 1440p.

Godmode
2014-10-19, 15:06:43
Wenn man nach was grösserem strebt könnten derzeit 2*970 übergangsweise wohl die Beste Lösung sein.

Bei den 980ern im SLI habe ich so den verdacht das mann schnell viel Geld verbrennt.
Im Hinblick auf Big Max und die neuen AMDS Anfang des Jahres.

Der GM204 ist zwar ne gute Sache jedoch eigentlich nicht das was ich anstrebe.
Gerade mit DSR in 3840*2160 fehlt es noch an Rohleistung im SLI da täten noch mal ca 35%+ Mehrleistung pro GPU richtig gut.
Im Zuge dessen auch noch etwas mehr Ram.:smile:

Geil wäre es wen BiG Max mit möglichst vielen Einheiten aber etwas moderaterem Takt daher kommt so ca 1GHZ mit ca 35-40 % mehr Druck.
Unter Wakü sich dann aber auch bis zu1.5GHZ betreiben ließen inc Mod Bios.

Das klingt für den einen oder anderen vielleicht etwas übertrieben mit ca.500MHZ OC jedoch ist das nicht unrealistisch.
Zum Beispiel EX ref Gigabyte 780Ti unter Luft hat sie in meinem Gehäuse auf den Reftakt herunter getaktet und zwar 876 MHZ mit Wakü und Modbios lief sie mit 1325MHZ das sind mal eben 50% Mehrtakt gewesen.


Schade das man uns da bezüglich des Starts der GPUs so im dunkeln läst.

Ja zwei 970er wären sicher vernünftiger, aber meistens reizt mich eher das unvernünftige. GM200 wird schon genug Leistung bringen, wäre dem nicht so, würden wohl die wenigsten aufrüsten.

Dann melde ich schon mal interesse an :biggrin::sneak:

Meine beiden kotzen in 4k nur noch. Das bockt nicht. Also zurück auf 1440p.

Ja falls ich was verkaufe siehst es eh im Verkaufsforum.

-/\-CruNcher-/\-
2014-10-19, 15:22:43
Wurde der Realtime FRC mit Kepler eingeführt ?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393318#post10393318

Duplex
2014-10-19, 15:24:53
Ich würde nicht mehr auf GM200 warten, besser jetzt 2x GTX970 kaufen und Spaß haben.

Wer will in paar Monaten noch GM200? Ein halbes Jahr später gibt es dann wieder was neues in 16nm ;)

Rente
2014-10-19, 15:28:35
Wurde der Realtime FRC mit Kepler eingeführt ?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393318#post10393318
Wovon redest du bitte wieder? FRC hat diverse Bedeutungen, meinst du http://en.wikipedia.org/wiki/Frame_rate_control?

Versuche es doch bitte mal mit vollständigen deutschen Sätzen... ;(
€: Ich nehme mal an du meinst quasi das hier in Hardware: http://www.phoronix.com/forums/showthread.php?18108-FRC-the-ultimate-tearfree-video-solution

Wie soll das bitte ohne G-Sync bzw. FreeSync aktuell funktionieren?
Kepler kann das sicherlich, man braucht dafür aber auch ein geeignetes Display um die Framerate des Videos wirklich exakt in der Refreshrate des Displays abzubilden (und man fängt sich dafür aus meiner Sicht jede Menge neue Probleme ein).
Einfach nur feste Teiler (also 24, 25, 30, 50 bzw. 72, 144, 300 usw.) lösen das Problem jedenfalls imo nicht sinnvoll und das wird nVidia auch nicht einfach tun (weil es genug Displays überhaupt nicht können).

Knuddelbearli
2014-10-19, 15:35:44
Ich würde nicht mehr auf GM200 warten, besser jetzt 2x GTX970 kaufen und Spaß haben.

Wer will in paar Monaten noch GM200? Ein halbes Jahr später gibt es dann wieder was neues in 16nm ;)


16nm mitte 2015? Wers glaubt wird Seeliger als Mutter Teresa

Duplex
2014-10-19, 15:49:27
Die 16nm Massenproduktion soll im Q2/15 starten, zwischen Sommer und Herbst 2015 gibt es dann auch 16nm GPUs.

Auf GM200 warten lohnt nicht wirklich, sind vielleicht 30% mehr Performance als GM204...

Knuddelbearli
2014-10-19, 16:23:38
da wett ich dagegen ^^

Blediator16
2014-10-19, 16:30:05
da wett ich dagegen ^^

Dann müsste Maxwell überproportional zu der die size skalieren, denn bis 550mm² haben sie lediglich ca. 38% mehr Fläche mehr auszunutzen.

reaperrr
2014-10-19, 16:42:10
Dann müsste Maxwell überproportional zu der die size skalieren, denn bis 550mm² haben sie lediglich ca. 38% mehr Fläche mehr auszunutzen.
Und ein Teil davon wird für mehr DP-Einheiten pro SM draufgehen.

Match-Maker
2014-10-19, 16:50:58
Allerdings soll die Packdichte laut Ailuros ja auch höher ausfallen.

Knuddelbearli
2014-10-19, 17:19:45
Dann müsste Maxwell überproportional zu der die size skalieren, denn bis 550mm² haben sie lediglich ca. 38% mehr Fläche mehr auszunutzen.

Ich meinte damit auch das Erscheinungsdatum von 16FF(+) für Grafikkarten im speziellen für den topdog der den GM200 dann deutlich schlägt, nicht die Leistung des GM200

Nightspider
2014-10-19, 17:24:24
Die 16nm Massenproduktion soll im Q2/15 starten, zwischen Sommer und Herbst 2015 gibt es dann auch 16nm GPUs.

Auf GM200 warten lohnt nicht wirklich, sind vielleicht 30% mehr Performance als GM204...

Oo

Die ersten 16nm würden bestimmt nicht vor Ende Anfang 4.Quartal vom Band purzeln was noch ein ganzes Jahr entfernt ist.

Zudem wird Nvidia sicherlich eher versuchen Pascal Anfang bzw. im 1. Halbjahr 2016 auf den Markt zu bringen.
Deshalb wird man mit Sicherheit 2015 keine 16nm GPUs auf den Markt bringen.

Bei AMD sind die Chancen da schon höher weil AMD die GPUs alle versetzt auf den Markt bringt und nicht unbedingt eine komplette Generation in einem neuen Prozess bereitstellen muss und es bei AMD sowieso immer irgendeinen Chip gibt der älter ist und ersetzt werden kann.

Allerdings kommt Fiji Anfang 2015 in 28nm. Und würde AMD Ende 2015 schon einen Mittelklasse-Chip in 16nm auf den Markt bringen würde der wahrscheinlich schon Fiji platt machen, weshalb das auch eher unwahrscheinlich ist. Sinn würde es aber schon machen wenn AMD Ende 2015 kleinere GPUs (100-200)mm² in 16nm auf den Markt bringt damit man ein paar neue Produkte für Notebooks oder neue iMacs hat.^^

PrefoX
2014-10-19, 17:48:27
16nm mitte 2015? Wers glaubt wird Seeliger als Mutter Teresa
mit mGPU spaß zu haben fand ich noch besser.

Undertaker
2014-10-19, 18:17:53
Bei AMD sind die Chancen da schon höher weil AMD die GPUs alle versetzt auf den Markt bringt und nicht unbedingt eine komplette Generation in einem neuen Prozess bereitstellen muss

Wo ist denn das bei Nvidia der Fall? Es gibt genügend Beispiele, wo auch ältere Chips auf neuere Prozesse umgestellt wurden (z.B. GF117). In Bezug auf 16nm wäre z.B. ein Nachfolger für GM107/108 der perfekte Kandidat für einen recht frühen Start.

Nightspider
2014-10-19, 18:22:41
Shrinks werden immer seltener weil die neuen Prozesse nicht mehr automatisch billiger sind bzw. ingesagmt genug Vorteile bringen.

Das es in der Kepler Serie einen Shrink gab war mir gar nicht bewusst.

Zumindest werden die großen Chips sicherlich nicht extra nochmal geshrinkt wenn vllt schon ein halbes Jahr später Pascal kommt.

Kann natürlich sein das Nvidia den 16nm Prozess mit einem kleinen Mobile-Chip testen wird.

Knuddelbearli
2014-10-19, 18:31:34
hat nix mit Vorteile oder billiger zu tun

22nm flog raus da es keine halfnodes mehr gibt und auch 20nm scheint eher auf lowpower optimiert zu sein erst von 16FF gibts einen highpowerableger mit 16FF+

wenns 22nm und 20nm highpower gäbe hätte den sowohl AMD als auch NV sicher genutzt

Nightspider
2014-10-19, 18:34:20
Hier redet ja keiner von 22 oder 20nm.

Ich bezog mich darauf das es sich nicht lohnt kurz vor einer neuen Architektur nochmal einen Chip zu shrinken. Das ist natürlich abhängig von Pascal pünktlich fertig wird.
Wenn die Architektur pünktlich ist lohnt es sich nicht die alte Maxwell Architektur nochmal zu shrinken.

Knuddelbearli
2014-10-19, 18:56:24
Ok,dachte hier im Maxwell Thread gehts um Maxwell ;-) ^^
wobei wie Untertaker schon richtig sagte wurde das, vor allem für den Lowendbereich, trotzdem schon öfters gemacht

Hübie
2014-10-19, 23:31:42
Das es in der Kepler Serie einen Shrink gab war mir gar nicht bewusst.

Das muss neu sein :freak:
Und noch mal: GM200 hat nicht 550mm² und auch mehr als 12,9 Mio / mm²;)

ShinyMcShine
2014-10-29, 13:36:37
Mahlzeit!

Gibt es eigentlich noch keine neuen Leaks oder halbwegs gesicherte Infos über die Specs von GM206?
Der Chip wäre für mich hochinteressant bezüglich eines Notebook-Kaufs um Weihnachten herum. :cool:

GM204 ist mir ein wenig zu stromhungrig (und deswegen werden die entsprechenden Notebooks wohl auch schwerer zu kühlen bzw. entsprechend laut sein) und GM 107 zu schwach auf der Brust. GM206 könnte hier den idealen Mittelwegs für ein halbwegs spieletaugliches Notebook darstellen. :smile:

Von GM204 und GM107 ausgehend, wird GM206 ja wohl zwischen 1024 und 1280 Cores haben, 32-48 ROPs und 80-96 TMUs. Zusammen mit 3 GB VRAM an einem 192 Bit SI @ 3000MHz oder 2/4 GB VRAM an einem 128 Bit SI @ 3500MHz sollte da doch was Gutes herauskommen...

Oder sind die Specs von mir zu optimistisch gewählt?

VG
Shiny

hasebaer
2014-10-29, 15:34:58
GM204 ist mir ein wenig zu stromhungrig (und deswegen werden die entsprechenden Notebooks wohl auch schwerer zu kühlen bzw. entsprechend laut sein)

Das hängt doch primär davon ab, wie gut oder schlecht die Notebookhersteller ihren Job machen.

MSI scheint ihr Flagschiff Notebook mit GTX 980M im Griff zuhaben, besser als Andere.

Durchschnittlich 40 dB(A) beim 3DMark 06 hören sich zwar keineswegs leise an, die Konkurrenz dröhnt aber deutlich stärker. Seien es nun die Clevo Barebones P177SM-A und P170SM-A (48/49 dB), das MSI GT70 (~47 dB) oder das Alienware 17 (~44 dB). Selbst das Topmodell von Asus, welches für seine verhältnismäßig ruhigen Lüfter bekannt ist, erreichte hier etwas mehr (~41 dB). Die unten angegebenen 49 dB beziehen sich übrigens auf den Stresstest. Moderne Games sollten sich zwischen den 3DMark- und Volllast-Werten ansiedeln (das GT72 kam in Crysis 3 auf rund 45 dB).
- http://www.notebookcheck.com/Test-Update-MSI-GT72-GTX-980M-Notebook.128927.0.html

MilesEdgeworth
2014-11-01, 15:07:51
Gab es eigentlich nochmal weitere Verbrauchsmessungen der GTX 970/980 in Compute-Anwendungen? Kann mich erinnern, dass es da zu Beginn nur Material aus einer Quelle gab. Wäre doch sehr interessant, da sich damit besser über die Performance eines möglichen GM200 spekulieren lässt. Sollten sich die 250W (die ich in Erinnerung habe) der GTX 980 in Compute-Anwendungen bestätigen, dürfte ja auch ein potentieller GM200 nicht extrem viel schneller werden (zumindest für Spieler), da die 300W sicher nicht gesprengt werden dürfen. Der Takt wird zwar vermutlich geringer ausfallen und mehr Einheiten verbaut werden, die Frage ist dann nur, wo der Sweet Spot bei Maxwell liegt..

EDIT: Ich gehe hierbei von einem 28nm GM200 aus!

fondness
2014-11-01, 15:30:22
2015 kann man mit 20nm Chips rechnen, aber sicher nicht mit 16nm FinFET Chips. Erste FF-Chips vielleicht 1H/2016, High-End eher 2H/2016 wenn überhaupt.

HOT
2014-11-01, 16:13:41
AMD wird 20 bei Grafikchips meiner Ansicht nach zu 99% mitnehmen und zwar in dem folgend verwendeten Prozess:
http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Genuegsamer-20-Nanometer-Chip-fertiggestellt-1141199/
Ob das nun GloFo oder TSMC ist, geht hier leider nicht hervor. Bei FinFETs für GPUs wird man sicherlich erst spät einsteigen, da dürften CPUs Priorität haben.

N0Thing
2014-11-03, 14:37:12
Wurde der GloFo 20nm Prozess nicht zusammen mit dem eigenen 14nmFF Prozess gestrichen, nachdem GloFo auf die 14nmFF-Entwicklung von Samsung umgeschwenkt ist?

Unicous
2014-11-03, 15:10:17
U.U. wird 20 nm zukünftig für 20nm Konsolenchips genutzt.

http://www.golem.de/news/spielekonsole-neuer-20-nm-chip-fuer-sparsamere-xbox-one-ist-fertig-1410-110237.html


Nachtrag vom 3. November 2014, 9:55 Uhr

Ein Globalfoundries-Mitarbeiter hat uns darauf aufmerksam gemacht, dass das SoC der Xbox One basierend auf dem aktuellen Wafer Supply Agreement mit AMD seit November 2013 bei Globalfoundries hergestellt werden soll. Der Auftragsfertiger bietet ebenfalls ein 20-Nanometer-Verfahren an (Low Power Mobility).

Die Taiwan Semiconductor Manufacturing Company wiederum soll den Xbox-Chip aus dem Programm genommen haben um Kapazitäten für Apple zu schaffen. Das System-on-a-Chip der Playstation 4 werde aber weiterhin bei TSMC und nicht bei Globalfoundries gefertigt.

Es steht immer noch in den Sternen ob 20nm für diskrete GPUs genutzt wird, nachdem die 14nm roadmap von Samsung/GF beschleunigt wurde.

Nvidia denke ich wird keine 20nm Chips fertigen, nachdem sie gerade erst die Maxwell Chips vorgestellt haben und sie Kepler ja auch auf über 2 Jahre gestreckt haben und TSMC ihre Kapazitäten für Apple blockt.

Hübie
2014-11-05, 15:57:48
Die Quelle ist nicht mehr verfügbar und kann somit auch einfach nur Gelaber sein ;) Da gebe ich erst mal nicht viel drauf (auch wenn ich es kategorisch nicht ausschließe, da Konsolen-Chips i.d.R. einen längeren Zyklus als Grafikkartenchips haben).

Also immer locker durch die Hose atmen. Golem hat da auch nur abgetippt (Mark von Raff oder so ;D).

HOT
2014-11-05, 16:44:06
Wurde der GloFo 20nm Prozess nicht zusammen mit dem eigenen 14nmFF Prozess gestrichen, nachdem GloFo auf die 14nmFF-Entwicklung von Samsung umgeschwenkt ist?
Wer sagt denn, dass es nicht wieder eine Kombientwicklung wie bei 28nm SHP gibt? Nach dem 28nm Desaster bei GloFo würd ich an AMDs stelle nichts mehr dem Zufall überlassen...
Erinnert sogar ein bisschen daran, denn auch vor Kaveri wurde herumgerätselt, auf welchen Prozessen er denn kommen sollte, dann kam plötzlich was komplett unbekanntes und unerwartetes... wird diesmal genauso sein.
Ich würd mal tippen, dass AMD sich lieber nicht auf FinFETs verlässt und sicherheitshalber doch noch 20nm (S)HP, mitentwickelt und produziert in Dresden, nutzen wird. Es scheint ja auch zu laufen; auf TSMC-Kapazitäten kann man sich dank Apple offenbar nicht verlassen und AMD hat ein komplettes 20nm Lineup im Programm... neben den Konsolen SoCs darf man ja auch Nolan und seinen ARM-Skybridge-Zwilling nicht vergessen, welche ja definitiv auch 20nm GloFo sein werden. Es muss einen 20nm (S)HP(M)-Prozess in irgendeiner Form vorliegen, sonst würde man das nicht nutzen können.

Unicous
2014-11-05, 16:49:08
@Hübie

Wieso Gelaber? Der Typ wird schon daran gearbeitet haben und jetzt hat er sein Profil entweder gelöscht oder privat geschaltet (wird sicherlich gehen, bin aber nicht bei linkedin).

Ob daraus ein Produkt entsteht ist natürlich eine andere Frage, aber linkedin an sich ist keine schlechte Informationsquelle.:wink:

Thunder99
2014-11-05, 16:51:12
Es war noch nie so schwierig eine geeigneten Prozess zu wählen geschweige zu haben. Sonst wäre nie Maxwell 2.0 in 28nm gekommen.

Und ob es besser wird weiß nur die Glaskugel...

Wenn GM200 unter 550mm² bleibt wird es ein Ingenieurtechnisches Meisterstück. Könnte mir daher gut vorstellen das GM200 wieder extrem teuer in 2015 kommt um dann mit der GTX9xx er Serie bis Pascal zu überbrücken. Dieser hat dann ein neues Namesschema samt neuem Prozess

y33H@
2014-11-05, 17:10:24
Golem hat da auch nur abgetippt.Golem hat es bestätigt bekommen ;)

Schaffe89
2014-11-05, 23:33:04
Na dann bin ich mal gespannt.:freak:

Hübie
2014-11-06, 01:22:26
@Hübie

Wieso Gelaber? Der Typ wird schon daran gearbeitet haben und jetzt hat er sein Profil entweder gelöscht oder privat geschaltet (wird sicherlich gehen, bin aber nicht bei linkedin).

Ob daraus ein Produkt entsteht ist natürlich eine andere Frage, aber linkedin an sich ist keine schlechte Informationsquelle.:wink:

Weil es genug Schwätzer gibt. Und nur weil das einer schreibt ists ja noch nicht verifiziert. @yeeha: Offiziell bestätigt oder wenigstens aus zuverlässiger Quelle? :)

Unicous
2014-11-06, 01:35:42
OT

Der Senior Design Manager für SoCs bei AMD ein (Dumm-)Schwätzer. Finde ich aber ganz schön hart dein Anschuldigung.:eek:


:wink:

Hübie
2014-11-06, 03:20:45
Nein so meinte ich das nicht. Aber es wäre z.B. möglich das jemand einen fake-acc hat oder den account kompromitiert hat. ;) War nicht deutlich genug herausgestellt, stimmt.

Unicous
2014-11-06, 03:22:47
OK. Das ist natürlich immer möglich.

aths
2014-11-06, 03:53:57
Die. 960ti wäre damit ja auf Augenhöhe mit der 970
Glaub kaum das Nvidia da so nah kommen will
Denkbar wäre, wobei ich das für weniger wahrscheinlich halte, dass die 970 ausläuft und von eine, kostengünstigeren 960-er Modell mit weniger Shadern, aber höherem Takt ersetzt wird. In vermute allerdings, dass die 970 auf längere Sicht die vergleichsweise günstige Performance-Karte sein wird und eher die 980-er ausläuft, weil es später den dicken Max in Teilbestückung zum mit dem heute vergleichbaren 980-er Preis geben dürfte.

y33H@
2014-11-06, 07:56:23
Offiziell bestätigt oder wenigstens aus zuverlässiger Quelle?Letzteres, GloFos PR schweigt bisher (was aber ok ist, wenn wir MS was dazu sagen).

Loeschzwerg
2014-11-07, 20:08:08
http://wccftech.com/tsmc-buys-14b-worth-equipment-16nm-volume-prediction-begins-q2q3-2015/

Ja, es ist ne WTFtech-News...

Ailuros
2014-11-07, 20:19:53
http://wccftech.com/tsmc-buys-14b-worth-equipment-16nm-volume-prediction-begins-q2q3-2015/

Ja, es ist ne WTFtech-News...

This brings us to the topic of next generation graphics cards. Namely Nvidia’s “big daddy” Maxwell GM200 GPU. Which should go into the GTX 980 Ti/ Titan II or any other name Nvidia decides to give it. According to earlier reports this GPU was originally scheduled to debut on 16nm in 2015, a leak later reaffirmed by semiaccurate. Nvidia’s plan for 16nm GPUs was pretty much the same plan for GM204. Which is to introduce the new products in the holiday season. The most profitable season typically in the semiconductor industry and many others.

Wobei Charlie sich selber korrigiert hat seit neuestem dass GM200 doch auf 28nm hergestellt wird...

Ist die Abschreiberei irgendwo kaputt gegangen oder sind die Authoren noch daemlicher als sie eigentlich klingen?

GM200 isn’t the only GPU Nvidia has planned for 16nm either. The company still wants to introduce a second revision of GM204 ( GTX 980 and GTX 970 ) in a 16nm flavor. As well as another smaller GM206 GPU which was originally rumored to debut alongside GM204. So we know of at least three Maxwell GPUs which Nvidia is working on. Unfortunately however the delays will put a sizable dent of roughly 3-6 months of delay into Nvidia’s 16nm plans. And the plans of any other company which has 16nm products in the works. Making these TSMC 16nm FinFET delays all the more adverse.



GM200 war NIE fuer 16FF geplant; jeglicher moegliche shrink (wenn dieser ueberhaupt existiert heisst offensichtlich nicht mehr "GM200").

It typically takes anywhere from four months to a year for a product to make it from mass production to market availability. This leaves a very tight 2-3 month window for 16nm graphics cards to show up in late 2015. But even then it’s unlikely that we’ll see large chips due to the typically less favorable yields at the early life-span of any new process node. This is not unprecedented as Nvidia suffered through serious 28nm yield issues in 2012. Which resulted in the company delaying its entire 28nm GPU lineup. And releasing its first 28nm GPU, the GK104 in the GTX 680, three months after AMD had released Tahiti in the HD 7970 and 7950.

Which is why we didn’t see Nvidia’s GK110 “big Kepler” GPU show up in a consumer level product until more than 5 quarters after 28nm went into volume production. That is if you count the one thousand dollar GTX Titan as a consumer product. 28nm went into mass production in October of 2011, the GTX Titan was released in February of 2013. It took Nvidia nearly tow years after TSMC began 28nm volume production to introduce its large chip in a reasonably priced consumer product for the first time. Which was in the form of the GTX 780 in June of last year.

Jemand sollte dem Trottel erzaehlen dass es eine gezielte Strategie war GK110 als letzten herzustellen.

*seufz* :rolleyes: :freak:

Unicous
2014-11-07, 20:20:37
edit: Ailruos war schneller


@Loeschzwerg

Du kannst den Satz nicht mit es ist eine WTF-Tech News beginnen und als Konsequenz das auch noch verlinken. Du müsstet von vornherein wissen, dass da nur Blödsinn drin stehen wird.

Denn eines kann ich dir sagen. Wenn sie schon keine Ahnung über CPUs/GPUs etc. haben wie sollen sie die nicht vorhandene Expertise auf Fertigungsprozesse ausweiten?

Ich nehme mal an, sie haben wieder von irgendjemandem die News geklaut und mixen das mit ihren eigenen Münchhausen-Theorien.

Liege ich richtig?

Loeschzwerg
2014-11-07, 20:38:50
Ich habe es eher wegen der "Belustigung" verlinkt :) Bin völlig eurer Meinung.

Ailuros
2014-11-07, 20:41:22
Ich habe es eher wegen der "Belustigung" verlinkt :) Bin völlig eurer Meinung.

Ist mir schon klar; nur geht mir persoenlich bei so viel Dummheit von den Typen so langsam der Humor aus.

boxleitnerb
2014-11-07, 21:29:06
Ich will endlich mal aktuelle Gerüchte lesen. Zu GTA 5 wollte ich mir eigentlich 1-2x GM200 holen und so langsam werde ich hibbelig :D

AnarchX
2014-11-09, 16:26:56
Das dürfte wohl GM200 sein:

Graphics Device (3072SP 24C 1.1GHz/1.39GHz, 3MB L2, 12GB 6GHz 384-bit)

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6deeadbeedbfd8fb282a4c1a499a98ffcc1f9&l=en

Raff
2014-11-09, 16:35:07
Schicke Spec. Mit rund 1,4 GHz dürfte das Teil heftig austeilen, wobei das natürlich der Bestcase ist (+50 % auf eine GTX 980 mit gleichem Takt). Und 12 GiByte Speicher – vielleicht kriege ich ja doch die Verdopplung pro Karte hin ... ;D Der L2-Cache ist aber relativ klein.

MfG,
Raff

Unicous
2014-11-09, 16:41:26
Rückschlüsse auf den Takt würde ich von Sisoft Sandra nicht ableiten. Die lesen die abenteuerlichsten Takte aus.

AnarchX
2014-11-09, 16:45:24
Was war denn an den GM204-Taktraten abenteuerlich?
Die Karte, wenn wohl auch ein Test-Sample, scheint bis 1,4GHz boosten zu können. Bei GM204 gab es damals ein paar OC Ausreißer mit bis zu 1,6GHz, der Rest bewegte sich dort, wo auch GM204 zum Launch stand.

Beim VRAM geht man wohl glücklicherweise keine Kompromisse ein, was bei dem wohl zu erwartenden Preis und 6Gbps Chips auch nicht angemessen gewesen wäre.

Timbaloo
2014-11-09, 16:46:53
Der L2-Cache ist aber relativ klein.
Hmm? von 2MB (GM204) auf 3MB ist jetzt alles andere als schräg. Verwunderlicher fand ich da die "Änderung" von GM107 auf GM204.

Nakai
2014-11-09, 16:47:17
Das dürfte wohl GM200 sein:

Graphics Device (3072SP 24C 1.1GHz/1.39GHz, 3MB L2, 12GB 6GHz 384-bit)

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6deeadbeedbfd8fb282a4c1a499a98ffcc1f9&l=en

War zu erwarten. Bei 3 MB L2-Cache sind es wohl 96 ROPs und dadurch 6 ROP-Partitionen und somit die 384Bit SI. Mehr als 12GB VRAM wird es dadurch auch nicht geben. Mit 16 Pixel pro GPC und 96 ROPs ist man auf 6 GPCs, also 4 SMMs pro GPC, wie GM204. GM204+50% theoretisch, praktisch eher etwas weniger, wegen TDP-Limit. Aber OCler sollten das hinkriegen. Ist ja noch ein bisschen TDP-Spielraum für GM200 insgesamt da.:)

Na, wie AMD das kontern wird, ist fraglich.

Raff
2014-11-09, 16:51:14
Hmm? von 2MB (GM204) auf 3MB ist jetzt alles andere als schräg. Verwunderlicher fand ich da die "Änderung" von GM107 auf GM204.

GM107 hat bereits 2 MiB, daher wäre ein größerer Sprung schön gewesen, aber technisch eben nicht machbar ohne dass die Kerngröße explodiert. Immerhin hätte GM200, sofern die Angabe stimmt (schlüssig ist sie IMO; siehe auch Nakai), doppelt so viel L2-Cache wie GK110.

MfG,
Raff

N0Thing
2014-11-09, 16:53:06
Beim VRAM geht man wohl glücklicherweise keine Kompromisse ein, was bei dem wohl zu erwartenden Preis und 6Gbps Chips auch nicht angemessen gewesen wäre.

Ich kann mir ja noch nicht vorstellen, daß die erste Ausgabe (für den Spielermarkt) mit 12GB kommt. Ich würde vermuten, daß die 12GB für Tesla und Quadro genutzt werden. Aber 6GB würde für das erste Jahr gut passen und ausreichen. Später kann man immer noch eine Sonderedition mit entsprechendem Aufpreis raus hauen.

AnarchX
2014-11-09, 16:54:20
War zu erwarten. Bei 3 MB L2-Cache sind es wohl 96 ROPs und dadurch 6 ROP-Partitionen und somit die 384Bit SI. Mehr als 12GB VRAM wird es dadurch auch nicht geben.
Vielleicht kommen 2015 noch 8Gbit GDDR5 Module, die bei zweiseitiger Bestückung 24GiB erlauben. Die PS4 würde diese Chips auch verwenden können.

GM107 hat bereits 2 MiB, daher wäre ein größerer Sprung schön gewesen, aber technisch eben nicht machbar ohne dass die Kerngröße explodiert. Immerhin hätte GM200, sofern die Angabe stimmt (schlüssig ist sie IMO; siehe auch Nakai), doppelt so viel L2-Cache wie GK110.

GM107 und GM108 (3SMM @ 1MiB) haben wohl den größeren L2 für die DDR3-Varianten benötigt.

Ich kann mir ja noch nicht vorstellen, daß die erste Ausgabe (für den Spielermarkt) mit 12GB kommt. Ich würde vermuten, daß die 12GB für Tesla und Quadro genutzt werden. Aber 6GB würde für das erste Jahr gut passen und ausreichen. Später kann man immer noch eine Sonderedition mit entsprechendem Aufpreis raus hauen.
Beim Titan 1 mit 6GiB hat man damals auch keine Kompromisse gemacht. Und mit den ~$400-600 8GiB Karten sähe eine 6GiB $1k Karte wohl eher bescheiden aus.

horn 12
2014-11-09, 17:03:14
War zu erwarten. Bei 3 MB L2-Cache sind es wohl 96 ROPs und dadurch 6 ROP-Partitionen und somit die 384Bit SI. Mehr als 12GB VRAM wird es dadurch auch nicht geben. Mit 16 Pixel pro GPC und 96 ROPs ist man auf 6 GPCs, also 4 SMMs pro GPC, wie GM204. GM204+50% theoretisch, praktisch eher etwas weniger, wegen TDP-Limit. Aber OCler sollten das hinkriegen. Ist ja noch ein bisschen TDP-Spielraum für GM200 insgesamt da.:)

Na, wie AMD das kontern wird, ist fraglich.


Nun, da das NS Angebot bis Februar 2015 laeuft denke ich wird AMD Ende Februar, sprich max. zur Cebit 2015 die Neue AMD Karte vorstellen und wohl auch gut auf die R9 290 drauflegen koennen.
Ob es fuer BIG Maxwel reicht ist eine andere Geschichte, vielleicht nicht ganz aber der Preis wird bedeutend moderater ausfallen.
Fuer die grosse NV Karte wird man bestimmt mind. 800+ mehr berappen muessen, falls 12 GB Speicher wohl mind. 1K

Nakai
2014-11-09, 17:05:27
Vielleicht kommen 2015 noch 8Gbit GDDR5 Module, die bei zweiseitiger Bestückung 24GiB erlauben. Die PS4 würde diese Chips auch verwenden können.


Wenn Bedarf da ist, definitiv. Ich denke eher, man wechselt schnell auf anderen Speicher, eher. Aber wohl nicht mehr für GM200.


GM107 und GM108 (3SMM @ 1MiB) haben wohl den größeren L2 für die DDR3-Varianten benötigt.

Naja, GM107 hat keine delta-ColorCompression, weswegen ein etwas größerer Cache ganz sinnvoll ist. Für NV fehlt eben noch ein richtiger GM208. GM107 ist zu groß.

Loeschzwerg
2014-11-09, 17:05:35
Vollausbau des GM200 sicher mit 12GiB, aber ich kann mir auch kleinere Varianten mit 6GiB vorstellen.

Noch sind immerhin keine GM204 mit 8GiB eingetroffen. Keine Ahnung ob NV diese jetzt vor Panik, bedingt durch Hawaii 8GiB, auf den Markt wirft. GM204 läuft auch mit 4GiB super.

Nakai
2014-11-09, 17:08:32
Vollausbau des GM200 sicher mit 12GiB, aber ich kann mir auch kleinere Varianten mit 6GiB vorstellen.

Noch sind immerhin keine GM204 mit 8GiB eingetroffen. Keine Ahnung ob NV diese jetzt vor Panik, bedingt durch Hawaii 8GiB, auf den Markt wirft. GM204 läuft auch mit 4GiB super.

Ich erwarte keinen GM204 mit 8GB erstmal, sondern eine Titan II mit 6GB und irgendwann eine Titan II Black mit 12GB. Wie damals bei Titan kommt da wohl GM200 für den Gamer-Markt eher Mitte 2015 raus...so um den Dreh.

AnarchX
2014-11-09, 17:10:24
Die Chancen stehen gut, dass die Enthusiasten noch etwas Platz unter dem Weihnachtsbaum lassen sollten. ;)

Nakai
2014-11-09, 17:13:20
Die Chancen stehen gut, dass die Enthusiasten noch etwas Platz unter dem Weihnachtsbaum lassen sollten. ;)

Da bin ich gespannt...wobei NV ihr professionelles LineUp eh erst upgedatet hat und dafür eh erst mal keine Notwendigkeit besteht. Reinher vom Abstand zwischen GM200 und GM204 sollte Weihnachten natürlich möglich sein.

Knuddelbearli
2014-11-09, 17:20:44
Mann o mann was hier manche Leute wieder zusammenfantasieren ...

Jemand Lust zu wetten?
Boost wird Standard nicht bis 1,4GHz reichen und 12GB wird es wenn dann nur für Titan geben

Dunkeltier
2014-11-09, 17:22:19
Die Chancen stehen gut, dass die Enthusiasten noch etwas Platz unter dem Weihnachtsbaum lassen sollten. ;)


Was veranlasst dich zu dieser Einschätzung?

Loeschzwerg
2014-11-09, 17:24:06
GM200 bis Weihnachten? Bin ich mir ehrlich gesagt nicht so sicher, ich kann mich an keinen NV Launch im Dezember erinnern, die spätesten waren immer im November und für November wissen wir eigentlich zu wenig bzw. nichts.

Oder meinst du GM204 mit 8GiB @ AnarchX?

Ex3cut3r
2014-11-09, 17:34:10
Ich sage Februar 2015 kommt die Titan 2 mit 12 GB VRAM, sind dann genau 2 Jahre nach der Titan 1 :D

GM200 LE sprich GTX 780 Nachfolger dann im Sommer mit 6GB Vram.

AffenJack
2014-11-09, 17:43:33
Beim Titan 1 mit 6GiB hat man damals auch keine Kompromisse gemacht. Und mit den ~$400-600 8GiB Karten sähe eine 6GiB $1k Karte wohl eher bescheiden aus.

Das stimmt schon, aber ich glaube trotzdem nicht, dass das was wir bei Sisoft sehen na Consumerkarte wird. Die Karte hat nur 6Ghz ram und ich glaube nicht, dass man von 7Ghz bei GK110 runtergehen wird und Maxwell weniger Bandbreite spendiert. Die GK110 Teslas hatten eh nur 6Ghz maximal, da passt das besser für deren Nachfolger.

Godmode
2014-11-09, 17:51:11
Die Chancen stehen gut, dass die Enthusiasten noch etwas Platz unter dem Weihnachtsbaum lassen sollten. ;)

Je früher desto besser, so bekomme ich noch einen guten Preis für die GTX980er.

Hübie
2014-11-09, 17:57:09
Das dürfte wohl GM200 sein:

Graphics Device (3072SP 24C 1.1GHz/1.39GHz, 3MB L2, 12GB 6GHz 384-bit)

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6deeadbeedbfd8fb282a4c1a499a98ffcc1f9&l=en

Und wieso denkst du dass es eine nVidia-Karte ist? Ich ersehe das nicht sofort :redface: Also das kommt mir noch etwas spanisch vor :freak:

Loeschzwerg
2014-11-09, 18:04:27
Und wieso denkst du dass es eine nVidia-Karte ist? Ich ersehe das nicht sofort :redface: Also das kommt mir noch etwas spanisch vor :freak:

Scroll mal runter, zu dem Ding gibt es CUDA Ergebnisse ;)

boxleitnerb
2014-11-09, 18:09:30
Und 128 SP, das passt zu Maxwell.

Hübie
2014-11-09, 18:12:59
Ah okay. Danke. :up: Überzeugt mich trotzdem nicht :freak:

Godmode
2014-11-09, 18:14:50
Ah okay. Danke. :up: Überzeugt mich trotzdem nicht :freak:

Was soll es sonst sein?

Nightspider
2014-11-09, 18:15:42
Ob Big Maxwell in 4K auch so schwächeln wird im Vergleich zu Hawaii?

Skysnake
2014-11-09, 18:19:59
Naja, ab nächster Woche ist SC in NewOrleans, da könnte man durchaus die Teslas auf Basis von GM200 teasern, ich glaube aber nicht wirklich, das es noch dieses Jahr etwas wird.

Ich wüsste nicht, das sich bei nVidia in letzter Zeit etwas bewegt hat.

Hübie
2014-11-09, 18:22:55
Was soll es sonst sein?

Vom Auslesefehler bis hin zum fake kann das alles und nichts sein :wink: Bei deiner Erfahrung hier im Forum solltest du auch etwas misstrauischer sein.

AnarchX
2014-11-09, 18:29:06
Das stimmt schon, aber ich glaube trotzdem nicht, dass das was wir bei Sisoft sehen na Consumerkarte wird. Die Karte hat nur 6Ghz ram und ich glaube nicht, dass man von 7Ghz bei GK110 runtergehen wird und Maxwell weniger Bandbreite spendiert. Die GK110 Teslas hatten eh nur 6Ghz maximal, da passt das besser für deren Nachfolger.
GM200 wird auch die Color Compression verwenden. Aber die Karte kann natürlich auch nicht final sein, GM204 wurde anfangs mit 6,6Gbps getestet.

Naja, ab nächster Woche ist SC in NewOrleans, da könnte man durchaus die Teslas auf Basis von GM200 teasern, ich glaube aber nicht wirklich, das es noch dieses Jahr etwas wird.

... und eventuell endlich den GK210 (Tesla K80) Launch. Hier hat man schon für die Karte validiert: http://dlcdnet.asus.com/pub/ASUS/server/ESC4000_G3/QVL/ESC4000_G3_G3S_add-on_card_AVL_20141030.pdf

Vom Auslesefehler bis hin zum fake kann das alles und nichts sein :wink: Bei deiner Erfahrung hier im Forum solltest du auch etwas misstrauischer sein.
Auf dem ollen P67A Board wurden schon diverse andere Vorserien-Karten getestet: http://www.sisoftware.eu/rank2011d/show_system.php?q=cea598af9aaa98bed9e4c9f8deac91a187eed3e2c4ac91a482fac7f6d0b5d0 edddfb88b58d&l=en

Ob Big Maxwell in 4K auch so schwächeln wird im Vergleich zu Hawaii?
Sofern Schwäche = weniger Rechenleistung, überbietet GM200 hier Hawaii im Bezug auf ALU-Leistung.

aufkrawall
2014-11-09, 18:29:35
Ob Big Maxwell in 4K auch so schwächeln wird im Vergleich zu Hawaii?
Wahrscheinlich, da genauer gesagt die Radeons bei niedriger Auflösung schwächeln und sich im Umkehrschluss dann dieses Bild ergibt.

Godmode
2014-11-09, 18:38:26
Vom Auslesefehler bis hin zum fake kann das alles und nichts sein :wink: Bei deiner Erfahrung hier im Forum solltest du auch etwas misstrauischer sein.

Ich wüsste nicht wie man sowas faken sollte? Was anderes wäre es, wenn es nur ein Screenshot gewesen wäre.

Hübie
2014-11-09, 18:40:37
Menschen mit langeweile sind kreativ. Ich sage auch nicht grundsätzlich dass ich es ausschließe. Es überzeugt mich einfach nicht.

Nakai
2014-11-09, 18:55:41
Die Specs sind gut genug, um authentisch zu sein. Der Zeitpunkt passt auch, ist ja auch einige Zeit her, seit GM204.

N0Thing
2014-11-09, 19:08:27
Beim Titan 1 mit 6GiB hat man damals auch keine Kompromisse gemacht. Und mit den ~$400-600 8GiB Karten sähe eine 6GiB $1k Karte wohl eher bescheiden aus.

Ja, das stimmt.Allerdings wären 6GB als Standard eine ganz andere Hausnummer als die 3GB der GTX 780(Ti) und bei der Lage mit einem ausgereiften 28nm Prozess in Kombination mit dem Wissen der Käufer, daß die Titan in fast allen Situationen von einer 780 Ti abgehängt wird, erwarte ich ein 12GB Speichermonster eher als nachträglichen Kicker, wenn man nochmal etwas nachschieben will, bevor Pascal ansteht. Mal schauen, was am Ende heraus kommt. ^^

Knuddelbearli
2014-11-09, 19:17:52
teildeaktivierte Titan 2 gefolgt von 980TI gefolgt von Vollausbau titan Black 2 gefolgt von "1080TI" kurz vor Pascal

hasebaer
2014-11-09, 19:26:44
Naja, ab nächster Woche ist SC in NewOrleans, da könnte man durchaus die Teslas auf Basis von GM200 teasern, ich glaube aber nicht wirklich, das es noch dieses Jahr etwas wird.

AMDs S9150/ W9100 rechnen mit 2534 bzw 2619 GFLOPS DP.
Rund 1000 GFLOPS DP mehr als jede Tesla oder Quadro.
Nvidia wird sich das nicht unnötig lange anschauen.

Rampage 2
2014-11-09, 21:59:51
GM200 wird auch die Color Compression verwenden. Aber die Karte kann natürlich auch nicht final sein, GM204 wurde anfangs mit 6,6Gbps getestet.


Aber warum sollte Nvidia so dumm sein und das Ding mit 6Gbps-Speicher bestücken? Es ist ja schon seit längerer Zeit so, dass Speicherbandbreite in aktuellen GPUs Mangelware ist - bei 6Gbps wäre sie unter 300GB/sek. was in meinen Augen klar zu wenig ist für den GM200 topdog...

Mit 7Gbps hätte man wenigstens 336GB/sek. - es wäre doch im Sinne Nvidias, dass sich der GM200 stärker vom GM204 abhebt und dafür sind 7Gbps absolut sinnvoll...

R2

OT: Gibt es eigentlich Pläne für 8Gbps-GDDR5-Speicher seitens JEDEC?

Nakai
2014-11-09, 22:41:53
OT: Gibt es eigentlich Pläne für 8Gbps-GDDR5-Speicher seitens JEDEC?

Hynix stellt ab diesem Quartal so einen bereit.

Ahja die ColorCompression ist ja nur für den Framebuffer. Ob die auch für Compute in irgendeiner Hinsicht möglich ist, ist eine andere Frage. ;)

FBC ist für Compute sowieso wertlos...gibt es dennoch Kompressionsmöglichkeiten?

Ergo sollte GM200 doch den 8Gbps-GDDR5 bekommen. :)

ndrs
2014-11-09, 23:55:51
FBC ist für Compute sowieso wertlos...gibt es dennoch Kompressionsmöglichkeiten?

Wenn es sinnvolle Sachen gäbe, wären die bestimmt schon in CPUs implementiert.

Hübie
2014-11-10, 04:28:36
Die Specs sind gut genug, um authentisch zu sein. Der Zeitpunkt passt auch, ist ja auch einige Zeit her, seit GM204.

Ich komme dann auf über 700 sqmm:freak: Also 6% mehr SMs und dann braucht ein SMM ja ungefähr 24% mehr die-area. Das Speicherinterface ändert sich nicht (wesentlich), mehr Cache, gleichbleibendes I/O Interface und etwas Toleranz.

Ailuros
2014-11-10, 06:57:28
Die Specs sind gut genug, um authentisch zu sein. Der Zeitpunkt passt auch, ist ja auch einige Zeit her, seit GM204.

Beim finalen tape out Anfang Juli durchaus. Wenn die specs authentisch ist dann kann es sich nur um einen Titan Nachfolger handeln. Einen normalen GK110 Nachfolger wuerde man mit "nur" 6GB ausstatten.

Huebie,

Es sind ~560mm2@28nm.

Dawn on Titan
2014-11-10, 07:03:55
Wäre doch ne schöne Titan.

Godmode
2014-11-10, 09:08:00
Ich komme dann auf über 700 sqmm:freak: Also 6% mehr SMs und dann braucht ein SMM ja ungefähr 24% mehr die-area. Das Speicherinterface ändert sich nicht (wesentlich), mehr Cache, gleichbleibendes I/O Interface und etwas Toleranz.

Ail sagte uns schon vor Monaten (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10351416&postcount=5019), dass das Ding nur ~560mm2@28nm haben wird. Ich denke mal das kann man glauben, schließlich hatten seine Quellen in der Vergangenheit oft recht, was neue GPUs anging, im Gegensatz zu What The Fuck Tech und Bullshit Bingo Video Cardz.

Ailuros
2014-11-10, 10:19:13
Die GM200 die area kommt von Erinyes, wobei seine gleiche Quelle auf den Punkt genau war mit 294@GK104 und 551@GK110. Erinyes sagte im B3D forum dass GM200 um die 560mm2 gross ist und er ist sich gerechtfertig sehr selbstsicher darueber.

Thunderburne
2014-11-10, 10:28:08
Die Spekulierten 2560 Shader wären für mich dann auch eine Enttäuschung 3000Shader wäre schon Klasse. 40%+auf den GM 204 sollte schon dabei rum kommen im Vollausbau.
Ich kann mich momentan auch nicht zum GM204 durchringen da lasse ich lieber den Steckplatz noch frei und folterte weiter die PS4.
Die Ti wollte ich kurz vor GM204 nicht mehr behalten und habe lieber die knapp 500 Euro beiseite gelegt.

Da ich nach 4K schiele kann ich mit 2*GTX980 nicht wirklich was Anfangen bezogen auf Aktuelle und kommende Titel kommt man @Max Detail schon nicht mehr hin mit 60HZ da fehlen noch ca 30% an Leistung .
Ich lege mir schön in Ruhe das Geld weiter beiseite so das es gleich 2* für den Vollausbau reicht.

Nakai
2014-11-10, 12:06:53
Beim finalen tape out Anfang Juli durchaus. Wenn die specs authentisch ist dann kann es sich nur um einen Titan Nachfolger handeln. Einen normalen GK110 Nachfolger wuerde man mit "nur" 6GB ausstatten.

Huebie,

Es sind ~560mm2@28nm.

Naja, wenn es ein Testboard war, kann es schon eine maximale Speicherbestückung haben. Ebenso braucht es einen GM200 für den professionellen Bereich. Der muss dahingehend auch getestet werden. Ich kann eine Art TitanII davon eher weniger ablesen, aber du hast da sicherlich mehr Einblick.

Wenn Nv ganz dreist ist, werden sie die Chipausbeute deutlich krasser gestalten, sodass der Gaming-Markt nur Salvage bekommt. GM200 mit 2560SPs als TitanII, alles andere in den professionellen Bereich.

Pascal ist auch nicht mehr so weit weg...

Ailuros
2014-11-10, 12:20:47
Pascal ist auch nicht mehr so weit weg...

Ich dachte 16FF Massenproduktion fuer hochkomplizierte GPU chips kommt spaeter als die meisten bis jetzt schaetzten :P

Dawn on Titan
2014-11-10, 12:25:29
Geh davon aus, dass die erste Titan kein Vollausbau ist. Die 12GB dürfte aber rein vom Marketing zu geil sein um sie nicht zu nehmen.

Thunderburne
2014-11-10, 13:12:09
Geh davon aus, dass die erste Titan kein Vollausbau ist. Die 12GB dürfte aber rein vom Marketing zu geil sein um sie nicht zu nehmen.
Der jetzige Fertigungsprozess ist ja gut ausgereift daher stehen doch die Chancen für einen Vollausbau zu Beginn doch nicht schlecht denke ich.

Dawn on Titan
2014-11-10, 13:16:03
Aber es ist doch viel schöner, erst den beschnitten Chip zu bringen und dann den Vollausbau als Titan II. Da hat man gleich einen schönes Refresh Line up.

GM200 Vollausbau - Titan II
GM200 Titan I -> GTX 1080 6GB
GTX 980 -> GTX 1070
GTX 670 -> GTX 1060

HOT
2014-11-10, 13:21:32
Wie wärs mit
980Ti -> GM200 teildeaktiviert
TitanII -> Vollausbau
Diesmal hält die Generation ja offenbar nur bis Mitte 2016.
Bei einer neuen Serie kommts drauf an, ob AMD 20nm-Chips in 2015 bringt, möglich wär das.

Thunderburne
2014-11-10, 13:24:30
http://www.computerbase.de/2014-11/erstes-lebenszeichen-von-amds-fiji-grafikkarte/

Wie Hot auch schreibt sollte AMD wirklich 20Nm auspacken könnte NV sich das vielleicht nicht mehr erlauben mit Teil deaktiviert.
Wird so oder so auf beiden seiten wohl ein heisses neues Jahr.:biggrin:

Dawn on Titan
2014-11-10, 13:25:53
Wie wärs mit
980Ti -> GM200 teildeaktiviert
TitanII -> Vollausbau
Diesmal hält die Generation ja offenbar nur bis Mitte 2016.
Bei einer neuen Serie kommts drauf an, ob AMD 20nm-Chips in 2015 bringt, möglich wär das.

Das wäre ja ganz 2015 ohne einen "Namens-Refresh". Da geht nicht für OEMs.

Godmode
2014-11-10, 13:37:46
Ich denke auch das wir dieses mal den Vollausbau als erstes sehen werden. 28nm ist mittlerweile breit verfügbar. Die Frage ist, ob wieder HPC Deals anstehen, die vorher abgefertigt werden, weil die Marge dort deutlich höher ist. Eigentlich müsste Nvidia es wissen und gleich mehr Wafer für Consumer und HPC bestellen.

Hübie
2014-11-10, 13:37:56
Beim finalen tape out Anfang Juli durchaus. Wenn die specs authentisch ist dann kann es sich nur um einen Titan Nachfolger handeln. Einen normalen GK110 Nachfolger wuerde man mit "nur" 6GB ausstatten.

Huebie,

Es sind ~560mm2@28nm.

Ich weiß, ich weiß... :biggrin: Ich hatte nur die 3072 SPs hochgerechnet und kam auf diese absurde Zahl. Ich erinnere mich noch sehr gut daran dass TSMC selber sagte es seien ~700 sqm theoretisch möglich, aber nicht wirtschaftlich umsetzbar.
Die 980 ist der geistige Nachfolger der 770 und bringt 40% mehr auf die Waage wobei "nur" 512 mehr SPs verbaut wurden (ich unterscheide jetzt mal nicht Vec16/32; TMUs etc).
Wenn ich 1024 SPs draufschlage komme ich auch schon zu einem anständigen Ergebnis. Will sagen: 2560 sind auch nicht eine zu verachtende Größenordnung. Leider gibt es zum GM204 keinen dieshot (ausser diesen marketing-Quark).

Edit: Jetzt gerade ist mir mein Fehler aufgefallen. Habe mit Kepler SPs hochgerechnet :redface: So komme ich tatsächlich den 560 sehr nah. Oh mein Gott das wird ein Monster!

Das sind dann 96 ROPs, 192 TMUs, 24 * 96 KB L1$, 3072 KB L2$ (?) und 6 * 64 Bit MC. Resultat = Preis >1000 €

HOT
2014-11-10, 13:43:06
Das wäre ja ganz 2015 ohne einen "Namens-Refresh". Da geht nicht für OEMs.
1 1/2 Jahre geht das.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GTX-Titan-II-Specs-Shadereinheiten-Takt-VRAM-1142150/
3072 hört sich für mich verdammt nach Vollausbau an. Das Teil hat bestimmt knapp unter 600mm² und hat ein Powertarget von 250-270W.
Erst TitanII als Vollausbau und dann als Reaktion auf Fiji ein entsprechend teildeaktiviertes Modell als 980Ti.
Sollte AMD in 2015 tatsächlich die Pirate-Island-Linie (Bermuda/Treasure-Island) tatsächlich in 20nm aufgelegt haben, kann man immer noch mit Vollausbau mit einer entsprechenden 1000er-Linie reagieren.

Unicous
2014-11-10, 13:50:26
Der gute Herr McHardy kümmert sich übrigens einen Dreck um Sekundärquellen.

http://www.computerbase.de/2014-11/gtx-titan-ii-sisoftware-gesichtet/

Thunderburne
2014-11-10, 13:54:25
Kann mir aber nicht vorstellen das die Bezeichnung 980 weiter verwenden zu Weihnachten sollte es eine GTX990 geben und im neuen Jahr wenn der Big Max kommt wird es bestimmt ein neues Namens Chema geben.

Hübie
2014-11-10, 13:59:04
Namens Chema

:ulol3: So hab ich das Wort noch nie gesehen...

Wer weiß ob es überhaupt eine weitere Titan gibt. Irgend so ein Marketing-Fuzzie sagte doch dass nur der Preispunkt, aber nicht der Name bleibt. Ich finde das nur nicht wieder. :frown:

Unicous
2014-11-10, 14:10:45
Wo wir gerade am zauba'n sind:

Ist das hier schon aufgetaucht? (Habe es nicht mitbekommen, daher frage ich)

https://www.zauba.com/import-graphic-card-gtx-960-hs-code.html

Loeschzwerg
2014-11-10, 14:13:24
Wo wir gerade am zauba'n sind:

Ist das hier schon aufgetaucht? (Habe es nicht mitbekommen, daher frage ich)

https://www.zauba.com/import-graphic-card-gtx-960-hs-code.html

War mir zumindest nicht bekannt, danke :)

Thunder99
2014-11-10, 14:18:18
Zeus oder Odin ;D

Hübie
2014-11-10, 14:45:31
Ich rieche Blasphemie :freak:

Thunderburne
2014-11-10, 15:30:48
Zeus oder Odin ;D
Olymp :biggrin:

N0Thing
2014-11-10, 15:37:51
Zeus wäre für AMD ein idealer Name, immerhin gehört er zum Geschlecht derer, die die Titanen entmachtet haben. Aber als Nachfolger wäre der Name für Nvidia auch naheliegend.

Aber vermutlich wird es ein schöndes Titan 2. ^^

Blediator16
2014-11-10, 15:48:45
Oder auch Geforce GTX1500TI. Preis und Bezeichnung gleichen sich, dann sehen die Leute erst was für einen Dicken man wirklich hat:P

Timbaloo
2014-11-10, 15:59:09
Die Steigerung von Titan kann nur Neuer sein :P

Godmode
2014-11-10, 16:09:15
Oder auch Geforce GTX1500TI. Preis und Bezeichnung gleichen sich, dann sehen die Leute erst was für einen Dicken man wirklich hat:P

Ich will die schnellste Karte haben, alles andere ist mir egal. :tongue:

AnarchX
2014-11-10, 18:02:38
Wo wir gerade am zauba'n sind:

Ist das hier schon aufgetaucht? (Habe es nicht mitbekommen, daher frage ich)

https://www.zauba.com/import-graphic-card-gtx-960-hs-code.html

4GB 256-Bit ... das sieht ja eher nach GM204 aus. Diese GM206 Prototypen haten GK106-Pin-Out. Insofern stimmt vielleicht die Theorie aus Asien mit 8 SMM ~ GTX 950 Ti.

edit: Wobei die Daten aus dem Zauba Eintrag auch zu einer GTX 760 mit 4GB passen würden. Eventuell gab es da ein OCR-Fehler, die 7 und die 9 sind da doch relativ ähnlich.
NV hat mittlerweile ihre Karten maskiert und AIBs haben wohl eher noch keine GTX 960 in den Händen.

aths
2014-11-11, 12:59:31
Laut der News heute 3072 Cores, 384-Bit-SI. Aus meiner Sicht am unteren Ende der Ewartung. Dürfte immerhin 50%, je nach Takt (Speichertakt?) und Cache-Effizienz 60% schneller sein.

Godmode
2014-11-11, 13:58:26
Laut der News heute 3072 Cores, 384-Bit-SI. Aus meiner Sicht am unteren Ende der Ewartung. Dürfte immerhin 50%, je nach Takt (Speichertakt?) und Cache-Effizienz 60% schneller sein.

Recht viel mehr war in 28nm nicht zu erwarten. Andere gingen von noch weniger SPs aus.

aths
2014-11-12, 00:18:22
Recht viel mehr war in 28nm nicht zu erwarten. Andere gingen von noch weniger SPs aus.
Naja, beim Kepler konnte ausgehend vom Performance-Modell noch um 7/8 zugelegt werden (allerdings zugegebenermaßen mit einer Taktsenkung.) Jetzt ist die Zunahme nur 1/2.

Hübie
2014-11-12, 00:22:41
Laut der News heute 3072 Cores, 384-Bit-SI. Aus meiner Sicht am unteren Ende der Ewartung. Dürfte immerhin 50%, je nach Takt (Speichertakt?) und Cache-Effizienz 60% schneller sein.

Schneller als was???

aths
2014-11-12, 00:42:28
Schneller als was???
780 Ti / 980.

Nakai
2014-11-12, 00:50:05
Ich denke nicht, dass NV weit über 250W hinausschießen wird.

Ich kann mir 40%+ auf GM204 vorstellen. Das passt auch von der Diesize(+40%). Wahrscheinlich kommt erstmal ein Salvage-Part mit so 20~30% GM204.

PrefoX
2014-11-12, 00:52:31
Laut der News heute 3072 Cores, 384-Bit-SI. Aus meiner Sicht am unteren Ende der Ewartung. Dürfte immerhin 50%, je nach Takt (Speichertakt?) und Cache-Effizienz 60% schneller sein.
obere Ende der Erwartung eher.