PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Ailuros
2014-01-13, 17:48:24
Ein GK110 kostet im vollen Ausbau heute nicht mehr als schaetzungsweise $120. Ihr verwechstelt die hohen "Seitenkosten" bei jeglichem neuen Prozess und die anfangs beschissenen yields bzw. Kapazitaeten mit den wahren Herstellungskosten so bald das Ganze ins Laufen kommt. Damit sich NV fuer die 780Ti bei dem Strassenpreis immer noch einen so teuren Luefter leisten kann (relativ) koennen es nicht $200 fuer den chip sein.

***edit: GT200@65nm mit 575mm2 kostete bei seinem start auch um die $120 bei einem durchschnittlichen wafer yield von 52.5%. 65nm war aber zu dem Zeitpunkt auch nicht mehr der juengste Prozess. Damals erreichte man mit dem groessten NV core ueberhaupt die yields bzw. Kosten die man heutzutage nur nach etlichen Monaten erreichen kann auf einem neuen Prozess.

HOT
2014-01-13, 18:07:22
Es gibt bei TSMC nichts anderes als 20SoC; wo Du jetzt ploetzlich wieder 20LP rauserfunden hast ist mal wieder ein Kapitel fuer sich. Und ich moechte ernsthaft mal lesen wer Euch den Scheiss erzaehlt dass 20SoC in irgend einer Art "ungeeignet" fuer eine hochkomplizierten chip ist.

Sonst als Augenoeffner:

http://m.eet.com/media/1172693/tsmc1.jpg

Oh schau mal 16 und 10 FinFET liegen auf gleicher Hoehe mit 20SoC; wird wohl nicht heissen dass keiner der beiden IHVs mehr hochkomplizierte GPU chips bei TSMC fuer die Zukunft herstellen koennen weil kein "HP" nach der Zahl steht.....:rolleyes:

Das bedeutet nicht viel. Man wird 20SoC nicht deshalb weiter nach unten schreiben. Das ist ein 20nm LP-Prozess mit HKMG. 16FF ist zudem derart dicht an 20SoC dran, dass man zu 99% den wählen wird für Grafikchips.
HP gibts natürlich weiterhin dank der Skalierbarkeit der FinFETs. Eigentlich hätte man die FinFET-Prozesse viel höher und tiefer ziehen müssen über die ganze Fläche. Die Roadmap ist einfach bescheuert designt.
Warum soll sich irgend ein IHV mit 20nm herumquälen, wenn er 1/2 Jahr später FinFET-Grafikchips auf den Markt werfen kann?

Ailuros
2014-01-13, 19:03:55
Das bedeutet nicht viel. Man wird 20SoC nicht deshalb weiter nach unten schreiben. Das ist ein 20nm LP-Prozess mit HKMG. 16FF ist zudem derart dicht an 20SoC dran, dass man zu 99% den wählen wird für Grafikchips.

HPL != LP aber man kann sich vieles einfallen lassen um sich rauszureden.

Sonst ist ein Jahr Abstand zwischen 20SoC und 16FF nicht klein.

HP gibts natürlich weiterhin dank der Skalierbarkeit der FinFETs. Eigentlich hätte man die FinFET-Prozesse viel höher und tiefer ziehen müssen über die ganze Fläche. Die Roadmap ist einfach bescheuert designt.
Warum soll sich irgend ein IHV mit 20nm herumquälen, wenn er 1/2 Jahr später FinFET-Grafikchips auf den Markt werfen kann?

16FF ist nichts anderes als 20SoC + FinFET. Wenn 20SoC nichts fuer hochkomplizierte GPU chips geeignet sein sollte dann wird 16FF auch nicht mehr den Tag retten.

Aber wie schon oefter hier im Thread erwaehnt wurde: man haette 20SoC 20GPU nennen sollen und 16FF ist "besser" fuer GPUs weil es 3D Transistoren hat.

Die roadmap ist von TSMC selber; aber da Du anscheinend besser weisst als sie selber was was bei ihnen ist kannst Du ihnen ja Deine "roadmap" schicken.

Dural
2014-01-14, 09:39:25
Maxwell scheint wirklich schon bald vor der Türe zu stehen:

http://www.nvidia.de/object/geforce-800m-graphics-cards-de.html#pdpContent=2

Botcruscher
2014-01-14, 10:24:53
Low-Mid Mobile mit genialer 2,5x Geschwindigkeit zu... einer alten Socke(HD4000 laut Sternchen 2). Der typische Versuchschip halt. Deswegen ja die Frage was dagegen spricht. Mit irgend etwas kleinem muss man ja anfangen. Da kommt es auch auf den Preis nicht so an. Na mal sehen wie 20nm läuft.
Ed: 820M lol (http://www.notebookcheck.com/NVIDIA-GeForce-820M.108471.0.html) Ich brauch Kaffee. Thermi... Ich wach dann H2 noch mal auf.

Dural
2014-01-14, 11:00:18
hmm, frage mich nur wie so auf der NV Seite DX11.2 und OpenGL 4.4 steht.

Eventuell wird es die "Karte" mit zwei Chips geben.

fondness
2014-01-14, 11:08:38
Weil NV schon seit einer Ewigkeit bewusst DX11.1/DX11.2 angibt obwohl das entsprechende Feature-Level nicht unterstützt wird. Das wird immer erst nach Protesten entfernt.
Die Diskussion gibt es ja nicht zum ersten mal:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542452

Dural
2014-01-14, 11:31:42
Habe extra nach geschaut, alle anderen Karten werden mit DX11 Angegeben.

Wir werden es ja früher oder später erfahren. :rolleyes:

Ailuros
2014-01-14, 11:36:36
Weil NV schon seit einer Ewigkeit bewusst DX11.1/DX11.2 angibt obwohl das entsprechende Feature-Level nicht unterstützt wird. Das wird immer erst nach Protesten entfernt.
Die Diskussion gibt es ja nicht zum ersten mal:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542452

Aus NV's Seite stets sonst NIRGENDS mehr als DX11 fuer all die anderen GPUs.

http://www.geforce.co.uk/hardware/desktop-gpus/geforce-gtx-780-ti/specifications

Die 820M wird ganz oben bei den notebookchips aufgefuehrt ergo kann das Ding wohl schwer nur 96SPs haben wie notebookcheck angiebt.

Es gibt sogar eine footnote auf der 820M Seite:

2 - DX11.2 API supported

fondness
2014-01-14, 11:38:29
Die DX11.2 API unterstützt auch eine FeatureLevel 9 GPU. Interessant wäre FL 11_2 Support.
Wie schon gessagt die Diskussion gab es schon mal mit genau den selben Vorzeichen, auch da gab NV DX11.1 API support an und hat es erst sehr viel später nach Protesten entfernt, man braucht sich ja nur den verlinken Thread oben ansehen.

Wie Nvidia uns soeben auf Nachfrage mitgeteilt hat, unterstützen auch die neue GeForce GT 640 sowie GeForce GT 630 nur DirectX 11.1 mit dem Feature Level 11.0. Damit ändert sich gegenüber den restlichen Kepler-Karten nichts bezüglich der Microsoft-API. Weswegen die Angabe auf der Homepage unterschiedlich zu den restlichen GeForce-Karten ausfällt, bleibt ein Geheimnis von Nvidia. Vielen Dank für die vielen Hinweise!

http://www.computerbase.de/news/2013-05/geforce-gt-640-und-gt-630-erstmals-mit-directx-11.1/

So basically, we do support 11.1 features with 11_0 feature level through the DirectX 11.1 API. We do not support feature level 11_1.

AnarchX
2014-01-14, 11:44:12
Die 820M ist schon länger in diversen Treibern vorhanden gewesen:
GeForce 710M 0x1140 0x502D C
GeForce GT 720M 0x1140 0x502E C
GeForce GT 720M 0x1140 0x502F C
GeForce 710M 0x1140 0x503E C
GeForce 820M 0x1140 0x503F C
GeForce GT 720M 0x1140 0x8595 C
http://de.download.nvidia.com/XFree86/FreeBSD-x86_64/319.76/README/supportedchips.html

... und basiert auf GF117.

fondness
2014-01-14, 11:44:41
Eben Fermi, also mit Sicherheit kein FL 11_2 Support.

Ailuros
2014-01-14, 12:06:04
Die 820M ist schon länger in diversen Treibern vorhanden gewesen:

http://de.download.nvidia.com/XFree86/FreeBSD-x86_64/319.76/README/supportedchips.html

... und basiert auf GF117.

arghhhh.............. was fuer ein Reinfall...

M4xw0lf
2014-01-14, 12:06:50
Wäre ja möglich dass der Name einfach wiederverwendet wird.

Ailuros
2014-01-14, 12:11:37
Wäre ja möglich dass der Name einfach wiederverwendet wird.

Mit gleicher device ID? Ich halte es auf jeden Fall nicht fuer moeglich.

Skysnake
2014-01-14, 19:49:30
Lächerlich einfach nur lächerlich, was nVidia da wieder abzieht :down:

cv
2014-01-14, 19:59:21
Lächerlich einfach nur lächerlich, was nVidia da wieder abzieht :down:
Wieso? Weil sie für die 2. oder 3. schlechteste eigene Mobillösung keinen neuen Chip launchen?
Ich dachte immer es käme etwas im Bereich 840M alles unterhalb lohnt sich doch kaum oder liege ich da Falsch?

Skysnake
2014-01-14, 20:39:10
...

Weil Sie wieder versuchen die Leute mit ihrer irreführenden DX 11.x Angabe zu bescheisen...

Eidolon
2014-01-14, 21:39:53
Naja DirectX... wo MS dies eh wieder an Windows bindet, sprich W8, wird das hoffentlich früher oder später nicht mehr die große Rolle spielen.
Auch DirectX wird mich (und viele andere) nicht zu W8 bringen, von daher präferiere ich mittlerweile andere Features einer Grafikkarte.

Skysnake
2014-01-14, 22:09:01
Du wirst genau wie ich und jeder andere auch zu W8 wechseln, egal wie sehr wir es hassen wie die Pest, wenn ein entsprechendes Leistungsplus da ist, wenn wir mal zu uns selbst ehrlich sind.

Wegen 5% vielleicht nicht, aber bei 10, 20, 30, 40%?

Botcruscher
2014-01-14, 22:21:53
Da kommt für 8 eh nix mehr.

Undertaker
2014-01-15, 09:43:13
Lächerlich einfach nur lächerlich, was nVidia da wieder abzieht :down:

Warum schreibst du das nicht auch im Radeon R9 Thread zur R9 M290X, dem dritten Aufguss der 7970M? ;)

Erstaunlich finde ich eher, dass man einen Chip dieser Leistungsklasse überhaupt noch braucht. Unter GK208 macht ein Upgrade auf typische IGP-Lösungen eigentlich keinen Sinn mehr.

fondness
2014-01-15, 09:48:40
Warum schreibst du das nicht auch im Radeon R9 Thread zur R9 M290X, dem dritten Aufguss der 7970M? ;)

Es war offensichtlich das er sich auf die DX-Angabe bezog, das hat er wenig später auch klar gestellt.


Erstaunlich finde ich eher, dass man einen Chip dieser Leistungsklasse überhaupt noch braucht. Unter GK208 macht ein Upgrade auf typische IGP-Lösungen eigentlich keinen Sinn mehr.

Stimmt, aber manche kaufen aus Ahnungslosigkeit wohl lieber eine dGPU als eine IPG-Grafik. Obwohl das Ding nur zusätzlichen Strom schluckt und nicht mal schneller ist.

AnarchX
2014-01-15, 09:53:16
So eine 820M wäre sicherlich keine schlechte Ergänzung zu einem Baytrail-M Quadcore, erst recht wenn noch Optimus unterstützt wird. Selbst eine HD 4400 wird von der 720M=820M häufig deutlich geschlagen.
Zum Beispiel in diesem Gerät, wäre eine dGPU gut aufgehoben gewesen: http://www.aldi-nord.de/aldi_439_cm173_multitouch_notebook_48_5_1610_22499.html

-/\-CruNcher-/\-
2014-01-15, 10:36:00
Du wirst genau wie ich und jeder andere auch zu W8 wechseln, egal wie sehr wir es hassen wie die Pest, wenn ein entsprechendes Leistungsplus da ist, wenn wir mal zu uns selbst ehrlich sind.

Wegen 5% vielleicht nicht, aber bei 10, 20, 30, 40%?

Also in benchmarks hab ich den Vorteil von WDDM 1.1/1.2 zu 1.3 noch nicht erblicken können, allerdings erfordert das auch etwas andere Workflows zum testen ;)

Vielleicht die etwas besssere D2D performance und somit auch von Warp und die Metro beschleunigung (Die Nvidia nicht unterstützt) ?


Warum schreibst du das nicht auch im Radeon R9 Thread zur R9 M290X, dem dritten Aufguss der 7970M? ;)

Erstaunlich finde ich eher, dass man einen Chip dieser Leistungsklasse überhaupt noch braucht. Unter GK208 macht ein Upgrade auf typische IGP-Lösungen eigentlich keinen Sinn mehr.

Ja passt hinten und vorne nicht man macht im Mobile SOC super werbung wie toll doch Kepler ist und präsentiert hier einen Fermi ableger gegen Intel und Co ? :D :hammer:

fondness
2014-01-15, 10:50:26
Maxwell is a 28nm chip
http://www.fudzilla.com/home/item/33657-maxwell-is-a-28nm-chip

-/\-CruNcher-/\-
2014-01-15, 10:54:01
Och nee doch noch warten bis Sommer oder auf die AMD seite, wie viele schon aus bekanntenkreis auf AMD geweschelt sind ist schon krass ich bin da so ziemlich der letzte der wartet ;)

Oder mal das experiment wagen unter x60 zu flutschen also nicht mal Mainstream könnte auch interessant werden ;)

Wenn AMD jetzt noch mit nem neuen Mainstream orientierten Chip nachlegt der True Audio integriert und Mantle demnächst den Buzz erfüllt mit dem BF4 release oh junge.

and we have been hearing that Maxwell has a much better performance per watt ratio compared to the current Kepler architecture.

OH wunder immerhin hat sich das ja Nvidia auf ihre Research fahne geschrieben seit Tegra ;)

Man kann voraus sehen das Nvidia noch mehr User an AMD verlieren wird, wenn das Timing so abläuft.

So wie ich das sehe hatte Nvidia überhaupt keine Zeit zu reagieren und jetzt sitzen sie es mit Kepler aus und hoffen ;)

Jetzt stechen AMDs ex Nvidianer da voll mit Mantle marketing rein.

Botcruscher
2014-01-15, 10:54:05
Keine Nachrichten sind auch Nachrichten.:freak:

Skysnake
2014-01-15, 11:12:59
Warum schreibst du das nicht auch im Radeon R9 Thread zur R9 M290X, dem dritten Aufguss der 7970M? ;)

Les doch einfach den nächsten Post von mir. Ich bezog mich nur auf das DX-Geficke.


Erstaunlich finde ich eher, dass man einen Chip dieser Leistungsklasse überhaupt noch braucht. Unter GK208 macht ein Upgrade auf typische IGP-Lösungen eigentlich keinen Sinn mehr.
Ja, das ist durchaus seltsam, dass die gerade in dem Segment nochmal Fermi bringen, immerhin ist hier Perf/W SEHR wichtig, und mit den Intel und AMD iGPUs hat nVidia harte Nüsse vor sich.

Ob sich das wirklich ausgeht?

Also in benchmarks hab ich den Vorteil von WDDM 1.1/1.2 zu 1.3 noch nicht erblicken können, allerdings erfordert das auch etwas andere Workflows zum testen ;)

Vielleicht die etwas besssere D2D performance und somit auch von Warp und die Metro beschleunigung (Die Nvidia nicht unterstützt) ?

Wars nicht BF4, wo man deutlich schneller war unter Win8? PCGH hatte dazu mal was, wo Win8 deutlich schneller war.


Ja passt hinten und vorne nicht man macht im Mobile SOC super werbung wie toll doch Kepler ist und präsentiert hier einen Fermi ableger gegen Intel und Co ? :D :hammer:
Wie gesagt, ich seh das auch als sehr problematisch an.

Dawn on Titan
2014-01-15, 11:25:54
Oh GM107 ist 28nm - welche Überraschung.....

Thunder99
2014-01-15, 12:08:00
Passt doch. Alles in 28nm und den TopDog dann viel später mit 20nm.

AnarchX
2014-01-16, 15:52:12
GTX 750 Ti auf Maxwell-Basis im Februar?
http://www.sweclockers.com/nyhet/18182-geforce-gtx-750-ti-med-maxwell-i-februari

Ausgehend von den GM108-Spekulationen, könnte GM107 wohl 1152SPs @ 128-Bit 7Gbps? bieten.

fondness
2014-01-16, 15:54:09
Angesichts einer GTX 760 mit 1152SPs würde ich eine GTX 750Ti eher darunter erwarten.

AnarchX
2014-01-16, 15:56:25
Da stellt sich wieder die Frage, wie die Organisation der CUDA-Cores bei Maxwell aussieht und wie deren IPC ist. Der GM108-Leaker hatte etwas von weiter sinkender Leistung angedeutet. Vielleicht lassen sich dadurch die SMX noch kompakter gestalten.

Ailuros
2014-01-16, 16:14:33
GTX 750 Ti auf Maxwell-Basis im Februar?
http://www.sweclockers.com/nyhet/18182-geforce-gtx-750-ti-med-maxwell-i-februari

Ausgehend von den GM108-Spekulationen, könnte GM107 wohl 1152SPs @ 128-Bit 7Gbps? bieten.

http://www.systranet.com/turl/?systrangui=WebUI&systranuid=aHR0cC13d3cuc3dlY2xvY2tlcnMuY29tL255aGV0LzE4MTgyLWdlZm9yY2UtZ3R4LTc1M C10aS1tZWQtbWF4d2VsbC1pLWZlYnJ1YXJpL3N2X2Vu&systranbanner=1

(weil wohl wenige Swedisch lesen koennen...) und weil wohl wenn der letzte Paragraph stimmt, 1152 viel zu viel uebertrieben sind ;)

650Ti boost = 768SPs@980MHz wenn die gleiche Anzahl an SPs wie viele SMXs? 2,3 oder 4? :P

Hugo
2014-01-16, 17:44:29
http://www.systranet.com/turl/?systrangui=WebUI&systranuid=aHR0cC13d3cuc3dlY2xvY2tlcnMuY29tL255aGV0LzE4MTgyLWdlZm9yY2UtZ3R4LTc1M C10aS1tZWQtbWF4d2VsbC1pLWZlYnJ1YXJpL3N2X2Vu&systranbanner=1

(weil wohl wenige Swedisch lesen koennen...) und weil wohl wenn der letzte Paragraph stimmt, 1152 viel zu viel uebertrieben sind ;)

650Ti boost = 768SPs@980MHz wenn die gleiche Anzahl an SPs wie viele SMXs? 2,3 oder 4? :P

2? :confused: :freak:
oder 3

Ailuros
2014-01-16, 17:52:28
2? :confused: :freak:
oder 3

Ich hab 1 vergessen als Moeglichkeit :freak:

Nakai
2014-01-16, 17:54:41
NVidias SMX sind relativ groß um eine gute Skalierbarkeit zu gewährleisten. Bei AMD skalieren die CUs auch immer in QuadEngines(bis zu 4 CUs). Ich würde max 4 CUs mit einer SMX von NV vom hierarchischen Aufbau vergleichen(natürlich gibts offensichtliche Unterschiede ;)).

Von dem Standpunkt ist eine Vergrößerung der SMX nicht unwahrscheinlich. Siehe GK110 mit 256SPs(SP+DP). Ich denke es sind 3 SMX.

AffenJack
2014-01-16, 18:25:35
http://www.systranet.com/turl/?systrangui=WebUI&systranuid=aHR0cC13d3cuc3dlY2xvY2tlcnMuY29tL255aGV0LzE4MTgyLWdlZm9yY2UtZ3R4LTc1M C10aS1tZWQtbWF4d2VsbC1pLWZlYnJ1YXJpL3N2X2Vu&systranbanner=1

(weil wohl wenige Swedisch lesen koennen...) und weil wohl wenn der letzte Paragraph stimmt, 1152 viel zu viel uebertrieben sind ;)

650Ti boost = 768SPs@980MHz wenn die gleiche Anzahl an SPs wie viele SMXs? 2,3 oder 4? :P

1152 sind etwas übertrieben, aber gar nicht soviel als 650 TI Boost ersatz. Bei ner weiteren Erhöhung der SP pro SMX auf 256 sind 1024 SP das realistischte. Denn man muss davon ausgehen, dass die Leistung pro SP dann noch geringer wird. 768 Sp @ 3SMX würde eher langsamer werden als die 650 TI Boost, denn mit den Taktraten kann man kaum mehr hoch. Alternative wäre, wenn dann schon weiterhin 192 SP pro SMX, aber mit besserer Auslastung. Man wird zumindest so 10% Leistungsvorsprung auf die 650TI Boost holen wollen.

Ailuros
2014-01-16, 18:36:37
1152 sind etwas übertrieben, aber gar nicht soviel als 650 TI Boost ersatz. Bei ner weiteren Erhöhung der SP pro SMX auf 256 sind 1024 SP das realistischte. Denn man muss davon ausgehen, dass die Leistung pro SP dann noch geringer wird. 768 Sp @ 3SMX würde eher langsamer werden als die 650 TI Boost, denn mit den Taktraten kann man kaum mehr hoch. Alternative wäre, wenn dann schon weiterhin 192 SP pro SMX, aber mit besserer Auslastung. Man wird zumindest so 10% Leistungsvorsprung auf die 650TI Boost holen wollen.

Wieso nicht 2 SMXs?

Hugo78
2014-01-16, 19:58:39
512 SPs / SMX?

Ailuros
2014-01-16, 20:18:15
512 SPs / SMX?

256+128 = 2:1?
384+128 = 3:1?

-/\-CruNcher-/\-
2014-01-17, 01:28:06
Muss ja demnach nur die 260x schlagen in der Performance bei weniger verbrauch das sollte doch relativ einfach sein ;)

Coda
2014-01-17, 01:56:38
NVidias SMX sind relativ groß um eine gute Skalierbarkeit zu gewährleisten. Bei AMD skalieren die CUs auch immer in QuadEngines(bis zu 4 CUs). Ich würde max 4 CUs mit einer SMX von NV vom hierarchischen Aufbau vergleichen(natürlich gibts offensichtliche Unterschiede ;)).

Von dem Standpunkt ist eine Vergrößerung der SMX nicht unwahrscheinlich. Siehe GK110 mit 256SPs(SP+DP). Ich denke es sind 3 SMX.
Nein. Ein SMX ist mit genau einer CU zu vergleichen (mehrere CUs rechnen nie an der gleichen Threadgroup). Und eine Vergrößerung der SMX halte ich für unwahrscheinlich. Das würde bedeuten, dass sie noch mehr WARP-Scheduler brauchen um überhaupt genügend Instructions ausführen zu können und so beliebig skaliert das auch nicht.

Ich kann mich natürlich immer täuschen, aber ich würde mich auch nicht wundern wenn sie zwei SMX mit weniger SPs pro Rasterizer einsetzen würden.

Ailuros
2014-01-17, 07:45:57
Nein. Ein SMX ist mit genau einer CU zu vergleichen (mehrere CUs rechnen nie an der gleichen Threadgroup). Und eine Vergrößerung der SMX halte ich für unwahrscheinlich. Das würde bedeuten, dass sie noch mehr WARP-Scheduler brauchen um überhaupt genügend Instructions ausführen zu können und so beliebig skaliert das auch nicht.

Ich kann mich natürlich immer täuschen, aber ich würde mich auch nicht wundern wenn sie zwei SMX mit weniger SPs pro Rasterizer einsetzen würden.

$100Mio Frage: brauchen wir wirklich mehr als 4 raster/trisetups in einer kommenden performance GPU?

Wenn's wirklich 768 sein werden im GM107 = These:

4 SMX
4*SIMD32 FP32 + 32SPs FP64
8 TMUs/SMX
2 GPCs

Klingt auf jeden Fall nicht absurd.

Skysnake
2014-01-17, 08:40:58
Nein. Ein SMX ist mit genau einer CU zu vergleichen (mehrere CUs rechnen nie an der gleichen Threadgroup). Und eine Vergrößerung der SMX halte ich für unwahrscheinlich. Das würde bedeuten, dass sie noch mehr WARP-Scheduler brauchen um überhaupt genügend Instructions ausführen zu können und so beliebig skaliert das auch nicht.

Ich kann mich natürlich immer täuschen, aber ich würde mich auch nicht wundern wenn sie zwei SMX mit weniger SPs pro Rasterizer einsetzen würden.
Jup Registercount runter ist der einfache Weg. Würde ich jetzt auch erwarten.

Thunder99
2014-01-17, 11:30:30
Heißt das nach eurer These dass pro Shader bzw Cluster ein Maxwell weniger leistet als ein Kepler?

Ailuros
2014-01-17, 12:32:29
Heißt das nach eurer These dass pro Shader bzw Cluster ein Maxwell weniger leistet als ein Kepler?

Schau Dir mein spekulatives Beispiel oben an auf Coda's Ideen basierend (muss ja nicht stimmen ist ja richtig erkannt nur eine These); Du hast zwar jetzt nur noch 4 anstatt 6 SIMD32 im cluster Du hast aber gleichzeitig "kuerzere Abstaende" innerhalb vom SMX was tatsaechlich zu hoeherer Effizienz u.a. fuehren koennte, hast weniger TMUs aber doppelt so viel FP64 SPs wie im GK107. Dafuer aber auch 2x Mal so viel raster/trisetup Einheiten.

Man koennte es auch spekulativ mal 4 multiplizieren und sich einen GM104 vorstellen, aber die These wird wohl eher falsch sein.

Wichtig im Hinterkopf zu behalten:

http://www.tomshardware.com/reviews/tegra-k1-kepler-project-denver,3718-3.html

Moving forward, every GPU architecture Nvidia develops will be mobile-first. That was a decision management made during Kepler’s design and then applied to Maxwell from the start. It doesn’t mean Maxwell will show up in Tegra first (in fact, the first Maxwell-powered discrete GPUs are expected in the next few weeks). But the architecture was approached with its mobile configuration and power characteristics in mind, scaling up from there. Sounds like a gamble for a company so reliant on the success of its big GPUs, right? Nvidia says that the principles applied to getting mobile right will be what help it maximize the efficiency of its discrete products moving forward—and we’ll have the hardware to put those claims to the test once GeForce GTX 750 materializes.

....wenn man es jetzt wieder umdreht und bedenkt dass 951MHz schon verdammt hoch sind im Tegra K1, bleibt wohl fuer "M1" mit Maxwell nichts anderes uebrig als in die Breite zu gehen. Bei 128SPs braucht man 3 SMXs fuer die Parker GPU wobei 24 TMUs schon verdammt uebertrieben sind fuer so ein Tier; ein Verdoppelung der TMUs von 8 auf 16 klingt dann um einiges logischer. Und jetzt bin ich mit meiner These gleich wieder auf Null :)

***edit: dumme Frage koennte man nicht irgendwie den SMX breiter machen fuer 384SPs (12*SIMD32) und diesen auf irgend eine Art "sub-SMX" mit jeweils 3*SIMD32 aufteilen damit es genauso "uebersichtlicher" wird wie bei der obrigen 4*SIMD32/SMX These? Nicht hauen...<----nur ein Laie hier :)

Nakai
2014-01-17, 16:57:23
Nein. Ein SMX ist mit genau einer CU zu vergleichen (mehrere CUs rechnen nie an der gleichen Threadgroup). Und eine Vergrößerung der SMX halte ich für unwahrscheinlich. Das würde bedeuten, dass sie noch mehr WARP-Scheduler brauchen um überhaupt genügend Instructions ausführen zu können und so beliebig skaliert das auch nicht.

Ich kann mich natürlich immer täuschen, aber ich würde mich auch nicht wundern wenn sie zwei SMX mit weniger SPs pro Rasterizer einsetzen würden.

Ja, du hast schon recht. Eine CU und eine SMX sind natürlich vergleichbar, reinher vom Aufbau. Mir ging es aber eher um hierarchische und performancetechnische Gründe.

4 SMX
4*SIMD32 FP32 + 32SPs FP64
8 TMUs/SMX
2 GPCs

Klingt auf jeden Fall nicht absurd.

Mhh, wäre halt gleiches Verhältnis TMU:SPs wie bei AMD, außer FP64-SIMDs sind für SPs-Berechnungen zugänglich. Es hat wohl Stromspargründe. Naja mal guckn...

boxleitnerb
2014-01-18, 21:07:09
Im AT Forum gibt es ein paar Aussagen zur 750 (Ti). Angeblich haben beide einen 6-pin Anschluss. Bei der 750 Ti würde es mich nicht verwundern, bei der 750 schon etwas. Vielleicht Vorseriensample. Performance soll sehr gut sein, besonders bei hohen Auflösungen - trotz nur 128-bit. Irgendwo zwischen 260X und 270. Das wären zwischen 20 und 60% flotter als eine 650 Ti. Wo genau, wird man dann noch sehen müssen.

http://forums.anandtech.com/showthread.php?t=2364264

Nakai
2014-01-18, 22:00:38
Mhh, wenn man trotz 128Bit unter hohen Auflösungen stark ist, spricht das für zwei Möglichkeiten:
- GDDR6 (warscheinlich noch zu früh)
- verbessertes Cache-System, für effektivere Speicherbandbreite

Wenn's wirklich 768 sein werden im GM107 = These:

4 SMX
4*SIMD32 FP32 + 32SPs FP64
8 TMUs/SMX
2 GPCs

Ahja, noch was? Wie kommt man bei 4 SMX dann auf 768 SPs? Ebenso, wieso sollte GM107 1:4 DP:SP haben?
Naja, wie NV die SMX neuaufbaut, dementsprechend könnte man überall landen.

Ailuros
2014-01-18, 22:18:04
Wenn es mir nichts dir nichts 768 sein sollen dann braucht man natuerlich 6 cluster. Ich rechnete im Hinterkopf mit gesteigerter Effizienz pro SMX aber wie gesagt es ist so oder so falsch. Was jetzt FP64 SPs betrifft der Gedanke war lediglich Nx Mal so viel wie bei Kepler pro cluster reinzuquetschen. Das 4:1 ist wohl doch zu viel fuer low end, aber ich will hoffen dass Maxwell um einiges besser selbst fuer low end cores mit compute sein wird.

AnarchX
2014-01-19, 10:08:02
Ausgehend von der GM108 Spekulationen, könnte eine Maxwell SMX wohl möglich auch 288 CUDA-Cores haben. Eventuell in einer 3*3*32CC Organisation.

Ailuros
2014-01-19, 10:24:55
Ausgehend von der GM108 Spekulationen, könnte eine Maxwell SMX wohl möglich auch 288 CUDA-Cores haben. Eventuell in einer 3*3*32CC Organisation.
Ergo 8*SIMD32 FP32 + 32 SPs FP64? Nicht schlecht.

AnarchX
2014-01-19, 14:39:44
750 Ti Benchmarks? http://www.coolaler.com/content.php/3014-GTX-750-Ti-%E6%9C%83%E6%98%AF%E7%AC%AC%E4%B8%80%E6%AC%BEMaxwell%EF%BC%9F

Im Valley Benchmark (~Tessellation) relativ langsam.

Hugo78
2014-01-19, 14:47:05
Die 750 Ti würde sich so zwischen 650Ti und 660 einreihen, hier gabs eh eine extrem große Lücke.
http://www.computerbase.de/artikel/grafikkarten/2013/grafikkarten-2013-im-vergleich/3/

Der Gegner wird ja die 260X sein.

Hübie
2014-01-19, 14:51:54
Pfui Spinne. Das wird ja immer schlimmer mit dem release neuer Generationen. Und damit meine ich nicht die Namen.
Jetzt kommen also nur Maxwell-Gurken die allenfalls als Diaprojektor taugen :freak: Und oben rum bleibts bei Kepler für 1000 Euro X-D

Nakai
2014-01-19, 15:11:04
GM108 ist auf jeden Fall im unteren Segment angesiedelt, das sieht man aus dem Namen. Das wird definitiv ein <150mm² Ding.

Im Valley Benchmark (~Tessellation) relativ langsam.

Spricht für maximal zwei GPCs und zwischen 512 und 960SPs.

Ergo 8*SIMD32 FP32 + 32 SPs FP64? Nicht schlecht.

DP:SP = 1:8. Wieso nicht.

Ein GPC(schon etwas verbessert) und drei solcher SMX -> 864SPs.

Wieviel schafft GK107 im Valley Score?

boxleitnerb
2014-01-19, 15:56:57
Eine 650 Ti schafft gute 18 fps:
http://www.ocaholic.ch/modules/smartsection/item.php?itemid=964&page=4

Die 650 non-Ti hab ich noch nicht gefunden.

Ailuros
2014-01-19, 16:40:16
750 Ti Benchmarks? http://www.coolaler.com/content.php/3014-GTX-750-Ti-%E6%9C%83%E6%98%AF%E7%AC%AC%E4%B8%80%E6%AC%BEMaxwell%EF%BC%9F

Im Valley Benchmark (~Tessellation) relativ langsam.

Klingt eher nach einem GPC, wobei insgesamt wenn die scores stimmen die Leistung ziemlich anstaendig erscheint.

AnarchX
2014-01-19, 17:05:43
Der Valley Score entspricht dem einer GTX 650 Ti (4 SMX, 2 GPC) @ ~1,05GHz.

AffenJack
2014-01-19, 19:20:04
Klingt eher nach einem GPC, wobei insgesamt wenn die scores stimmen die Leistung ziemlich anstaendig erscheint.

Geht so, ich fänds eher entäuschend. Dann ists wirklich nur ne 650TI Boost Ersatz. 3DMark FireStrike etwas schneller als 650TI B, 3dmark11 extreme nen gutes Stück langsamer. Ich hätte bei der Bennenung schon erwartet, dass man sich zwischen 650TI Boost und 760 legt, da dort ne relativ große Lücke ist. Alternativ, da Maxwell so effizient sein soll, müsste das Ding auf Stromanschlüsse verzichten. Das wäre Verbrauchsmäßig wenigstens gut.

AnarchX
2014-01-19, 19:28:10
Eine 650 Ti Boost nimmt immerhin ~110W (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/Geforce-GTX-650-Ti-Boost-Test-1061900/) auf. Da wäre etwa über 75W immernoch ein guter Schritt bei der Pro-Watt-Leitung, bei gleicher Prozessgröße.

Ailuros
2014-01-19, 19:33:28
Geht so, ich fänds eher entäuschend. Dann ists wirklich nur ne 650TI Boost Ersatz. 3DMark FireStrike etwas schneller als 650TI B, 3dmark11 extreme nen gutes Stück langsamer. Ich hätte bei der Bennenung schon erwartet, dass man sich zwischen 650TI Boost und 760 legt, da dort ne relativ große Lücke ist. Alternativ, da Maxwell so effizient sein soll, müsste das Ding auf Stromanschlüsse verzichten. Das wäre Verbrauchsmäßig wenigstens gut.

Ich will zwar nicht bezweifeln dass perf/W hier um einiges besser sein wird, aber laesst das ratio in der Region nicht etwas nach im Vergleich zu groesseren chips oder ist es nur mein Eindruck?

Hugo78
2014-01-19, 19:40:19
Na ja, bei den kleinen Karten kann der Chip so sparsam sein wie er will, die restlichen Komponenten wollen ja auch etwas Saft.

Hugo
2014-01-19, 19:49:29
750 Ti Benchmarks? http://www.coolaler.com/content.php/3014-GTX-750-Ti-%E6%9C%83%E6%98%AF%E7%AC%AC%E4%B8%80%E6%AC%BEMaxwell%EF%BC%9F

Im Valley Benchmark (~Tessellation) relativ langsam.

Ist es eigentlich sicher, dass die 750Ti einen Chip der Maxwell-Generation hat?

AnarchX
2014-01-21, 08:34:21
GTX750-PH-1GD5
GTX750TI-2GD5
GTX750TI-OC-2GD5
GTX750TI-PH-2GD5
GTX750-PHOC-1GD5

ASUS kennt schon einige GTX 750 (Ti) Karten: http://support.asus.com/download/ModelList.aspx?SLanguage=en&keyword=GTX750&type=10

Bei den Distributoren sind sie wohl auch schon gelistet:
http://www.zdomu.sk/nvidia/99194-ASUS-GTX750TI-OC-2GD5.html
http://tech2.hu/asus-gtx750ti-oc-2gd5-2033046/asus_gtx750ti-oc-2gd5_tech2

BigKid
2014-01-22, 00:18:16
Hmm... Kann man schon abschätzen wo sich dieser Chip dann als Mobile bei den MXM Modulen für Laptops einordnen wird ?

GTX870M oder eher sogar GTX880M ?
Naja... Vielleicht wirds auch ein GTX780MX...

Wird man ihn eventuell wieder zuerst bei Apple finden? Aber die haben doch gerade die neuen Serien vorgsestellt - oder?

Spasstiger
2014-01-22, 00:24:46
Die GTX 780M ist schon ein voller GK104 und eine GTX 880M sollte noch eine Schippe drauflegen. Der kleine Maxwell-Chip wäre wohl eher eine GTX 860M.

BigKid
2014-01-22, 00:41:10
Die GTX 780M ist schon ein voller GK104 und eine GTX 880M sollte noch eine Schippe drauflegen. Der kleine Maxwell-Chip wäre wohl eher eine GTX 860M.

Ok... Also entweder das oder GTX760MX - 770MX.
Danke...

AnarchX
2014-01-22, 18:15:44
GTX 750 Ti in einem 1920x1080 4xAA Rating:
http://www.chiphell.com/data/attachment/forum/201401/23/00244120p5ppxpi5lso2l5.jpg
http://www.chiphell.com/thread-954560-1-1.html

Skysnake
2014-01-22, 18:40:13
Das Bild nicht gesichert???

dildo4u
2014-01-22, 18:48:41
http://www.abload.de/img/00244120p5ppxpi5lso2lgeuoy.jpg

Timbaloo
2014-01-22, 19:29:19
Tja, jetzt sollten wir noch wissen wie das Ding denn aussieht :)

Nightspider
2014-01-22, 19:43:13
Wovon geht ihr aus? 150,-€ für die Karte?

Könnte eventuell etwas für einen Freund sein. Maxwell-Featureset incl. DX11.2 und vielleicht H.265 encoder wäre toll.

Wie gut ließen sich eigentlich GTX650 und 650ti übertakten? 20%? 30%?

Skysnake
2014-01-22, 19:44:43
LOL????

Das ist nicht ihr Ernst, die GTX750Ti langsamer! als die GTX650Ti? Ähm ja ne is klar...

Die haben doch nen Vogel bei nVidia aktuell... :ucrazy2:


ansonsten THX für das Bild!

boxleitnerb
2014-01-22, 19:47:41
Troll?
750 Ti: 41.2 Punkte im Rating
650 Ti: 34.0 Punkte im Rating
Man beachte, dass beide nicht den Zusatz "Boost" tragen...

M4xw0lf
2014-01-22, 19:47:45
LOL????

Das ist nicht ihr Ernst, die GTX750Ti langsamer! als die GTX650Ti? Ähm ja ne is klar...

Die haben doch nen Vogel bei nVidia aktuell... :ucrazy2:


ansonsten THX für das Bild!
Man unterscheide GTX650Ti und 650Ti Boost.

Godmode
2014-01-22, 19:50:22
Wovon geht ihr aus? 150,-€ für die Karte?

Könnte eventuell etwas für einen Freund sein. Maxwell-Featureset incl. DX11.2 und vielleicht H.265 encoder wäre toll.

Wie gut ließen sich eigentlich GTX650 und 650ti übertakten? 20%? 30%?

Also ich schätze das die Dinger am Anfang wieder relativ teuer sein werden.

Skysnake
2014-01-22, 19:56:02
Arg.... Das Boost irgendwie total ausgeblendet.

Trotzdem hat die Boost ja nicht mehr Shader, sondern nur etwas mehr Takt und halt das breitere Speicherinterface.

boxleitnerb
2014-01-22, 20:00:14
Und? Du weißt nicht, wie hoch die 750 Ti taktet und wieviel sie verbraucht und wieviel sie mit 192-bit leisten könnte. Das Ergebnis ist nicht so gut wie ich erwartet hatte, aber immer noch ordentlich.

Blediator16
2014-01-22, 20:00:15
Ohne Verbrauchsmessung unbrauchbare Zahlen.

Godmode
2014-01-22, 20:01:20
Arg.... Das Boost irgendwie total ausgeblendet.

Trotzdem hat die Boost ja nicht mehr Shader, sondern nur etwas mehr Takt und halt das breitere Speicherinterface.

IIRC ist die 750 Ti eine andere Chipklasse als die 650 Ti.

Also GK106 vs GM107 oder GM108 was eine Chipklasse darunter ist, falls das so beibehalten wird.

Skysnake
2014-01-22, 20:21:40
Damti man dann wieder ne "XY" für 1k€ verkaufen kann oder wie?

Godmode
2014-01-22, 20:40:55
Damti man dann wieder ne "XY" für 1k€ verkaufen kann oder wie?

Sie haben es letztens mal schon so gemacht und werden es dieses mal auch wieder machen. Marge FTW.

Thunder99
2014-01-22, 23:21:14
Wie damals, die 1000Mark Karte... . Ohne Konkurrenz können sie sich das erlauben

HOT
2014-01-22, 23:30:44
Sieht schwer nach einem Bonaire von NV aus... der Sprung von Kepler zu Maxwell scheint ähnlich "gewaltig" wie von GCN1.0 auf 1.1 :D.

fondness
2014-01-22, 23:35:09
Wie damals, die 1000Mark Karte... . Ohne Konkurrenz können sie sich das erlauben

Ohne Konkurrenz, naja. Wenn du 5-10% mehr Leistung als ohne Konkurrenz definierst. Die 1000EUR-Karte ist zum einen Marketing, zum anderen ein Zugeständnis für den Professionellen Markt (DP-Leistung).

marc-05
2014-01-23, 04:55:42
Mit ordenlich OC kommt die GTX 650 Ti auch an die Leistung ran.
http://s1.directupload.net/images/140123/6xijb9og.gif (http://www.directupload.net)

Wird doch an dem Specs von 128Bit SI was dran sein.

Dawn on Titan
2014-01-23, 07:01:31
Ohne die Leistungsaufnahme zu kennen, sagen die Zahlen gar nichts.

Ailuros
2014-01-23, 09:29:35
Ohne die Leistungsaufnahme zu kennen, sagen die Zahlen gar nichts.

GeForce GTX650 Ti = 110W TDP
GeForce GTX650Ti boost = 134W TDP

Selbst bei 80-90W TDP ist bei der Leistung der mini-Maxwell voellig in Ordnung.

Skysnake
2014-01-23, 09:32:21
Naja, kommt drauf an, wie Sie die erreicht haben.

Wenn sie den L2 Cache fett aufgeblasen haben, dann ist das zwar toll, bringt einem für nen Chip in der Größe eines GK110 halt nichts, weil man den schlicht nicht mehr größer machen kann.

Das WIE ist schon nicht ganz unwichtig.

AnarchX
2014-01-23, 09:36:26
Einen neuen 28nm Big-Chip erwartet doch auch niemand?
Außer man kann die CC-Zahl etwas reduzieren, während die reale SP-Leistung gleich bleibt und man geht wieder auf Half-Rate-DP.

Ailuros
2014-01-23, 09:39:24
Wir wissen nichtmal wie auf der einfachsten Ebene ein Maxwell SMX aussieht; sonst ist Kepler zwar schoen und gut aber es wohl eben NICHT so dass man nicht einiges anstellen koennte um weiteres low hanging fruit zu pfluecken oder?

Einen neuen 28nm Big-Chip erwartet doch auch niemand?
Außer man kann die CC-Zahl etwas reduzieren, während die reale SP-Leistung gleich bleibt und man geht wieder auf Half-Rate-DP.

Ich bin mir nichtmal sicher ob alles unter 28nm auch noch einen performance chip beinhalten wuerde.

Gipsel
2014-01-23, 09:43:14
Benchmark ist ja offenbar tatsächlich die R7-260X. Bonaire mißt 160mm² , hat ein 128Bit-Interface und zieht maximal ~115W. Der Chip wird da aber taktmäßig bereits ziemlich geprügelt. Wenn der GM107 etwas größer wäre, ist gleiche Performance bei 100W auch keine große Kunst. Wir werden sehen, was nV da anbietet.

AnarchX
2014-01-23, 10:01:18
Vielleicht sitzen aber auch noch ein paar Denver-Kerne auf dem Die.:D

Dawn on Titan
2014-01-23, 10:06:12
GeForce GTX650 Ti = 110W TDP
GeForce GTX650Ti boost = 134W TDP

Selbst bei 80-90W TDP ist bei der Leistung der mini-Maxwell voellig in Ordnung.

Wenn sie im gleichen Prozess 20-30% Effizienz gefunden haben, dann wäre das imho ziemlich stark.

Gipsel
2014-01-23, 10:06:38
Vielleicht sitzen aber auch noch ein paar Denver-Kerne auf dem Die.:DFür "memory compression" (wie irgendwo behauptet) wäre das allerdings Blödsinn.

M4xw0lf
2014-01-23, 10:06:50
Vielleicht sitzen aber auch noch ein paar Denver-Kerne auf dem Die.:D
Damit man auch Android-Apps zocken kann. Candy Crush für PC, yay :freak:

Gipsel
2014-01-23, 10:12:16
Wenn sie im gleichen Prozess 20-30% Effizienz gefunden haben, dann wäre das imho ziemlich stark.
Man sollte in der Rechnung die Die-Größe nicht vergessen, da das auch eine Rolle spielt (sowohl für Preis als auch Energieeffizienz). Bisher hat nV da einen deutlichen Nachteil gegenüber AMDs Bonaire und Pitcairn (so um die 15-20% würde ich mal behaupten).

AnarchX
2014-01-23, 10:13:32
Für "memory compression" (wie irgendwo behauptet) wäre das allerdings Blödsinn.
Fraglich ob man als GeForce-Nutzer davon profitieren würde. Aber ähnlich wie GK208 könnte man das ganze als Entwicklerplattform für zukünftige Projekte, sei es Maxwell/Denver-Tegra oder autarke Maxwell-HPC-Prozessoren, nutzen.

RaptorFX
2014-01-23, 12:07:34
Erinnert ihr euch an die Roadmap wo Maxwell gegenüber Kepler gezeigt wurde? Da stand Maxwell ja ziemlich krass gegenüber Kepler. Kann man denn die Effizienz derart steigen nur mit minimalsten Änderungen der Architektur wie videocardz behauptet (dass Maxwell nur ein Kepler-Refresh ist)? Weil ich habe so langsam meine Zweifel an deren Glaubwürdigkeit, da diese auch strikt der Meinung sind das der 20SoC Prozess bei TSMC nur für (kleine) SoCs und nicht für High-End-GPUs gedacht ist:eek::eek:


Noch ne Frage: Kann man bei den High-End-Maxwell Karten eigentlich schon HMC erwarten?


Grüße

AnarchX
2014-01-23, 12:13:12
Es wurde schon früh spekuliert, dass die Leistungsprognose von Maxwell nicht allein auf einem besseren Fertigungsprozess basieren kann. Isoliert konnte man da wohl auf gute 30% durch Architekturverbesserungen spekulieren. Was da nun davon übrig geblieben ist, erfährt man vielleicht im Februar.

HMC wurde doch klar für Volta angekündigt.

Ailuros
2014-01-23, 12:16:54
Fraglich ob man als GeForce-Nutzer davon profitieren würde. Aber ähnlich wie GK208 könnte man das ganze als Entwicklerplattform für zukünftige Projekte, sei es Maxwell/Denver-Tegra oder autarke Maxwell-HPC-Prozessoren, nutzen.

Fuer so etwas klingt es mir eine verdammt grosse Platz-Verschendung denn die Denver cores scheinen ja alles anderes als klein zu sein.

Erinnert ihr euch an die Roadmap wo Maxwell gegenüber Kepler gezeigt wurde? Da stand Maxwell ja ziemlich krass gegenüber Kepler. Kann man denn die Effizienz derart steigen nur mit minimalsten Änderungen der Architektur wie videocardz behauptet (dass Maxwell nur ein Kepler-Refresh ist)? Weil ich habe so langsam meine Zweifel an deren Glaubwürdigkeit, da diese auch strikt der Meinung sind das der 20SoC Prozess bei TSMC nur für (kleine) SoCs und nicht für High-End-GPUs gedacht ist:eek::eek:


Noch ne Frage: Kann man bei den High-End-Maxwell Karten eigentlich schon HMC erwarten?


Grüße


Die roadmap basiert auf FP64 FLOPs/Watt welches nicht unbedingt mit der 3D Effizienz-Steigerung verbunden sein muss. Eine gesunde Steigerung wird es schon geben; wie gross diese sein wird haengt dann eher vom Zeitpunkt der Veroeffentlichung ab und dem benutzten Herstellungsprozess.

Den Bloedsinn dass 20SoC nur fuer kleine SoCs geeignet ist kann ich langsam nicht mehr lesen. Wurde auch hier im thread mehrmals besprochen.

RaptorFX
2014-01-23, 12:18:31
Es wurde schon früh spekuliert, dass die Leistungsprognose von Maxwell nicht allein auf einem besseren Fertigungsprozess basieren kann. Isoliert konnte man da wohl auf gute 30% durch Architekturverbesserungen spekulieren. Was da nun davon übrig geblieben ist, erfährt man vielleicht im Februar.

HMC wurde doch klar für Volta angekündigt.



Ah ok vielen Dank.

Wegen Volta: Ich weiß nur, dass es direkt auf dem GPU-Silizium drauf sein soll. Müsste es nicht daher ne Anbindung wie normaler RAM auf der Platine geben??

ndrs
2014-01-23, 13:40:57
Wegen Volta: Ich weiß nur, dass es direkt auf dem GPU-Silizium drauf sein soll. Müsste es nicht daher ne Anbindung wie normaler RAM auf der Platine geben??
Der Ram sitzt neben der GPU aber auf dem gleichen Package. Die Anbindung läuft also komplett on-package und kann daher relativ breit ausgeführt werden. auf dem großen PCB wird kein RAM mehr zu finden sein.

Und es ist normaler Stacked DRAM, kein HMC.

Skysnake
2014-01-23, 14:14:28
Noch ne Frage: Kann man bei den High-End-Maxwell Karten eigentlich schon HMC erwarten?
Grüße
Nein, mit Volta kommed der Speicher mit aufs Package, quasi sowas ähnliches wie der Near-Memory bei HMC, aber doch was komplett anderes, weil die Logik drunter fehlt.

Es wurde schon früh spekuliert, dass die Leistungsprognose von Maxwell nicht allein auf einem besseren Fertigungsprozess basieren kann. Isoliert konnte man da wohl auf gute 30% durch Architekturverbesserungen spekulieren. Was da nun davon übrig geblieben ist, erfährt man vielleicht im Februar.

HMC wurde doch klar für Volta angekündigt.
Nein, Volta bekommt kein HMC, nur etwas was so ähnlich ist...

Ihr müsst da echt aufpassen. Jeder DEPP macht da gerade sein eigenes Ding mit kleinen Abweichungen, damit nichts untereinander kompatibel ist... An sich nicht schlimm, da das Zeug eh fest verlötet ist, aber dennoch muss man EXTREM! aufpassen, damit man nicht Äpfel mit Birnen vergleicht.

Sunrise
2014-01-23, 18:09:33
Fuer so etwas klingt es mir eine verdammt grosse Platz-Verschendung denn die Denver cores scheinen ja alles anderes als klein zu sein.
Das ist schwer zu sagen. Hängt stark davon ab, was wir uns jetzt von den Denver-Cores erwarten können. Vor allem, was NV da softwareseitig genau vorhat.

Eigentlich würde ich damit maximal zuerst beim Top Dog rechnen, da es da keinen großen Unterschied mehr machen sollte, ob ich ein paar Recheneinheiten mehr dazubaue, oder gleich 2-4 oder sogar mehr Denver-Cores. Wenn man allerdings stark auf die Die-Größe achten muss, dann bin ich mir noch nicht sicher, ob das schon so sinnvoll ist. Und NV wird mit Sicherheit schauen, da kompakter zu bauen, da AMD das bereits vorgemacht hat. Es könnte also sein, dass man da eher auf area, statt auf performance optimiert. Da sollten Dinge wie Caches etc. also wichtiger sein, als die Denver-Cores. Vor allem auch aufgrund der Bandbreite, da es aktuell an Alternativen mangelt, als gleich das Interface unnötig stark aufzublasen. Obenrum hat man da aber natürlich wieder ganz andere Prioritäten (Intel, HPC) und das Maximum an Rechenleistung bei ~550mm² und einer TDP, die möglichst nicht über Kepler liegen sollte.

Da hat man wohl langfristig aber eher nur Vorteile, da die Denver-Cores immer kleiner werden. Man kann zwar an den aktuellen Marketing-Slides (K1) nichts festmachen, aber wenn die auch nur annähernd gleich gescaled waren, dann sollten die Dinger ab 20nm schon extrem kompakt werden.

Ailuros
2014-01-23, 20:20:03
Wieso sollten die Denver cores ueber diverse GPU Generationen gleich gross bleiben? Ich schlage mal konservativ auf area optimierte Denver cores bei schaetzungsweise 5mm2/core unter 20SoC vor; bei hypothetischen 8 cores sind es dann schon 40mm2 insgesamt und bei einem high end GPU chip der sich am obrigen Rand bewegt (bis zu 550mm2) bedeutet so viel theoretische CPU die area erstmal einen cluster weniger.

Sunrise
2014-01-23, 20:22:07
Wieso sollten die Denver cores ueber diverse GPU Generationen gleich gross bleiben? Ich schlage mal konservativ auf area optimierte Denver cores bei schaetzungsweise 5mm2/core unter 20SoC vor; bei hypothetischen 8 cores sind es dann schon 40mm2 insgesamt und bei einem high end GPU chip der sich am obrigen Rand bewegt (bis zu 550mm2) bedeutet so viel theoretische CPU die area erstmal einen cluster weniger.
Ja, da komme ich mit meinen Schätzungen auch ungefähr hin und das halte ich für vertretbar. Klar, Verbesserungen bei den Cores bei folgenden Generationen sind möglich und auch wahrscheinlich, aber NV wird hier dann evtl. auch schon fest mit 20nm (16nmFinFET) planen, um das bei späteren Generationen wieder abfangen zu können.

Wichtiger wird wohl sein, ob sie mit Maxwell in AMDs Packdichte-Regionen vorstoßen können. Dann könnten auch kleinere Fertigungssprünge abgefedert werden.

Skysnake
2014-01-23, 20:30:29
Es ist doch an sich scheis! egal, wie groß die Cores dann jeweils sind. Also ob man Sie shrinkt auf 16nm oder nicht.

Es kommt doch darauf an, wieviele GPU-Cluster/ALUs man dadurch verliert. Im Endeffekt wird das realtive Verhältnis wohl recht identisch bleiben für die unterschiedlichen Fertigungen.

Man wird ja nicht einfach immer mit X Cores auskommen, sondern x Cores auf Y GPU-Cluster rechnen müssen.

Ailuros
2014-01-23, 20:33:11
Das was ich als Laie verdammt vereinfacht im Hinterkopf habe ist dass NV hautpsaechlich die ARM cores einbaut um fuer HPC mit Intel's HPC Prozessoren ab KNL besser konkurrieren kann. Da Intel's relevante Architekturen sich natuerlich weiterentwickeln werden wird IMHO jeglicher Versuch von NV ihnen so weit wie moeglich zu folgen definitiv nicht umsonst sein.

Man sollte uebrigens betonen dass die originalen "Echelon" Projektionen von 16 ARM cores sprachen welches mit der Zeit sich schnell auf 8 reduzierten, weil irgend jemand doch einsehen musste dass 16 wohl doch zu viel sind fuer einen GPU core.

Sunrise
2014-01-23, 20:52:33
Das was ich als Laie verdammt vereinfacht im Hinterkopf habe ist dass NV hautpsaechlich die ARM cores einbaut um fuer HPC mit Intel's HPC Prozessoren ab KNL besser konkurrieren kann.
War da nicht auch etwas mit driver overhead reduction? Da die ja aktuell schon sehr stark auf multi-threading ausgelegt sind, damit u.a. auch die CPU zu entlasten.

Skysnake
2014-01-23, 21:01:42
Das was ich als Laie verdammt vereinfacht im Hinterkopf habe ist dass NV hautpsaechlich die ARM cores einbaut um fuer HPC mit Intel's HPC Prozessoren ab KNL besser konkurrieren kann. Da Intel's relevante Architekturen sich natuerlich weiterentwickeln werden wird IMHO jeglicher Versuch von NV ihnen so weit wie moeglich zu folgen definitiv nicht umsonst sein.

Man sollte uebrigens betonen dass die originalen "Echelon" Projektionen von 16 ARM cores sprachen welches mit der Zeit sich schnell auf 8 reduzierten, weil irgend jemand doch einsehen musste dass 16 wohl doch zu viel sind fuer einen GPU core.
Tja nur blöd, das Intel insbesondere beim Speicher und dem Interconnect richtig aufs Gas tritt....

K, mit Volta macht nVidia auch was fürn Speicher, aber Interconnect?

Da hört man halt gar nichts von denen, und Interconnect ist nicht minder wichtig....

AnarchX
2014-01-24, 19:57:04
http://itbbs.pconline.com.cn/diy/51108400.html
Backup: http://videocardz.com/49454/nvidia-geforce-gtx-750-ti-specifications-benchmarks-leaked

960SPs/80TMUs 1098/1176MHz @ 128-Bit 5,4Gbps

Relativ wenig Bandbreite für die gebotene GPU-Leistung. Die Device-ID im GPU-Z-Shot (1380) scheint keine bekannte GPU zu sein.

fondness
2014-01-24, 21:16:44
Wenn sich das alles bestätigt scheint Maxwell ja äußerst unspektakulär zu sein.

Skysnake
2014-01-24, 21:30:10
http://itbbs.pconline.com.cn/diy/51108400.html
Backup: http://videocardz.com/49454/nvidia-geforce-gtx-750-ti-specifications-benchmarks-leaked

960SPs/80TMUs 1098/1176MHz @ 128-Bit 5,4Gbps

Relativ wenig Bandbreite für die gebotene GPU-Leistung. Die Device-ID im GPU-Z-Shot (1380) scheint keine bekannte GPU zu sein.
Bandbreite kostet halt auch richtig Energie im Vergleich zu sterilen Flop/s ;)

-/\-CruNcher-/\-
2014-01-24, 21:48:17
Wenn sich das alles bestätigt scheint Maxwell ja äußerst unspektakulär zu sein.

Wie willst du das sagen bis jetzt gibt es noch keine Performance/Watt tests oder ?

Ich sehe hier immer nur Benchmarks und pseudo vergleiche ;)

Undertaker
2014-01-24, 22:37:48
Sagen kann man bis jetzt noch gar nix, solange wir nur einen Einstiegschip mit unbekanntem Verbrauch und unbekannter Die-Size sehen. Woran will man jetzt bitte festmachen, was gut, schlecht, spektakulär oder sonstwas ist? :confused:

Btw: Arbeitet GPU-Z nicht nur mit einer Datenbank? Sicher, dass die technischen Daten überhaupt stimmen? Die Größenordnung könnte zwar passen, aber dennoch...

Timbaloo
2014-01-24, 22:44:11
Und selbst die Benchmarks müssen ja noch nichtmal stimmen, Treiber werden bestimmt auch noch nicht mörderoptimiert sein, etc.

Skysnake
2014-01-24, 23:23:01
Sagen kann man bis jetzt noch gar nix, solange wir nur einen Einstiegschip mit unbekanntem Verbrauch und unbekannter Die-Size sehen. Woran will man jetzt bitte festmachen, was gut, schlecht, spektakulär oder sonstwas ist? :confused:

Btw: Arbeitet GPU-Z nicht nur mit einer Datenbank? Sicher, dass die technischen Daten überhaupt stimmen? Die Größenordnung könnte zwar passen, aber dennoch...
Meines Wissens nach ja, also nur Datenbank.

-/\-CruNcher-/\-
2014-01-25, 00:50:03
Auf der anderen seite muss jemand diese Daten einfplegen und der/die macher tun sich sicher nix gutes wenn sie dort falsche daten die nicht vom IHV oder einer der leak quellen bestätigt worden sind einpflegen ;)

Kamm allerdings auch schon vor soweit ich weiss vor allem bei GPU-Z allerdings kann es viele der daten ja von NVAPI abgreifen und somit kommen sie vom Treiber selbst also Nvidia (das selbe fenster wie im Nvidia Controll Center) weiss allerdings nicht genau ob sie das für diese daten machen oder alles generel aus der datenbank ziehen ;)

Daten wie die Die Size davon natürlich ausgeschlossen die liefert Nvidia nicht mit NVAPI wozu auch und die kommen 100% aus der Datenbank ;)

AnarchX
2014-01-25, 08:54:29
GTX 750 (Ti), beide ohne externe Stromversorgung und 75W Board Power?

http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F18221-geforce-gtx-750-ti-far-sallskap-av-gtx-750-kraver-ingen-extra-stromforsorjning&act=url

Das wären 28 GFLOPs pro Watt.

Zum GPU-Z-Shot:
Ja, die CC-Zahl könnte via NVAPI ausgelesen werden, ebenso die Taktraten.
Und wie gesagt, ist da Zahl bei GPU - die Device-ID, in einem keinen bekannten Bereich.

fondness
2014-01-25, 09:49:06
Ohne extrerne Stromversorgung wäre natürlich stark, allerdings gab es auch schon vorher eine Meldung mit externer Stromversorgung. Mal sehen.

Wie willst du das sagen bis jetzt gibt es noch keine Performance/Watt tests oder ?

Ich sehe hier immer nur Benchmarks und pseudo vergleiche ;)

Das bezog sich eher auf den Grundaufbau der Architektur wie ALU/TMU-Verhältnis, oder Leistung pro ALU. Featureset wird sich wohl auch nicht viel tun ohne neuem DX.
Klar am der Effizienz sollte sich schon etwas tun, sonst würde der Chip keinen Sinn machen.

marc-05
2014-01-25, 12:33:54
Benchmark "Leaks" gehen ja weit auseinander,mal die Leistung einer R7 260x dann mal HD7770
Wären tatsächlich in etwa 960CudaCore verbaut wird die GPU durchs schmale 128BI SI ausgebremst.

Ailuros
2014-01-25, 12:41:08
http://itbbs.pconline.com.cn/diy/51108400.html
Backup: http://videocardz.com/49454/nvidia-geforce-gtx-750-ti-specifications-benchmarks-leaked

960SPs/80TMUs 1098/1176MHz @ 128-Bit 5,4Gbps

Relativ wenig Bandbreite für die gebotene GPU-Leistung. Die Device-ID im GPU-Z-Shot (1380) scheint keine bekannte GPU zu sein.

[5*(6*SIMD32)]?

GTX 750 (Ti), beide ohne externe Stromversorgung und 75W Board Power?

http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F18221-geforce-gtx-750-ti-far-sallskap-av-gtx-750-kraver-ingen-extra-stromforsorjning&act=url

Das wären 28 GFLOPs pro Watt.

Zum GPU-Z-Shot:
Ja, die CC-Zahl könnte via NVAPI ausgelesen werden, ebenso die Taktraten.
Und wie gesagt, ist da Zahl bei GPU - die Device-ID, in einem keinen bekannten Bereich.Selbst bei 60W TDP ist 1 6pin eine bessere Idee aus Sicherheitsgründen.

AnarchX
2014-01-25, 13:50:22
64/65W scheint in der Tat die Grenze zu sein, wo NV auf einen externen 6-Pin setzt:
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-650/specifications
http://www.geforce.com/hardware/desktop-gpus/geforce-gt640/specifications

Da wären es bei den spekulierten Specs ja schon >30 GFLOPs pro Watt.

Möglicherweise bezieht sich das ganz doch nur auf die 750 Non-Ti, wenn auch im Artikel beide mit dieser Eigenschaft in Verbindung gebracht werden.

+25% GFLOPs/Leistung gegenüber der GTX 650 bei 65W TDP wären auch nur magere 15 GFLOPs pro Watt.

Skysnake
2014-01-25, 14:55:59
Und was bringen dir sterile Flop/W Werte?

Richtig gar nichts. Entscheidend ist, was hinten bei raus kommt...

dildo4u
2014-01-25, 15:26:26
NV vs NV lässt sich schon sehr gut vergleichen.

Spasstiger
2014-01-25, 15:51:28
Die Benchmarks und Specs passen zusammen und sprechen für eine weitere GK106-Variante. Eigentlich kann man nur noch über die Leistungsaufnahme auf die Möglichkeit eines neuen Chips schließen. Auf GK106-Basis würde ich eine ähnliche TDP wie bei der GTX 660 erwarten (140 Watt), bestenfalls 10 Watt weniger aufgrund der geringere Speicherbandbreite. Das wären dann 130 Watt. 65 Watt wären eine enorme Verbesserung.

Angenommen die 65 Watt bei den Specs stimmen, dann könnte man durch eine Skalierung in die Breite nach einer Milchmädchenrechnung über 3840 SPs @ 1 GHz und ein 512-Bit-GDDR5-SI in 250 Watt TDP unterbringen. Das in 28 nm würde tatsächlich nochmal für ein High-End-Update passen, sofern die benötigte Fläche fertigbar ist. ;)

fondness
2014-01-25, 16:15:31
NV vs NV lässt sich schon sehr gut vergleichen.

Nicht bei neuer Architektur. Ist halt die Frage wieviel bei Maxwell anders ist.

Ailuros
2014-01-25, 16:15:59
Und was bringen dir sterile Flop/W Werte?

Richtig gar nichts. Entscheidend ist, was hinten bei raus kommt...

Liegt die Leistung durchschnittlich tatsaechlich zwischen 650Ti und 650Ti boost bei bis zu 75W TDP ist es um einiges mehr als nur sterile FLOPs http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10082573&postcount=1341

dildo4u
2014-01-25, 16:17:20
Wie dem auch sei wenn wird's eher effektiver nicht schlechter.Wobei Kepler schon beeindruckend ist wenn man den neuen Tegra sieht.

Blediator16
2014-01-25, 16:19:07
Wie dem auch sei wenn wird's eher effektiver nicht schlechter.Wobei Kepler schon beeindruckend ist wenn man den neuen Tegra sieht.

Noch weiß man nicht alles, was man wissen sollte beim K1.

fondness
2014-01-25, 16:20:46
Wie dem auch sei wenn wird's eher effektiver nicht schlechter.Wobei Kepler schon beeindruckend ist wenn man den neuen Tegra sieht.

Das kannst du nicht wissen, wenn es anders energieeffizienter ist wird man es anders machen.

Ailuros
2014-01-25, 16:28:19
Noch weiß man nicht alles, was man wissen sollte beim K1.

Es ist aber dann schon so dass ihre roadmap dann auch den ULP Markt mitberechnet als Aspekt. Selbst wenn ich theoretisch die GK20A GPU im K1 auf 5W TDP hochrechne sind es immer noch 73GFLOPs/W; in diesem Fall stehen die ULP FLOPs nicht unbedingt fuer genausoviel Leistung wie im desktop, aber der "hoppla" Effekt ist nach wie vor da.

Skysnake
2014-01-25, 19:23:46
Liegt die Leistung durchschnittlich tatsaechlich zwischen 650Ti und 650Ti boost bei bis zu 75W TDP ist es um einiges mehr als nur sterile FLOPs http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10082573&postcount=1341
Die Frage ist aber, wie der Durchschnitt dann wirklich aussieht. Du weißt doch selbst, wie wichtig das SI ist, und wie gut man daran sparen kann.

Flop/s kann man ohne viel Aufwand in nen Chip bringen, aber die dementsprechende Speicher- und im Endeffekt Registerbandbreite muss halt auch da sein, und genau da schwächelt sowohl nVidia als auch AMD.

Die beiden rennen aktuell in die gleiche Richtung wie Cray usw mit ihren großen Vektorrechnern im letzten Jahrtausend. Wie die Geschichte am Ende aufging wissen wir ja.

Ailuros
2014-01-25, 19:57:26
Die Frage ist aber, wie der Durchschnitt dann wirklich aussieht. Du weißt doch selbst, wie wichtig das SI ist, und wie gut man daran sparen kann.

Sowohl die 750Ti als auch die 650Ti haben ein 128bit SI.

Flop/s kann man ohne viel Aufwand in nen Chip bringen, aber die dementsprechende Speicher- und im Endeffekt Registerbandbreite muss halt auch da sein, und genau da schwächelt sowohl nVidia als auch AMD.

Die beiden rennen aktuell in die gleiche Richtung wie Cray usw mit ihren großen Vektorrechnern im letzten Jahrtausend. Wie die Geschichte am Ende aufging wissen wir ja.

Da der Weg zu Cray zeitlich noch ziemlich lang ist, wagt selbst ein waschreiner hw engineer keine Spekulationen die sich ueber ein halbes Jahrzehnt dehnen. In der Zwischenzeit gibt es immer noch genug Mittel die Bandbreiten-effizienz und rohe Bandbreite zu steigern.

RaptorFX
2014-01-25, 21:23:33
Könnte es auch (mit hoher) Warscheinlichkeit auch nur ein Kepler-Chip sein. Denn auf Grund der Anzahl der Shaders (960 Maxwell und 960 Kepler) scheint Maxwell ja ziemlich "billig" zu sein:frown::frown:

Ailuros
2014-01-25, 21:32:49
Könnte es auch (mit hoher) Warscheinlichkeit auch nur ein Kepler-Chip sein. Denn auf Grund der Anzahl der Shaders (960 Maxwell und 960 Kepler) scheint Maxwell ja ziemlich "billig" zu sein:frown::frown:

Hab ich auch schon dran gedacht; nur wie kommt man mit einem Kepler auf so wenig Stromverbrauch ist dann die Frage.

Timbaloo
2014-01-25, 21:47:23
Vor allem bei vergleichsweise hohem Takt. Imho passen die Daten noch alle nicht so recht zusammen.

Hugo78
2014-01-25, 22:20:40
Braucht Nvidia nicht sowieso einen kleinen Maxwell für ihren nächsten Tegra als Testlauf und Entwicklerplattform?

-/\-CruNcher-/\-
2014-01-25, 23:07:50
Das heist ja im Endeffekt könnte die x60 serie endlich mit nur 1x 6 pin auskommen, kein schlechter fortschritt :)

also gehen wir auf jedenfall in die Richtung 150 watt :)

Ailuros
2014-01-25, 23:48:01
Braucht Nvidia nicht sowieso einen kleinen Maxwell für ihren nächsten Tegra als Testlauf und Entwicklerplattform?

Es wird noch einige Zeit dauern bis eine Parker dev platform fertig ist. Das K1 devboard reicht sowieso noch lange aus.

Raff
2014-01-26, 00:00:31
Das heist ja im Endeffekt könnte die x60 serie endlich mit nur 1x 6 pin auskommen, kein schlechter fortschritt :)

also gehen wir auf jedenfall in die Richtung 150 watt :)

Effizienz in Ehren, aber wer wirklich effizient und dennoch flüssig spielen will, kauft nicht in der Mittelklasse ein, sondern schnappt sich den Oberhoschi und undervoltet den bis zum Rand. Eine Titan oder 780 Ti liefern mit gesenkter Spannung konkurrenzlos hohe Leistung im 150-Watt-Bereich.

MfG,
Raff

Skysnake
2014-01-26, 02:08:52
Sowohl die 750Ti als auch die 650Ti haben ein 128bit SI.



Da der Weg zu Cray zeitlich noch ziemlich lang ist, wagt selbst ein waschreiner hw engineer keine Spekulationen die sich ueber ein halbes Jahrzehnt dehnen. In der Zwischenzeit gibt es immer noch genug Mittel die Bandbreiten-effizienz und rohe Bandbreite zu steigern.
Und wie sieht es mit Registerfile, und Caches aus?

Da kann man teilweise so einiges einsparen. Ist halt immer die Frage, wie hart es rein haut, das man eben Datenbandbreite gegen Flops tauscht.

Hugo78
2014-01-26, 06:36:35
Es wird noch einige Zeit dauern bis eine Parker dev platform fertig ist. Das K1 devboard reicht sowieso noch lange aus.

Ok, also wenn es doch Kepler ist, dann ein Refresh in 28 HPM.

Gaestle
2014-01-26, 12:16:17
Aus dem anderen Thread:
Die GTX790 Dual-Chip kommt wohl nur mit 3GB VRAM pro Chip
http://videocardz.com/49465/asus-geforce-gtx-titan-black-6gb-memory-gets-listed-974-eur

Zitat:
GeForce GTX TITAN BLACK Edition 6GB, GK110, 2880 CUDAs
GeForce GTX 790 6GB, 2xGK110, 2x 2496/2880 CUDAs
GeForce GTX 750 Ti 2GB, GK106 (GM106), 960 CUDAs
GeForce GTX 750 1GB, GK107 (GM107), 384 CUDAs


Ob es sich bei der GTX750-Serie tatsächlich um Maxwell handelt scheint auch alles andere als sicher.

Der Sprung von 384 zu 960 nur für das "Ti" Anhängsel scheint mir etwas groß.

Hugo
2014-01-26, 13:00:53
Könnte es auch (mit hoher) Warscheinlichkeit auch nur ein Kepler-Chip sein. Denn auf Grund der Anzahl der Shaders (960 Maxwell und 960 Kepler) scheint Maxwell ja ziemlich "billig" zu sein:frown::frown:Hab ich auch schon dran gedacht; nur wie kommt man mit einem Kepler auf so wenig Stromverbrauch ist dann die Frage.

könnte ja auch ein GK106 @20nm sein, und noch kein Maxwell?

boxleitnerb
2014-01-26, 13:01:27
Ich denke es ist möglich, dass die 750 Ti einen 6-pin hat, die 750 aber nicht.

Aus dem, was wccftech schreibt, werde ich nicht ganz schlau:
We have just been updated that the GeForce GTX 750 (Non-Ti) would cost around $110 US at launch while the faster GeForce GTX 750 Ti which is based on a different core would be priced around $150 US. Both cards are expected to feature 2 GB GDDR5 memory running along a 128-bit memory interface.

Read more: http://wccftech.com/maxwell-gtx-750-nonti-inbound/#ixzz2rVPM0hUO

"Different core" ist für mich sowas wie GK106 vs GK107, aber vielleicht meinen sie halt nur die Teildeaktivierung bei der 750 non-Ti.

Godlike
2014-01-26, 18:15:37
Effizienz in Ehren, aber wer wirklich effizient und dennoch flüssig spielen will, kauft nicht in der Mittelklasse ein, sondern schnappt sich den Oberhoschi und undervoltet den bis zum Rand. Eine Titan oder 780 Ti liefern mit gesenkter Spannung konkurrenzlos hohe Leistung im 150-Watt-Bereich.

MfG,
Raff

Gibt es dazu eigentlich wo einen Test, welche Karte wie weiter runtergeht?

AnarchX
2014-01-27, 14:09:33
Added support for NVIDIA GTX Titan Black, GTX 750 (GM107), GTX 750 Ti (GM107), GeForce 840M (GM108), GTX 760 (192-bit), GT 750M (Apple), GT 735M, GT 720M
http://www.techpowerup.com/197297/techpowerup-gpu-z-0-7-6-released.html

Laut TPU handelt es sich um Maxwell.

Hübie
2014-01-27, 14:40:53
Ich denke es ist möglich, dass die 750 Ti einen 6-pin hat, die 750 aber nicht.

Aus dem, was wccftech schreibt, werde ich nicht ganz schlau:


"Different core" ist für mich sowas wie GK106 vs GK107, aber vielleicht meinen sie halt nur die Teildeaktivierung bei der 750 non-Ti.

Oder 750=Kepler-rebrand, 750Ti=Maxwell ;)
Edit: @Raff. Das will ich sehen! Kann man die Mittelklasse nicht undervolten? ;)

Duplex
2014-01-27, 15:32:37
Afaik gab es mal vor paar Monaten ne Spekulation das Maxwell wegen Tegra storniert wurde, kann sein das man erst in 20nm Maxwell bringen wird.
Wäre doch schwachsinn wenn Maxwell nicht unter den Label GTX8xx laufen würde, das ganze sieht verdächtigt nach einem Kepler Refresh aus.

Dawn on Titan
2014-01-27, 15:37:48
Nö, nach einen Testchip.

Godmode
2014-01-27, 15:41:04
Nö, nach einen Testchip.

Sehe ich auch so. Später dann den richtigen, mit mehr Takt und dann in der 800er Namensreihe.

Dural
2014-01-27, 15:42:08
Sind aber zwei laut der Liste: GM107 und GM108

Auch Apple scheint was von Maxwell ab zubekomme: GTX750M Apple


Hmm scheint doch besser zu werden als ich zuerst noch gedacht habe, NV hat mit Maxwell wohl ziemlich an der Energiebilanz geschraubt.
Nur frag ich mich wo und wie genau :confused:

RaptorFX
2014-01-27, 16:14:52
Naja wegen TechPowerUp würde ich net auf Maxwell tippen. Die tun da viel aus Gaudi rein, wie den GM100 mit den damaligen Gerüchten von über 6000 Shader usw.

Ich hoffe für die GPU-Welt, dass Maxwell wirklich nicht in der GTX750 Reihe steckt. Selbst wenn es nur ein Testchip ist, zeigt dies das man von Maxwell nicht viel erwarten kann.

AnarchX
2014-01-27, 16:17:11
Database und Erkennung via Tool ist wohl schon ein Unterschied.
Für das Tool brauch man zumindest eine Device-ID und daran kann man schon erkennen ob es eine bekannte GPU - also Kepler, ist.

RaptorFX
2014-01-27, 16:20:31
Database und Erkennung via Tool ist wohl schon ein Unterschied.
Für das Tool brauch man zumindest eine Device-ID und daran kann man schon erkennen ob es eine bekannte GPU - also Kepler, ist.


Vielleicht ist es ja auch eine neue Kepler-GPU, was vielleicht einiges erklären könnte?!?:confused::confused:

AnarchX
2014-01-27, 16:45:44
Wenn man ein BIOS dump auftreiben konnte, kann man sogar den konkreten GPU-Namen auslesen: http://www.techpowerup.com/vgabios/151117/zotac-gtx780ti-3072-131225.html (siehe hier die BIOS internals).

Wie gesagt, man sollte die DB-Spekulationen von den Tätigkeiten W1zzards rund um GPU-Z abgrenzen.

HOT
2014-01-27, 20:02:56
Nö, nach einen Testchip.
Nö, das ist ein Ersatz für die ganzen verbliebenen Fermis beispielweise und wird vor allem im Mobilbereich wichtig werden für NV. Außerdem schließt man Lücken im Portfolio. AMD hat trotz Uralttechnik deutlich energieeffizientere Chips im Low-End-Bereich zu bieten.
Es gibt einfach vorerst kein Maxwell-High-End. Ein Testchip würde nur bei einem neuen Prozess sinnvoll sein, den gibts ja zu 99% nicht.
Trotzdem wird NV mMn zuerst geshrinkte Grafikchips bieten, aber nicht vor Ende des Jahres. Vielleicht gibts ja noch einen GK104-Ersatz, aber auch der wird dann 28nm.

Mancko
2014-01-28, 10:13:50
Nö, das ist ein Ersatz für die ganzen verbliebenen Fermis beispielweise und wird vor allem im Mobilbereich wichtig werden für NV. Außerdem schließt man Lücken im Portfolio. AMD hat trotz Uralttechnik deutlich energieeffizientere Chips im Low-End-Bereich zu bieten.

Hat jetzt aber auch nicht dazu geführt, dass AMD dort besonders erfolgreich war. Eher im Gegenteil. Der Mobile Bereich ist so ziemlich der schlechteste bei AMD. Daran wird sich auch nicht viel ändern. Intel und AMD ist einfach keine favorisierte Kombo - nicht nur bei den OEMs.

-/\-CruNcher-/\-
2014-01-28, 18:44:51
AMD will dort anfangen anzugreifen siehe CES ihre Low Power SDP 2W Devices bassierend auf Mulins, damit wollen sie ein gegenstück zu Intels Bay Trail und Ultrabooks Atom etablieren.
Sie setzen natürlich ihr Augenmerk auf die höhere GPU Performance allerdings wird Intel bis zum Ende dieses Jahres enorme fortschritte mit ihrer GPU gemacht haben, es ist ein Wettlauf wer schneller seine defizite ausgebügelt hat :)

Hugo78
2014-01-28, 18:55:23
AMDs Mulins oder Intels Bay Trail sind jetzt aber OT, da die nicht für den unteren Gaming-Desktop / Mittelklasse Notebook Bereich gedacht sind.
Grade GM107 als GTX 860M/870M, aber auch GM108 als GTX 850M werden zusammen das umsatzstärkste Segment für Gaming Notebooks bedienen.

-/\-CruNcher-/\-
2014-01-28, 20:16:51
Es ist unasuweichlich das sie durch die fortschreitende Effiziensteigerung irgendwann dort hineinkrachen ;)

Bay Trail macht jetzt schon ihren eigenen Core I3 konkurenz, vor allem wenn man beachtet wie schnell die time to market zeit nach release momentan ist das geht rasend schnell viel schneller als bei GPUs oder CPUs allein und vor allem Intel versucht hier noch schneller zu sein als andere.

Ailuros
2014-01-28, 20:22:31
Es ist unasuweichlich das sie durch die fortschreitende Effiziensteigerung irgendwann dort hineinkrachen ;)

Bay Trail macht jetzt schon ihren eigenen Core I3 konkurenz, vor allem wenn man beachtet wie schnell die time to market zeit nach release momentan ist das geht rasend schnell viel schneller als bei GPUs oder CPUs

Es bleibt nach wie vor OT. Zurueck zum Thema bitte.

AnarchX
2014-01-29, 17:15:44
GTX 750: 768SPs @1020/1085MHz + 128-Bit @ 5Gbps

http://i.imgur.com/9pDLdOC.jpg

http://i.imgur.com/lK263fv.jpg


http://detail.tmall.com/item.htm?spm=a220o.1000855.w4023-5000651707.10.lJMVxK&id=36436388292&tbpm=3#

Echtes DX11.2? :D

Godmode
2014-01-29, 17:34:03
GTX 750: 768SPs @1020/1085MHz + 128-Bit @ 5Gbps

http://i.imgur.com/9pDLdOC.jpg

http://i.imgur.com/lK263fv.jpg


http://detail.tmall.com/item.htm?spm=a220o.1000855.w4023-5000651707.10.lJMVxK&id=36436388292&tbpm=3#

Echtes DX11.2? :D

War mal Zeit, sonst gibts hier wieder 100te Seiten von Flames und gegen Flames.

AnarchX
2014-01-29, 17:54:46
GTX 750 (Ti) inkl. OCing - Rating:
http://i.imgur.com/UjGa12J.jpg

http://we.poppur.com/thread-2197531-1-1.html

von Richthofen
2014-01-29, 22:33:15
Coole Info. Sieht ja wie eine Punktlandung auf Bonaire aus. Ähnlicher Takt bei beiderseits 128-Bit SI. Unter FullHD bzw. höher legt AMD ja meist noch n Zacken drauf.
Auf den ersten Blick aber wenig grund zur Euphorie. Mal sehn wie groß das Dingen wird und wieviel es verbrät.

Interessant find ich die Testkandidaten des Benchmarks - auch mal "Älteres" mit im Vergleich.

Dawn on Titan
2014-01-30, 07:25:41
Könnte ein netter mobile Chip werden oder ne putzige PhysiX Karte.

AnarchX
2014-01-30, 08:58:32
Coole Info. Sieht ja wie eine Punktlandung auf Bonaire aus.
In der Tat. Laut GPU-Z-Datenbank ist GM107 wohl 156mm² groß: http://forums.anandtech.com/showthread.php?p=36010253#post36010253

Ailuros
2014-01-30, 09:28:44
In der Tat. Laut GPU-Z-Datenbank ist GM107 wohl 156mm² groß: http://forums.anandtech.com/showthread.php?p=36010253#post36010253

Gegen 118mm2 vom GK107 klingt der "overhead" fuer Maxwell vs. Kepler relativ gering (32%).

~14% mehr Leistung bei ~32% mehr die area und =/>45% weniger TDP?

Da sie wohl bis zum performance chip nichts besonderes aendern werden, klingt auch ein solcher unter 28nm problemlos machbar.

Was jetzt noch interessant waere, waeren Resultate von ein paar compute synthetischen benchmarks.

AnarchX
2014-01-30, 09:38:22
14% mehr Leistung als GK107? Die 650 Ti basiert auf GK106.
Gegenüber der 650 Non-Ti ist schon die kastrierte 750 Non-Ti wohl fast 50% schneller (bei gleicher Bandbreite und eventuell gleicher TDP).

Mal sehen ob man beim GM107 nur an den Speicherchips gespart hat oder auch am IMC. Beide Karten haben ja nur ~5Gbps Speicher.

Dawn on Titan
2014-01-30, 09:41:49
Gegen 118mm2 vom GK107 klingt der "overhead" fuer Maxwell vs. Kepler relativ gering (32%).

~14% mehr Leistung bei ~32% mehr die area und =/>45% weniger TDP?

Da sie wohl bis zum performance chip nichts besonderes aendern werden, klingt auch ein solcher unter 28nm problemlos machbar.

Was jetzt noch interessant waere, waeren Resultate von ein paar compute synthetischen benchmarks.

Ein GK104 Nachfolger wäre da schon interessant, gerade wenn man die TDP nur halten wollen würde.

AnarchX
2014-01-30, 09:48:15
Wenn die Daten stimmen, wäre das durchaus ein brauchbare Basis für 28nm Performance-Chips.

GM107: 5 SMX, 128-Bit 5,5Gbps?? - 100W TDP - 156mm²
=> Spekulation:
GM106: 9 SMX, 192-Bit 7Gbps - - 150W - 250mm²
GM104: 15 SMX - 320-Bit 7Gbps - 225W - 400mm²

Ailuros
2014-01-30, 09:49:16
14% mehr Leistung als GK107? Die 650 Ti basiert auf GK106.
Gegenüber der 650 Non-Ti ist schon die kastrierte 750 Non-Ti wohl fast 50% schneller (bei gleicher Bandbreite und eventuell gleicher TDP).

Mal sehen ob man beim GM107 nur an den Speicherchips gespart hat oder auch am IMC. Beide Karten haben ja nur ~5Gbps Speicher.

Du hast recht; in dem vorigen Leistungsgraph steckt ja auch keine GTX650 drin :(

Wenn die Daten stimmen, wäre das durchaus ein brauchbare Basis für 28nm Performance-Chips.

GM107: 5 SMX, 128-Bit 5,5Gbps?? - 100W TDP - 156mm²
=> Spekulation:
GM106: 9 SMX, 192-Bit 7Gbps - - 150W - 250mm²
GM104: 15 SMX - 320-Bit 7Gbps - 225W - 400mm²

Moment jetzt hab ich Dich ganz verloren....5 SMX ueber 768SPs?

AnarchX
2014-01-30, 09:52:11
Moment jetzt hab ich Dich ganz verloren....5 SMX ueber 768SPs?
Die aktuelle Spekulation geht doch von 5 SMX /960SPs im vollem GM107 aus:
GTX 750 Ti -> 960SPs
GTX 750 -> 768SPs

Ailuros
2014-01-30, 09:57:47
Die aktuelle Spekulation geht doch von 5 SMX /960SPs im vollem GM107 aus:
GTX 750 Ti -> 960SPs
GTX 750 -> 768SPs

Ergo 750ti = 5 und 750 = 4. Ok jetzt sitzt es.


GM107: 5 SMX, 128-Bit 5,5Gbps?? - 100W TDP - 156mm²
=> Spekulation:
GM106: 9 SMX, 192-Bit 7Gbps - - 150W - 250mm²
GM104: 15 SMX - 320-Bit 7Gbps - 225W - 400mm²

Nebenbei nur weil 107 eine ungerade Anzahl an SMXs hat, muss es nicht unbedingt ein genereller trend fuer alle Faelle nach oben sein.

Dawn on Titan
2014-01-30, 10:14:55
Aber wären 15SMX nicht etwas viel für den GM104? Das wäre 2880SP wie bei GK110. (wobei von GK107 (384) auf G0107 (960) ist schon ein Wort) Dann würde man GM106 bei 8SMX erwarten dürfen und dann sind 14-15SMX gar nicht so abwegig.

AnarchX
2014-01-30, 10:22:58
Nebenbei nur weil 107 eine ungerade Anzahl an SMXs hat, muss es nicht unbedingt ein genereller trend fuer alle Faelle nach oben sein.
Laut den Chinesen hat GM108 wohl auch 3 SMX. Eventuell hat man die 3er GPC von GK110 für Maxwell als Basis genommen und dann optimiert. Zum Beispiel Tesellation und Geometrie auf die Ebene der GPC gehoben?

Aber wären 15SMX nicht etwas viel für den GM104? Das wäre 2880SP wie bei GK110.
GK104 hatte 3x soviel SPs wie GF110 bzw. taktbereinigt 1,5x.

Die Spekulation wäre eine kostengünstigere Alternative gegenüber GK110. Und mit 5GiB ("besser" als AMDs 4GiB...) könnte man da vielleicht $499 langfristig anzielen.

btw.
120W Furmark für die 750 Ti inkl. Restsystem?
http://i.imgur.com/6vq2Z33.jpg
http://translate.google.co.jp/translate?hl=ja&sl=zh-CN&tl=en&u=http%3A%2F%2Fdiy.pconline.com.cn%2F422%2F4222016.html

Dawn on Titan
2014-01-30, 10:26:01
Aber 12SMX dürften da auch reichen. Taktbereinigt und unter Berücksichtigung der Effizienzsteigerung dürfte man da 780-780ti Niveau anpeilen können.

Ailuros
2014-01-30, 10:31:22
Laut den Chinesen hat GM108 wohl auch 3 SMX. Eventuell hat man die 3er GPC von GK110 für Maxwell als Basis genommen und dann optimiert. Zum Beispiel Tesellation und Geometrie auf die Ebene der GPC gehoben?

Wenn Du maximal 3 SMX/GPC hast, was genau haelt Dich auf auch in einem oder mehreren Faellen (chips) 2 SMX/GPC zu haben? GK110 wurde NICHT mit 3 SMXs/GPC konzipiert; es passten nicht mehr als 15SMX in das Ding rein und ergo entstand da eher merkwuerdige 5 GPC, 3SMX/GPC Konzept.

GK104 hatte 3x soviel SPs wie GF110 bzw. taktbereinigt 1,5x.

Performance mit high end zu vermischen ist keine gute Idee; zwar nur HPC zentrisch aber in DP GFLOPs ist der Abstand laut NV's eigener roadmap zwischen Kepler und Fermi groesser als zwischen Maxwell und Kepler.

Die Spekulation wäre eine kostengünstigere Alternative gegenüber GK110. Und mit 5GiB ("besser" als AMDs 4GiB...) könnte man da vielleicht $499 langfristig anzielen.

Mir klingen selbst 14 SMXs fuer den GK104 Nachfolger als zu optimistisch aber abwarten und Tee trinken.

Timbaloo
2014-01-30, 10:48:10
120W Furmark für die 750 Ti inkl. Restsystem?
Das klingt gut. Aber Restsystem? Effektiver Takt unter Furmark? Etc...

Dawn on Titan
2014-01-30, 10:55:32
Vielleicht hat man auch einfach 5 SMX weil 6 zu viel (zu groß) gewesen wäre. Gerade bei diesen Chips spart man wo man kann. Ich gehe von 8 für GM106 und 12 für einen theoretischen GM104 aus.

Ailuros
2014-01-30, 11:04:25
Vielleicht hat man auch einfach 5 SMX weil 6 zu viel (zu groß) gewesen wäre. Gerade bei diesen Chips spart man wo man kann. Ich gehe von 8 für GM106 und 12 für einen theoretischen GM104 aus.

Wenn's wirklich so ist wie Du oben spekulierst, dann ist es wahrscheinlicher dass aus 6 eine "5" wurde um einen logischeren Abstand zu 106 zu haben.

Dawn on Titan
2014-01-30, 12:16:35
Mit zu groß meinte ich zu nah am nächsten Chip.

Gaestle
2014-01-30, 13:38:39
Wenn die Daten stimmen, wäre das durchaus ein brauchbare Basis für 28nm Performance-Chips.

GM107: 5 SMX, 128-Bit 5,5Gbps?? - 100W TDP - 156mm²
=> Spekulation:
GM106: 9 SMX, 192-Bit 7Gbps - - 150W - 250mm²
GM104: 15 SMX - 320-Bit 7Gbps - 225W - 400mm²

Na hoffentlich behälst Du Recht und GM104 kommt in zwei/drei Monaten.

marc-05
2014-01-30, 13:53:22
750 no Ti 768 CudaCores =

Kepler 192CC pro SMX insgesamt 4 wie GTX 650Ti
oder
bei 3 SMX Einheiten wären dann 256CC verbaut pro SMX-Einheit.

Der nächste Schritt wäre dann mit 4 SMX kommt man auf satte 1024 CC

robbitop
2014-01-30, 13:57:22
Na hoffentlich behälst Du Recht und GM104 kommt in zwei/drei Monaten.
Guter Witz! :D
NV verkauft jetzt schön GK110 zu hohen Preisen ab. Da besteht gar kein Handlungsbedarf. Die 780Ti ist brandneu. Jetzt kommen erstmal ein paar neue SKUs wie die Titan Black (?) und die 790.

Ein GM104 mit der Leistung würde ähnlich schnell wie GK110 werden und die Margen gefärden.

Und wenn GM104 kommt, wird auch wieder (analog zu GK104) zu hohen Preisen gemolken. (Midrange zu HighEnd Preisen)
GM104 wird sicher noch eine ganze Weile brauchen, eh NV den rausbringt IMO.

Gaestle
2014-01-30, 14:11:43
Ein GM104 mit der Leistung würde ähnlich schnell wie GK110 werden und die Margen gefärden.

Genau das war die Hoffnung. Aber stimmt schon, das werden sie nicht machen.

Hugo78
2014-01-30, 17:53:21
Vorausgesetzt, 20nm HP ist erst in 2015 wirtschaftlich und ein GM104 in 28nm brächte deutlich geringere Produktionskosten, dann könnte man die 780, 780Ti und 790 updaten zum Herbst hin.
Kleines Speed-plus bei weniger Verbauch, der Chip wäre halt kleiner als GK110 und somit auch besser für einen Preiskampf/ eine Rabattschlacht Ende 2014.

Und die neuen 20nm Karten bewirbt man dann mit "Maxwell 2.0", oder so...

Thunder99
2014-01-30, 18:01:27
Bei Kepler hat das funktioniert da dieser deutlich schneller war als der GF110 (580). GM104 aber nur so schnell wie ein GK110? Denke dieser wird nicht die Serie ersetzten sondern direkt in die dazugehörige Klasse kommen (660/770er)

Ailuros
2014-01-30, 18:11:23
Vorausgesetzt, 20nm HP ist erst in 2015 wirtschaftlich und ein GM104 in 28nm brächte deutlich geringere Produktionskosten, dann könnte man die 780, 780Ti und 790 updaten zum Herbst hin.
Kleines Speed-plus bei weniger Verbauch, der Chip wäre halt kleiner als GK110 und somit auch besser für einen Preiskampf/ eine Rabattschlacht Ende 2014.

Und die neuen 20nm Karten bewirbt man dann mit "Maxwell 2.0", oder so...

Hat NV irgendwelchen Druck seitens AMD die ganze Maxwell so schnell wie moeglich auszurollen? Fuer wann hat denn AMD hochkomplizierte GPU chips unter 20SoC genau geplant?

Titan BE und 790 sind ja noch nichtmal erhaeltlich und nochmal afaik gab es vor kurzem nur einen einzigen 20SoC bin der noch nicht seinen tape out hatte. Ich wuerde wetten dass das letzte ein chip ist den NV nur fuer HPC verbrauchen wird hauptsaechlich wobei jegliche hohe Herstellungskosten dank zu hoher Komplexitaet auch ziemlich wurscht sind.

Anfangs stand Maxwell top dog in den ersten roadmaps in 2013, welches dann spaeter in den letzten paar roadmaps 2014 wurde. Glaubst Du wirklich sie haben den Luxus es nochmal auf 2015 zu verschieben? Ich zumindest nicht ;)

Ich sehe bisher nichts dass gegen "GM104" theoretisch unter 28nm spricht; angenommen das Resultat liegt sogar bei 430mm2. Ja und? Vor Q4 klingt es nicht danach dass ein shrink von diesem auf hypothetische ~300+mm2 unter 20SoC unbedingt billiger herzustellen sein wird. Bei fast Gleichstand hast Du dann immer noch ausgezeichnete yields unter 28nm gegen ziemlich beschissene unter 20SoC und Kapazitaeten werden auch nicht unendlich dafuer rumschwirren eben weil ab H2 QCOM und Apple dafuer vorbestellt haben.

Botcruscher
2014-01-30, 18:22:22
Am Ende entscheidet TSMC. Für die Masse könnte es gut 2015 werden. Die Jubelmeldungen zu 20nm sind etwas verstummt.:D

Ailuros
2014-01-30, 18:24:25
Am Ende entscheidet TSMC. Für die Masse könnte es gut 2015 werden. Die Jubelmeldungen zu 20nm sind etwas verstummt.:D

Och fruitco fans werden mit Sicherheit jubeln :P

Botcruscher
2014-01-30, 18:26:53
Was für Obst?:freak:

Dawn on Titan
2014-01-30, 18:29:25
Ein 28nm GM104 nimmt Druck aus der 20nm Thematik.

Botcruscher
2014-01-30, 18:42:49
Ein Chip in veraltetem Herstellungsverfahren, dadurch nettem Verbrauch und womöglich auf Level 780TI(+-x) ändert überhaupt nichts an 20nm. Wozu soll der gut sein? Von AMD kommt eh nix und der alte Krempel verkauft sich zu Mondpreisen. NV und Preiskampf... PS: Die Gurke müsste dann mindestens 12Monate aktuell im Verkauf sein. Na gute Nacht.

Dawn on Titan
2014-01-30, 18:47:49
Wie kommst Du darauf, das beim AMD nichts kommt?

Botcruscher
2014-01-30, 18:53:31
Weil der Verbrauch im oberen Segment nichts mehr hergibt. 28nm ist ausgelutscht. Abseits davon werden schon noch ein paar GCN1 ersetzt. Deswegen ändert sich am Marktgefüge nicht viel. Vor allem nicht im Bereich von einem hypothetischen 15SMX GM104.

Nightspider
2014-01-30, 19:02:43
Naja, Eier schaukeln kann Nvidia auch nicht.
Gerade die neu kommende 780ti Black Edition wird gegen eine ultragünstige 290 mit Mantle lächerlich aussehen.

Ich würde wetten das GM104 noch im 1. Halbjahr auf den Mart kommt. Vielleicht wird die Karte nur ~10% schneller als eine 780ti aber bietet dafür DX11.2, wahrscheinlich H.265 Encoder, deutlich bessere Effizienz usw.

Vielleicht wirft Nvidia auch wegen fehlender Kapazitäten nur eine einzige Karte als GTX 795 Ultra Titan ti Black & White Edition auf den Markt für over900,0! Dollar aber irgendwas muss Nvidia schon zeigen im 1. Halbjahr um nicht komplett neben AMD unterzugehen.

Blediator16
2014-01-30, 19:06:38
Mantle gibts aktuell nur in BF4 von daher kann man das noch nicht hinzuzählen.

Ailuros
2014-01-30, 19:13:26
Mantle gibts aktuell nur in BF4 von daher kann man das noch nicht hinzuzählen.

Selbst wenn was soll ein jeglicher hypothetischer GM104 genau dagegen anrichten koennen?

Nightspider
2014-01-30, 19:14:52
Wenigstens etwas mehr Aufmerksamkeit und Prestige.

GM104 kann immerhin dann da glänzen, wo es kein Mantle gibt.

Ailuros
2014-01-30, 19:20:35
Ich dachte NV wird dank Mantle total untergehen.... :biggrin::freak:

Botcruscher
2014-01-30, 19:23:19
Na sicha. Da kann man auch die Titan noch mal richtig aufdrehen.
Ich dachte NV wird dank Mantle total untergehen.... :biggrin::freak:
Ich sehe schon das Grüne Gegenstück dazu...

Sunrise
2014-01-30, 19:33:35
NV wird Mantle sicher schon in irgendeiner Art und Weise eingeplant haben. Ob man da auf MS wartet, ist fraglich.

Hugo78
2014-01-30, 20:15:24
Hat NV irgendwelchen Druck seitens AMD die ganze Maxwell so schnell wie moeglich auszurollen?
Nö, aber Stillstand ist schleichender Tod.

Fuer wann hat denn AMD hochkomplizierte GPU chips unter 20SoC genau geplant?
AMD ist immer ein Thema, aber mir ging es primär um mögliche Kostensenkung, bei gleichbleibender Marge und Marktanteile halten oder gar ausbauen.
Das könnte ein 28nm GM104 leisten, denn eine GTX 785 Ti für 450€ @ 225W, wäre schön ein nettes X-Mas Geschenk.

Grade das Thema Verbrauch, wird mit Mantle ja nochmal deutlicher werden, denn eine bessere Auslastung, bringen nicht nur mehr FPS, sie treibt auch den Verbrauch nochmal in neue Höhen (auch wenn die Perf./W sicher steigen dürfte mit Mantle) ... und wenn NV hier wieder bzw. noch mehr glänzen könnte...

Vorausgesetzt halt, 20nm ist noch weit weg und GM104 als Design soweit fertig, wovon ich ausgehe, weil GK104 jetzt zwei Jahre auf dem Markt ist.


Anfangs stand Maxwell top dog in den ersten roadmaps in 2013, welches dann spaeter in den letzten paar roadmaps 2014 wurde. Glaubst Du wirklich sie haben den Luxus es nochmal auf 2015 zu verschieben? Ich zumindest nicht ;)
Na also, noch ein Grund mehr einen 28nm GM104 als Top Dog Refresh der aktuellen Serie zubringen. :D


Bei fast Gleichstand hast Du dann immer noch ausgezeichnete yields unter 28nm gegen ziemlich beschissene unter 20SoC und Kapazitaeten werden auch nicht unendlich dafuer rumschwirren eben weil ab H2 QCOM und Apple dafuer vorbestellt haben.
Deshalb könnte 20nm noch weit weg sein und erst 2015 ein Thema für die Massenproduktion werden.

Sunrise
2014-01-30, 20:24:49
Nö, aber Stillstand ist schleichender Tod.
Das was NV macht, ist aber kein Stillstand. Du kannst nicht einfach R&D komplett vernachlässigen und alle paar Monate eine GPU-Familie komplett ablösen. Du musst auch die Kosten reinbekommen und genug Luft für weitere Entwicklungen (Gewinn) erzielen.

AMD kann genauso wie NV die Fertigungsprobleme und die Wirtschaftlichkeit nun nicht einfach außer Kraft setzen. Da müssen Ideen und Taten folgen und zwar zur richtigen Zeit und nicht als unüberlegte Gegenreaktion, die Ihnen wirtschaftlich mehr schadet, als hilft.

Und nicht immer nur an die Margen denken. Wenn der Nachfolger von GK104 nicht deutlich schneller als GK110 ist, sind die Margen zwar besser, aber so richtig einschlagen tut das auch nicht, das erzeugt also nicht den gewünschten Effekt. Denn die Margen interessieren den Endkonsumenten nunmal herzlich wenig.

Ailuros
2014-01-30, 20:59:30
Na also, noch ein Grund mehr einen 28nm GM104 als Top Dog Refresh der aktuellen Serie zubringen. :D

Glaubst Du wirklich GM104 wird 15GFLOPs DP/W haben?

Sonst hat den Rest Sunrise schon beantwortet.

Hugo78
2014-01-30, 21:24:08
@Sunrise

Der dicke Batzen R&D ist doch schon durch, wenn die GTX 750Ti einen Maxwell hat.

@Ailuros
Die 15GFLOPs/W interessieren doch nur die HPC Leute.
Die HPC Nasen können froh sein, dass wir Zocker ihnen die R&D Kosten für ihr teures, aber limitiertes Spielzeug finanzieren.

Und Marktanteile ggü. AMD halten oder steigern, ist das beste Mittel um sowas wie Mantle garnicht erst attraktiv für Spieleentwickler in der Breite werden zulassen.

Also wenn 20nm nicht ab dem 2. Halbjahr wirtschaftlich ist, sondern eher so ab H2 2015, dann würde ich einen GM104 @ 28nm zum Spätsommer/Herbst (back to school) diesen Jahres erwarten.

fondness
2014-01-30, 21:25:59
Wenn man jetzt schon einen Maxwell bringt dann kommt IMO im H2/2014 auf jeden Fall etwas größeres.

Sunrise
2014-01-30, 21:40:01
@Sunrise

Der dicke Batzen R&D ist doch schon durch, wenn die GTX 750Ti einen Maxwell hat.
Wie kommst du darauf? Gegen was rechnest du das? Du meinst also, NV ist mit Maxwell schon komplett fertig? Wir reden ja nicht nur von der internen Planung, wie so ein Design aussieht, sondern auch pre-production, tape-out(s), mass production, tests. Und deine Mitarbeiter musst du ja auch bezahlen. Deshalb wird R&D in gewissem Sinne ja auch kontinuierlich reingeholt. Du musst an zukünftige Entwicklungen denken. NV macht ja nicht umsonst jetzt ein neues Line-Up, um es 1-2 Monate später wieder durcheinander zu werfen. Die brauchen noch mehr Geld, weil sie wissen, da kommt so schnell kein Ersatz.

Maxwell kommt nur deshalb jetzt schon in der Low-bzw. Mittel-Klasse, weil sie da etwas brauchen, und zwar sowohl seitens Marge als auch Angebot, da fehlt es einfach an Neuerungen.

Tegra verschlingt einen nicht unerheblichen Batzen, der wohl den größten Teil in Zukunft ausmachen wird, weil NV hier wohl anfangen wird, nach oben zu skalieren, bis zu einem gewissen Punkt (HPC wird wohl noch einiges extra abbekommen, Basis bleibt aber immer die Hauptarchitekturs selbst).

Kepler sollte schon so einiges an R&D verschlungen haben und das wird bei Maxwell und Co. sicher nicht weniger werden, das wird eher schlimmer als besser.

Dawn on Titan
2014-01-30, 21:45:08
Das was NV macht, ist aber kein Stillstand. Du kannst nicht einfach R&D komplett vernachlässigen und alle paar Monate eine GPU-Familie komplett ablösen. Du musst auch die Kosten reinbekommen und genug Luft für weitere Entwicklungen (Gewinn) erzielen.

AMD kann genauso wie NV die Fertigungsprobleme und die Wirtschaftlichkeit nun nicht einfach außer Kraft setzen. Da müssen Ideen und Taten folgen und zwar zur richtigen Zeit und nicht als unüberlegte Gegenreaktion, die Ihnen wirtschaftlich mehr schadet, als hilft.

Und nicht immer nur an die Margen denken. Wenn der Nachfolger von GK104 nicht deutlich schneller als GK110 ist, sind die Margen zwar besser, aber so richtig einschlagen tut das auch nicht, das erzeugt also nicht den gewünschten Effekt. Denn die Margen interessieren den Endkonsumenten nunmal herzlich wenig.

Man kriegt GK110 aber nicht in den Mobile Sektor. Ein GM104 könnte gerade gehen. Und da wäre der Sprung dann eben gegenüber den GK104 basierenden Lösungen massiv.

Ailuros
2014-01-30, 21:53:01
Es ist nicht ein Team dass eine Architektur entwickelt & jemand nimmt danach ein Messer und teilt den Kuchen auf fuer low end, mainstream chips etc. Es ist jeweils ein dediziertes Team pro chip bzw. Projekt.

Man kriegt GK110 aber nicht in den Mobile Sektor. Ein GM104 könnte gerade gehen. Und da wäre der Sprung dann eben gegenüber den GK104 basierenden Lösungen massiv.

Er versteht es schon richtig. Seit Kepler werden GPU chips so entwickelt dass man auch in ULP SoC damit rein kommt. GK20A hat sein featureset eher vom GK110 geerbt & legt noch die "0.2" für DX11.2 noch drauf.

Sunrise
2014-01-30, 21:55:23
Man kriegt GK110 aber nicht in den Mobile Sektor. Ein GM104 könnte gerade gehen. Und da wäre der Sprung dann eben gegenüber den GK104 basierenden Lösungen massiv.
Rein von der Leistung ausgehend würde das natürlich immer passen, wenn du etwas Effizienteres hast. Allerdings hast du bei der Leistungsklasse dann kaum Volumina mehr. So ein Teil zuerst im Mobile-Bereich vorzustellen (wir reden hier von einer $500 GPU) wäre irgendwie schon etwas absurd. Daher sehe ich das nicht so exklusiv, sondern betrachte das in der Gänze (also auch und vor allem Desktop).

von Richthofen
2014-01-30, 21:58:13
GK20A hat sein featureset eher vom GK110 geerbt & legt noch die "0.2" für DX11.2 noch drauf.

Der GK20A (GK208 ?) als Kepler besitzt DX11.2 (Tier 2)? Das wäre mir neu.

Ailuros
2014-01-30, 22:00:44
Der GK20A (GK208 ?) als Kepler besitzt DX11.2 (Tier 2)? Das wäre mir neu.

GK20A ist die Tegra K1 GPU und die ist DX11.2 laut NV.
GK208 hat 2 SMX & hat mit ULP nichts direkt zu tun.

von Richthofen
2014-01-30, 22:57:31
Ah, OK Danke. Bleibt zu hoffen, dass Maxwell ebenfalls "echtes" 11.2 mitbringt.

Blediator16
2014-01-30, 23:12:26
Laut Folien tut es das. Ein weiteres DXGate:freak: kann man sich nicht erlauben.

Thunder99
2014-01-30, 23:14:34
das ist das Mindeste weil sie sich sonst total lächerlich machen, insbesondere bei den OEMs

Für mich macht ein GM104 keinen Sinn wenn dieser nicht schneller ist als eine GTX780Ti wenn dieser Chip ersetzt werden soll

Nakai
2014-01-31, 00:41:41
In der Tat. Laut GPU-Z-Datenbank ist GM107 wohl 156mm² groß: http://forums.anandtech.com/showthread.php?p=36010253#post36010253

Oke, Nvidias Bonaire.

GM107 hat genau soviele Einheiten wie GK106 bei nur 153mm². GK106 ist 214mm² groß, ergo ist GM107 30% kleiner.

Milchmädchen:
GK104 als Maxwell -> ~211mm²
GK110 als Maxwell -> ~380mm² hat aber DP-Ballast

Ausgehen von GK104 könnte man sich schon einen GM104 unter 28nm bei etwa 350mm² vorstellen, welcher dann schon ~3000 SPs haben könnte. Man wird definitiv GK110 schlagen wollen. Vielleicht nicht um viel, aber man wird schon einen "Mehrwert" finden.

Leonidas
2014-01-31, 05:18:56
GK20A ist die Tegra K1 GPU und die ist DX11.2 laut NV.


nVidia schreibt auf seinen Webseiten auch klaren Kepler-Chips "DX 11.2" zu. Sprich: NV-Aussagen kann man in der Frage kaum vertrauen.

-/\-CruNcher-/\-
2014-01-31, 06:24:38
Als nächstses kommt garantiert die 860 GTX aber das wird diesmal in der tat anders man wird nicht mehr die Leistung so enorm steigern sondern direkt in dem Leistungsbereich bleiben (das kündigt sich jetzt schon an), wie das alle ja richtig sehen man kann Kepler ja keine Konkurenz machen es wird so aussehen das wir durchweg diesmal eine Serie sehen werden die gewisse features aus CUDA 6 besser supportet und durchweg weniger Energie verbraucht, an H.265 und VP9 support glaub ich noch nicht recht aber mal schauen, beide sind einfacher zu parallelisieren Decoding mit CUDA währe demnach auch einfacher als wie noch bei H.264 und VP8 ;).

Mann wird wahrscheinlich versuchen die jetzigen User durch die (etwas) gesteigerte Compute Performance zum Umschwingen auf die gleiche Serie in Maxwell zu kriegen schaft man das nicht ist es auch kein großer verlust, alles ist besser als user an AMD zu verlieren :)

Naja ich hätte gleich die 860 GTX gebracht um AMD keine chance mit Mantle zu lassen die jetzige strategie ist doch etwas gewagt, da ja vorauszusehen ist das die 750TI nicht gegen die 260x mit Mantle aufwarten wird können, das muss Nvidia aber auch klar gewesen sein, bzw AMDs neues Nvidia Marketing hat sie kalt erwischt ;)

PS: So wie das aussieht feuert AMD gerade Mantle auf die User, hehe perfektes Timing ;)

Nvidia muss jetzt mit irgendwas Gameworks spezifischem Kontern The Witcher 3 CUDA 6 Ergebnissen auf Maxwell z.b ;)

Ailuros
2014-01-31, 06:41:40
nVidia schreibt auf seinen Webseiten auch klaren Kepler-Chips "DX 11.2" zu. Sprich: NV-Aussagen kann man in der Frage kaum vertrauen.

Ich behandle die gesamte K1 Geschichte mit grosser Vorbehalte überhaupt was die Stromverbrauch Behauptungen betrifft. Es steht 11.2 im whitepaper drin und ich halte es einfacher das bisschen extra einzubauen als ASTC.

Ist es jetzt wieder der gleiche 11.2 Reinfall wie stellenweise mit GPUs wird Tegra's technisches marketing in Zukunft noch mehr zu erklären haben. Nicht dass sie irgendwelche Sorgen darüber machen werden..

reaperrr
2014-01-31, 13:35:36
Oke, Nvidias Bonaire.

GM107 hat genau soviele Einheiten wie GK106 bei nur 153mm². GK106 ist 214mm² groß, ergo ist GM107 30% kleiner.

Milchmädchen:
GK104 als Maxwell -> ~211mm²
GK110 als Maxwell -> ~380mm² hat aber DP-Ballast

Ausgehen von GK104 könnte man sich schon einen GM104 unter 28nm bei etwa 350mm² vorstellen, welcher dann schon ~3000 SPs haben könnte. Man wird definitiv GK110 schlagen wollen. Vielleicht nicht um viel, aber man wird schon einen "Mehrwert" finden.
Halt, stop...

GK106 hat im Vollausbau 24 ROPs, 192 bit SI, evtl. sind auch noch andere Bereiche wie z.B. der L2-Cache größer ausgelegt. Das macht flächenmäßig schon was aus. Von gleicher Anzahl an Einheiten kann also nur bedingt die Rede sein, und die Milchmädchenrechnung ist damit schonmal hinfällig. Ein GM104 hätte nämlich mit Sicherheit mindestens die gleiche ROP/SI/L2-Konfiguration wie GK104, Sinn würde eher was Breiteres machen weil die 256 bit nämlich schon bei GK104 etwas limitieren, selbst mit 7 GHz-Speicher.

Nakai
2014-01-31, 17:32:40
Halt, stop...

GK106 hat im Vollausbau 24 ROPs, 192 bit SI, evtl. sind auch noch andere Bereiche wie z.B. der L2-Cache größer ausgelegt. Das macht flächenmäßig schon was aus. Von gleicher Anzahl an Einheiten kann also nur bedingt die Rede sein, und die Milchmädchenrechnung ist damit schonmal hinfällig. Ein GM104 hätte nämlich mit Sicherheit mindestens die gleiche ROP/SI/L2-Konfiguration wie GK104, Sinn würde eher was Breiteres machen weil die 256 bit nämlich schon bei GK104 etwas limitieren, selbst mit 7 GHz-Speicher.

GK106 hat 3 ROP-Partitionen. Pro Partition sind 8 ROPs, ein 64Bit SI und 128KB L2-Cache enthalten. Bei GK110 ist doppelt soviel Cache in jeder Partition enthalten. Bei GM107 sehe ich auch nur 2 GPCs, statt 3 wie bei GK106. 60mm² ist GM107 kleiner, als GK106. Es fehlt eine GPC und eine ROP-Partition, welche die 60mm² nicht so ohne weiteres ausmachen würden. Da wurde definitiv sehr an der Architektureffizienz gedreht. Ich bin schon gespannt, wo der Teufel im Detail steckt.

Wenn ein GM104 in 28nm kommt, wird er von der Größe ein gutes Stück über GK104 liegen und performancetechnisch GK110+~10% werden.

Ailuros
2014-01-31, 17:54:32
@Ailuros
Die 15GFLOPs/W interessieren doch nur die HPC Leute.
Die HPC Nasen können froh sein, dass wir Zocker ihnen die R&D Kosten für ihr teures, aber limitiertes Spielzeug finanzieren.

Dann musst Du nochmal zuruecklesen um den Zusammenhang in meinen vorigen Posts zu finden. Ich sagte dass sie den top dog ohnehin von 2013 auf 2014 verschoben haben und eine weitere Verschiebung wird dann schon peinlich. Des weiteren sei froh wenn das HPC Geschaeft weiterhin steigt denn die Volumen sind zwar gering aber die Margen verrueckt hoch; den desktop werden sie nich so lange melken koennen wie heute weil das Interesse weiterhin abnehmen wird und Tegra ist immer noch ein Scheissgeschaeft.

Und nein es wird eben fuer diesen KEIN GM104 oder sonst noch ein GM10x chip den top dog hier ersetzen koennen, eben weil nur der top dog eine Unmenge von FP64 SPs haben wird.

Und Marktanteile ggü. AMD halten oder steigern, ist das beste Mittel um sowas wie Mantle garnicht erst attraktiv für Spieleentwickler in der Breite werden zulassen.

AMD hat ein image Problem; NV dagegen nicht. Genauso wie viele andere erwarte ich trotz allem nicht dass Mantle unangefochten bleiben wird. Das hat jetzt aber rein gar nichts mit NV's hw roadmap zu tun. Egal von woher eine Mantle-Alternative kommen koennte sind Kepler und Maxwell als Architekturen "verwandt" genug dass es auf beiden laufen duerfte.

Also wenn 20nm nicht ab dem 2. Halbjahr wirtschaftlich ist, sondern eher so ab H2 2015, dann würde ich einen GM104 @ 28nm zum Spätsommer/Herbst (back to school) diesen Jahres erwarten.

Wieso drehen wir uns eigentlich im Kreis wenn wir im Grund uebereinstimmen? Gut zeitlich muss das obrige nicht zu 100% stimmen aber es ist dann Haarspalterei. Der Punkt ist dass NV weder eine Eile fuer den performance Maxwell hat und dass er unter 28nm durchaus moeglich ist.

Dawn on Titan
2014-01-31, 18:14:31
Wobei ich für einen GM104 keine großen Sinn sehe ihn zu verzögern.

Der Prozess ist reif, wenn man ihn bringen will zahlt man die Entwicklung sowieso, wenn man auf den Geforces statt des GK110 einen ~20+% kleineren Chip nutzen kann schadet das auch nicht.
Wenn die TDP halbwegs konstant gegenüber GK104 bleibt, dann hat man im Laptop-Bereich die unangefochtene Leistungskrone.

Ailuros
2014-01-31, 19:02:29
Wobei ich für einen GM104 keine großen Sinn sehe ihn zu verzögern.

Der Prozess ist reif, wenn man ihn bringen will zahlt man die Entwicklung sowieso, wenn man auf den Geforces statt des GK110 einen ~20+% kleineren Chip nutzen kann schadet das auch nicht.
Wenn die TDP halbwegs konstant gegenüber GK104 bleibt, dann hat man im Laptop-Bereich die unangefochtene Leistungskrone.

Notebook und PC GPUs sind zweierlei Tiere denn man kommt selten mit allen Einheiten und/oder gleichen Frequenzen in einem notebook an; definitiv ja zum letzten aber fuer's erste werden sie die Kepler Kuh noch so lange melken wie es geht.

Botcruscher
2014-01-31, 19:03:18
Dann kauft keiner mehr eine 780, 780TI, Titan, Titan Black.

Sunrise
2014-01-31, 19:08:20
Wobei ich für einen GM104 keine großen Sinn sehe ihn zu verzögern.
Ailuros schreibt, dass sie keine Eile haben, nicht weil sie ihn verzögern, sondern weil das Ding zusammen mit den jeweiligen Produkten noch nichtmal im Ansatz fertig sind. Und derzeit deuten alle Anzeichen auch genau das an.

Warum bringe ich denn als IHV überhaupt neue Flagschiffe mit GK110, wenn ich mit GM104 sovieles besser machen könnte? Und GM104 muss besser sein, sonst lohnt sich das alles nicht. Und derzeit sieht es nicht danach aus, als könnte NV diesen auch so liefern. Du musst auch alles andere mit einrechnen, da müssen Treiber angepasst werden, Maxwell hat evtl. ein paar Neuerungen, die erst ab GM104 relevant werden.

Solange wir aber nur von der Hardware sprechen, hörst du zuerst auf in Masse zu produzieren (Wafer und PCBs zu ordern), wenn der Nachfolger auf absehbare Zeit fertig ist - und zwar alles, was dazu gehört. GK110 müsste also zuerst EOL gehen, und das hat dann starke Auswirkungen auf alles. Auch hier gibt es keinerlei Anzeichen.

Wenn du damit rechnest, dass NV hier nur selektiv bestimmte GK110-basierende Produkte ersetzen wird, die man profitabler füllen könnte, dann hast du das nächste Problem. Da fehlen dir dann die Abfall-Produkte für GK110, wo du dir plötzlich wieder in die Margen schneidest, die GM104 abfangen müsste (zusätzlich also mit sehr deutlich geringerer die-area aber dennoch deutlich höherer Performance bei gleichbleibender oder besserer TDP).

Und mal generell zu deiner Notebook-Strategie:

NV hat die letzten Generationen immer den Performance-Chip auch explizit für den Desktop und für Quadro (generell die Profi-Märkte, außer vielleicht Tesla, weil HPC) genutzt. GK104 hat also schlichtweg alles in dessen Sektor und sogar darüber ersetzt (mal unabhängig davon, wie lange es gedauert hat, bis wirklich alles ersetzt wurde, weil erst die Lager leer werden mussten, sonst hast du unnötige Abschreibungen).

Du kannst das nicht einfach getrennt behandeln, denn NV wird keinen GM104 bauen, nur damit sie sagen können, dass sie im Notebook-Markt jetzt eine potentere GPU haben als GK104, die sowieso nur für ein Minimum an Käufern interessant wäre. Das wäre einfach eine verdammt eigenartige Art, die Gelegenheit zu verspielen, im Desktop und im Profi-Markt mit sinnvollen Lösungen zu punkten, die sich deutlich von GK104/GK110 abheben.

Da werden auf einen Schlag plötzlich alle GK110-Produkte uninteressant, weil das ist indirekt das Signal, dass du aussendest. Und das ergibt einfach keinen Sinn, egal wie ich es drehe.

Ja, irgendwann werden sie GK104 bzw. GK110 natürlich ersetzen können, da brauchen wir aber mehr Infos/Leaks als nur den Pastebin-Leak von vor ein paar Monaten.

Dawn on Titan
2014-01-31, 19:24:05
GK110 kann gar nicht EOL gehen weil sie das Ding im Profibereich brauchen. DP Flops sind da relevant, bei einer 780 nicht. Da wäre aber ein 20% kleinerer Chip schon nicht unattraktiv.

Sunrise
2014-01-31, 19:34:48
GK110 kann gar nicht EOL gehen weil sie das Ding im Profibereich brauchen. DP Flops sind da relevant, bei einer 780 nicht. Da wäre aber ein 20% kleinerer Chip schon nicht unattraktiv.
So langsam kommen wir der Sache also näher.

Ailuros
2014-01-31, 21:08:18
So langsam kommen wir der Sache also näher.

Genau deshalb schaetze ich auch dass der erste 20SoC chip fuer NVIDIA der Maxwell top dog sein koennte und natuerlich wieder fuer den Anfang nur begrenzte wafer runs wobei die hohen Herstellungskosten von den grossen Gewinnmargen fuer HPC aufgesaugt werden.

matty2580
2014-02-01, 04:25:27
Da werden auf einen Schlag plötzlich alle GK110-Produkte uninteressant, weil das ist indirekt das Signal, dass du aussendest. Und das ergibt einfach keinen Sinn, egal wie ich es drehe.
Das ist aber nicht ungewöhnlich, sondern ganz normal wenn eine neue Architektur kommt. Das war doch beim GK104 auch so.
Nach dem Release von Kepler ist das Interesse der Kunden an GF110 Produkten deutlich gesunken.
Ungewöhnlich ist eher, dass Nvidia den Jahresrhythmus nicht mehr halten kann, und versucht Zeit zu schinden.
TSMC hatte ja gewarnt, dass die Auftraggeber nicht mehr rein auf Shrinks setzen sollen, sondern Verbesserungen zukünftig nur noch über die Architektur möglich sind:
http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/Moores-Law-Robert-Colwell-Ende-2020-2022-1086402/

Wir haben also schon längst den Punkt erreicht vor dem TSMC warnte.
Die Produktzyklen bei AMD/Nvidia werden länger, und beide Anbieter können/wollen nicht gegensteuern.

-/\-CruNcher-/\-
2014-02-02, 14:52:34
Naja momentan sind sie noch in ihrem Normalen Zyklus wie immer im Sommer kommt die 860 GTX und der Top Dog auf den alle warten irgendwan zum Ende ;)
Das Problem ist nur das das diesmal Fatal ist, da AMD nicht nur in ihrem Release Cycle eine neue Hardware released hat sondern auch noch etwas Software nach der viele Devs schon jahrelang betteln und sie momentan extreme mit Marketing betreiben ;)
Und ihre Maxwell entry GPU gerade vor die Hunde geht da das featureset der 260X um einiges Atraktiver ist mehr Leistung weniger Kosten, der Druck von AMD wird immer größer sachen wie Shadowplay können das imho nicht aufwiegen

AffenJack
2014-02-02, 16:26:39
Maxwell entry geht vor die Hunde? Schön, dass du schon soviel darüber weißt. Vor allem über die Energieeffizienz die für Notebooks am wichtigsten ist. Der Desktopmarkt ist für die Chips doch relativ uninteressant. Da gehts vor allem darum Laptop Design Wins zu kriegen und da ist Perf/W das A und O. Wie das am Ende aussieht, daran kann man die Chips messen.

itaru
2014-02-05, 02:15:40
Nvidia GTX 750 & 750 Ti Benchmarks (http://www.ukgamingcomputers.co.uk/nvidia-gtx-750-750-ti-benchmarks-a-51.html)

http://www.ukgamingcomputers.co.uk/images/articles/750bench.jpg

http://www.ukgamingcomputers.co.uk/images/articles/750gpuz.jpg

http://www.ukgamingcomputers.co.uk/images/articles/7503dmark.jpg

http://www.ukgamingcomputers.co.uk/images/articles/750ti3dmark.jpg

-/\-CruNcher-/\-
2014-02-05, 03:33:01
Nvidia GTX 750 & 750 Ti Benchmarks (http://www.ukgamingcomputers.co.uk/nvidia-gtx-750-750-ti-benchmarks-a-51.html)

http://www.ukgamingcomputers.co.uk/images/articles/750bench.jpg

http://www.ukgamingcomputers.co.uk/images/articles/750gpuz.jpg

http://www.ukgamingcomputers.co.uk/images/articles/7503dmark.jpg

http://www.ukgamingcomputers.co.uk/images/articles/750ti3dmark.jpg

Jup wie erwartet löst 1zu1 mit minimal mehr Performance die 650 TI boost ab

die TDP reduktion klingt irsinnig :)

die boost liegt ja bei ~140W die 750 TI muss bei 75 W liegen

Another interesting feature is neither card has a power connector drawing all the required power from the PCI-E Slot.


Also haben sie es geschaft an die 65W verbrauch einzusparen und immerhin ~40W gegenüber AMD mit der 260x

das erfordert respekt und steht genau dort wo TSMC meinte es wird wichtiger Architektur zu optimieren als wie auf Die Shrink zu setzen, bleibt nur die Frage ob sie irgendwas über board geworfen haben weil der Gewinn ist doch recht beachtlich.

Nightspider
2014-02-05, 04:29:42
Das wird auf jeden Fall ein schicker Notebook-Chip.

Was in denn ca. der Release? Ich bin nämlich auf das Featureset gespannt.

Dawn on Titan
2014-02-05, 06:57:55
Wenn sie diese Effizienz über die gesamte Serie halten können, dann wäre das beeindruckend.

Ailuros
2014-02-05, 08:05:25
Wenn sie diese Effizienz über die gesamte Serie halten können, dann wäre das beeindruckend.

Eine GTX650 (GK107) hat ungefaehr 12+ GFLOPs FP32/W waehrend eine GTX680 (GK104) bei fast 16 GFLOPs/W liegt. Die 780Ti (GK110) steigt dann sogar auf 20+ GFLOPs/W ;)

Timbaloo
2014-02-05, 08:43:47
Dafür dass das Ding so effizient sein soll finde ich den Takt mit >1GHz aber recht hoch.

AnarchX
2014-02-05, 08:56:00
Wie Ailuros schon andeutet, können die GFLOPs/Watt bei den größeren Chips noch steigen, da hier fixe Bestandteile (Speicher/PCB/Lüfter) einen geringen Anteil an der TDP haben.

PedantOne@XtremeSystems meint aber es wäre weiterhin eine Kepler GPU und Maxwell @ 28nm würde im Sommer erscheinen.

Auf jeden Fall scheint man wohl einige Erkenntnisse aus Tegra K1 gewonnen zu haben.

Gaestle
2014-02-05, 09:15:24
Wie Ailuros schon andeutet, können die GFLOPs/Watt bei den größeren Chips noch steigen, da hier fixe Bestandteile (Speicher/PCB/Lüfter) einen geringen Anteil an der TDP haben.

PedantOne@XtremeSystems meint aber es wäre weiterhin eine Kepler GPU und Maxwell @ 28nm würde im Sommer erscheinen.

Auf jeden Fall scheint man wohl einige Erkenntnisse aus Tegra K1 gewonnen zu haben.

Heißt das, die Bezeichnung GM107 im GPU-Z Bild ist falsch?

Würde aber vielleicht auch erklären, warum man die Karten in die 7er-Namensreihe einordnet.

AnarchX
2014-02-05, 10:32:49
Ist wohl die Frage wie genau Maxwell aussieht und wie stark sich spätere Maxwell GPUs von GM107 unterscheiden könnten.
Aber wenn die GPU als GM107 beschriftet/bezeichnet wird, ist es für NV wohl auf jeden Fall eine Maxwell GPU.

fondness
2014-02-05, 10:41:33
Diese Leistung ohne externen Stromanschluss wäre in der Tat extrem stark. Da NV auch noch Reserven lassen muss wird die Karte kaum mehr als ~65W benötigen und das bei einer Leistung der 260X bei ~110W. Da darf sich AMD warm anziehen wenn sie hier nicht völlig den Anschluss verlieren wollen. Speziell da im High-End mittlerweile längst die Leistungsaufnahme limitiert. Eine mögliche Erklärung wäre allerdings auch 28nm HPm, der soll doch einiges bringen bei der Leistungsaufnahme (da K1 den auch verwendet wohl nicht unwahrscheinlich). Wenn nicht sieht man hier schon was man nur mit dem Design heraus holen kann.