PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP107, GP108 (Geforce GTX 1050, 1040, 1030)


Godmode
2016-07-18, 16:58:18
Alles zu den kleinen Chips bitte hier rein.

GP107:
Nachfolger von GM207
768 SP (60% von GP106)
128 Bit Speicherinterface
-> GeForce GTX 1050 2GB
-> GeForce GTX 1050 Ti 4GB

GP108:
Nachfolger von GM208 (sehr selten) & GK208
eventuell 384 SP (50% von GP107)
eventuell 64 Bit Speicherinterface



/aktualisiert von Leonidas, 15. April 2017

Ailuros
2016-07-18, 18:02:30
Ich dachte 1050 ist noch im GP106 Bereich oder? :confused:

Wie dem auch sei bei Samsung unter 14LPP hergestellt; nach neuestem Stand gibt es keine Verspaetungen. Es laeuft so wie anfangs geplant, wobei es ihnen schon am Anfang klar war dass es mit den resources etwas knapp werden fuer ein weiteres design team.

Wie schon erwaehnt ich bin auf die Frequenzen gespannt, denn die Samsung Prozesse sind definitiv nicht besser wenn es zu Leckstroemen kommt.

Undertaker
2016-07-18, 19:37:59
Wie schon erwaehnt ich bin auf die Frequenzen gespannt, denn die Samsung Prozesse sind definitiv nicht besser wenn es zu Leckstroemen kommt.

Noch ein Punkt, der ziemlich klar für mehr als 640 Shader spricht. Bei gleicher Einheitenzahl wäre der Zuwachs ggü. GM107 einfach zu klein.

AnarchX
2016-07-18, 19:50:45
Der Sprung von Maxwell Gen1 auf Pascal Gamer sollte auch schon etwas bringen. Mit vielleicht 1,5GHz Boost kommt da wohl ein peformante GPU heraus, dies es mit P11 wohl aufnehmen kann.
Nichtsdestotrotz wären 6SM/4SM für 107/108 natürlich netter.

mczak
2016-07-18, 21:54:30
Wäre es möglich dass gp108 ddr4 unterstützt? Sollte ja eigentlich nicht mehr teurer sein.
64bit ddr3 bei einem 4 SM Chip (mit "normalen" Pascal-Frequenzen) wäre nicht wirklich sinnvoll (und die Chancen dass der in der Praxis mit gddr5 daherkommt dürften wohl ähnlich hoch sein wie beim gm108...).
Ansonsten ist GP108 wohl auch wieder kein "kompletter" Chip, also nur für Notebooks geeignet (d.h. kein Display Controller etc.)?

Undertaker
2016-07-18, 22:05:33
Schön wäre DDR4 schon, aber auch mit DDR3 sehe ich für einen Chip mit so wenig Rechenleistung kein unlösbares Problem. Auch eine GTX 1080 ist mit weniger Bandbreite klar schneller als eine 980 TI.

Mr.Fusion
2016-07-18, 22:22:15
So viele Gerüchte derzeit und leider noch wenig konkretes. Angeblich soll die 1060er mit 3Gb zur 1050er werden...oder auch nicht. Dann noch die ständige Vermischung ob die nächste Karte nun eine GTX1050 oder 1050TI wird und wo denn dann die Unterschiede sind.
Wird sie einen TDP von 75W haben oder nicht? Preis? Performance?
Ich warte jedenfalls gespannt, denn es wird sicher ne gute Karte für mein kleines Mini-ITX-System wo derzeit noch ne alte GTX560 mit 150W kräftig einheizt, da geht sicher noch was ums kühler zu bekommen.

y33H@
2016-07-18, 23:46:46
Kommt als N17P (GP107) mit 40-50 Watt und 128 Bit für Mobile, ALUs liegen mir nicht vor.

Leonidas
2016-07-23, 06:46:21
Ich würde ja denken, das der GP107 nicht nur halbiert ist, weil das einfach zu wenig Bumms gegenüber dem GM107 ergibt (selbe 640 SE). Auch wäre damit nicht viel Mehrperformance erzielbar - sicherlich, viel mehr Takt, aber dennoch. Die 750Ti steht bei 210%, die 1060 bei 590% - da wird NV versuchen, den GP107 irgendwo Richtung 300-350% zu trimmen, das ist allein mit Mehrtakt schwerlich machbar.

Daher meine Prognose, das GP107 mit 768 SE kommt. Damit sind +60% zur 750Ti drin, das ganze kommt auf grob ~330% heraus - ergo im Feld der GeForce GTX 960. Letztere geht EOL und alle sind zufrieden.

GP108 könnte bei 384SE bleiben, da geht es wohl nur um LowEnd und Mobile und damit günstigstmögliche Fertigung. Letztere erreicht man bei der Kostensteigerung von 16nm nur dann, wenn man nicht mehr HW-Einheiten verbrät. Dafür dürfte der GP108 dann sensationell klein werden, wenn wirklich nur mit 384 SE und 64 Bit SI daherkommend.

Troyan
2016-08-12, 10:17:31
South Korea's Chosun Biz newspaper reported on Friday[...]
The paper said Samsung would start making the next-generation GPUs using its 14-nanometre production technology before year-end, based on the U.S. company's Pascal architecture. It did not specify the value of the order.
http://www.cnbc.com/2016/08/12/reuters-america-samsung-elec-gets-order-for-nvidias-next-gen-gpus-chosun-biz.html

AffenJack
2016-08-12, 10:24:48
Sie haben wohl schon angefangen sie zu machen:
I think Pascal is going to be enormously successful for us. [...] We have taped out, we have verified, we have ramped, every Pascal GPU. However, we have not introduced everyone

https://www.computerbase.de/2016-08/nvidia-pascal-q2-2017/

Dementsprechend sollten die in 3 Monaten aufschlagen, falls Produktionsbeginn erst vor kurzem war oder sogar früher.

Undertaker
2016-08-12, 12:28:24
GP108 könnte bei 384SE bleiben, da geht es wohl nur um LowEnd und Mobile und damit günstigstmögliche Fertigung. Letztere erreicht man bei der Kostensteigerung von 16nm nur dann, wenn man nicht mehr HW-Einheiten verbrät. Dafür dürfte der GP108 dann sensationell klein werden, wenn wirklich nur mit 384 SE und 64 Bit SI daherkommend.

Imo unwahrscheinlich. GP108 steht schließlich hauptsächlich in Konkurrenz zu den mobilen iGPUs, die auch stärker werden. Da muss schon ein gewisser Leistungssprung her, damit man die eigenen Low-End-Modelle nicht gänzlich überflüssig macht – darum tippe ich auf 512 SPs. Etwas mehr als die +20% anderer Pascal-Modelle, dafür bleibt es wohl idR bei 64 Bit DDR3.

reaperrr
2016-08-12, 16:17:19
Imo unwahrscheinlich. GP108 steht schließlich hauptsächlich in Konkurrenz zu den mobilen iGPUs, die auch stärker werden. Da muss schon ein gewisser Leistungssprung her, damit man die eigenen Low-End-Modelle nicht gänzlich überflüssig macht – darum tippe ich auf 512 SPs. Etwas mehr als die +20% anderer Pascal-Modelle, dafür bleibt es wohl idR bei 64 Bit DDR3.
Mit 64bit DDR3 wären mehr als 384 SP unsinnig, weil die GPU trotz DCC ins Bandbreitenlimit rennen dürfte. Mit 512SP bei 2 GHz effektivem Speichertakt wären das gerade mal 1/20 der GTX 1080-Bandbreite, bei 1/5 der ShaderModule, und die 1080 ist ja schon relativ bandbreitenlimitiert.

Bei 512 SP wäre mMn wenigstens GDDR5@5Gbps Pflicht, sonst ist das 4te SM völlige Verschwendung von Transistoren.

Undertaker
2016-08-12, 16:22:50
Es wird definitiv bescheiden skalieren (das war schon bei GM108 so), aber weder 128 Bit noch GDDR5 sind in der Preisklasse eine Option. Pascal ist ja nochmals etwas effizienter in puncto Bandbreite als Maxwell, das muss wohl reichen.

Über DDR4 hatten wir ja zuvor schon einmal gesprochen, eigentlich wäre das für diese Klasse ein schöner Mittelweg für etwas mehr Bandbreite bei weiterhin niedrigem Preis... Aber noch glaube ich eher, dass wir in dieser Generation weiter DDR3 sehen werden.

Loeschzwerg
2016-09-04, 19:46:58
GP107 mit 768 SP und 75Watt TDP als GTX 1050:
https://www.computerbase.de/2016-09/geforce-gtx-1050-768-shader/

Original von Benchlife: https://benchlife.info/nvidia-geforce-gtx-1050-4gb-gp107-400-09042016/

Mit der Karte könnte eine RX460 durchaus Probleme bekommen. Auf den Preis bin ich gespannt.

Troyan
2016-09-04, 20:00:18
GTX950 mit 75W ist ca. 25% schneller als die RX 460 mit 75W. Das wird kein Problem für diese angebliche GTX1050.

Loeschzwerg
2016-09-04, 20:12:47
Mir ging es da weniger um die Leistung als um den Preis. Wenn dieser stimmt, dann gräbt man P11 ordentlich die Luft ab.

HOT
2016-09-04, 21:19:09
Mal auf die Taktraten geachtet? Liegt wohl doch am Prozess, dass Polaris nicht so hoch taktbar sind. Über 1,4GHz wirds offenbar schwer mit 14LPP.

gmb
2016-09-04, 21:29:46
Die Karte bekommt nur 75W vom PCIe Slot ohne Stromanschluss zugeteilt, eine für Pascal niedrige Taktrate liegt auf der Hand. Der Takt liegt dennoch 28% über Maxwell mit 1x6 pin. Heißt für mich, der Prozess kann so schlecht nicht sein. Falls es Custom mit 1x6 pin gibt, wird sich das besser zeigen.

AffenJack
2016-09-04, 21:45:08
Die Karte bekommt nur 75W vom PCIe Slot ohne Stromanschluss zugeteilt, eine für Pascal niedrige Taktrate liegt auf der Hand. Der Takt liegt dennoch 28% über Maxwell mit 1x6 pin. Heißt für mich, der Prozess kann so schlecht nicht sein. Falls es Custom mit 1x6 pin gibt, wird sich das besser zeigen.

Der Takt ist gerade mal 28% höher plus paar Shader zusätzlich, im Vergleich zu den anderen Pascals ist das ganz schön wenig. GP104/GP106 haben fast 50% mehr Takt und mehr Shader als ihre Vorgänger bei ähnlichen/leicht höheren TDPs.
GM107 war bei 65 W, da sind diese Taktraten bei 75W ganz schön schlecht und sehen nach nem ganz schön schlechten Prozess im Vergleich zu TSMC aus.

reaperrr
2016-09-04, 21:59:05
GTX950 mit 75W ist ca. 25% schneller als die RX 460 mit 75W. Das wird kein Problem für diese angebliche GTX1050.
Wo? Bei CB sind es 16% im regulären Bench-Parcours und bloß 5% im E-Sport-Parcours.

Außerdem, die anderen Pascals haben 12,5-25% mehr Einheiten und deutlich höhere Taktraten als ihr jeweiliger Vorgänger.

Die GTX 1050 hat aber 25% weniger SM und auch nicht ganz so große Taktvorteile gegenüber dem Vorgänger.
Sie wird die 460 sicherlich schlagen, aber nicht übermäßig deutlich.

Agent117
2016-09-04, 22:41:36
Wenn man sich anschaut wie GP 106 hier skaliert sind 75W schon sehr bescheiden, vorrausgesetzt diese werden wie bisher bei jeder Pascal Karte bis an den Rand ausgenutzt.

http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html

Dann ist 14nm LPP wohl doch auch gutes ein Stück schlechter, zumindest bei hohen Taktraten.

Der_Korken
2016-09-04, 22:58:23
Wenn man sich anschaut wie GP 106 hier skaliert sind 75W schon sehr bescheiden, vorrausgesetzt diese werden wie bisher bei jeder Pascal Karte bis an den Rand ausgenutzt.

http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html

Dann ist 14nm LPP wohl doch auch gutes ein Stück schlechter, zumindest bei hohen Taktraten.

Wow, der GP106 schafft bei 75W über 1,6Ghz, während der GP107 mit 60% der Shader bereits bei 1,4Ghz an den 75W knabbert? Selbst wenn man davon ausgeht, dass GP107 etwas mehr als den maximalen Boost in realen Spielen schafft und GP106 noch einholt, ist der Unterschied schon krass. Da würde mich wirklich mal interessieren, wieviel eine RX480 verbrauchen würde, wenn AMD sie für TSMCs 16nm designed hätte. Man könnte fast mutmaßen, dass man dann etwa auf GP106-Niveau rausgekommen wäre.

Nightspider
2016-09-04, 23:08:54
Ob das Ding im Surface Book 2 verbaut werden könnte, mit deutlich reduziertem Takt oder kommt da noch ein kleinerer Chip von NV?

VooDoo7mx
2016-09-04, 23:24:34
Mal auf die Taktraten geachtet? Liegt wohl doch am Prozess, dass Polaris nicht so hoch taktbar sind. Über 1,4GHz wirds offenbar schwer mit 14LPP.

Noch so ein selbst ernannter Experte ohne Ahnung von nur irgend etwas. :uclap:

Das der Boostclock mal so gut wie gar nichts bedeutet, sollte eigentlich mitlerweile jeder mitbekommen der auch nur mal irgend ein Pascal Review in den letzten 3 Monaten überflogen hat. Anders als bei AMD ist das nicht das erlaubte Maximum, sondern der Takt kann je nach Situation deutlich darüber liegen.
Meine Titan X hat auch nen Boost Clock von 1531 MHz geht aber locker auf 1,8GHz default.

Genauso auch mit TDP und Power Target. Bei AMD heißt da auch 150W TDP das die Karte hier und da auch mal 170W ziehen kann. Während bei nVidia das Power Target das harte Limit ist wo die Karte nicht mehr verbrauchen darf.

Und das der 14nm LPP Prozess, bei der Energieffizienz schlechter, wie der 16nm TSMC ist, steht außer Frage. Konnte man ja schon beim iPhone 6S sehen.
Nur hat das mit der Taktbarkeit des Chips 0 am Hut. Das ist einfach grundlegendes Hardwaredesign. Das AMD Design ist eben einfach auf wenig Transistoren pro Rechneinheiten mit hoher Packdichte ausgelegt. Nachteil dessen scheint eben eine schlechtere Taktbarkeit, schlechte Effizienz/Flop zu sein. AMD Chips der letzten Jahre mussten auch im Auslieferungszustand weit über ihren Sweetspot geraktet werden, was für eine sehr schlechte Energieeffizienz sorgt. Das grundlegende Design hat sich sich seit Tahiti vor fast 5 Jahren kaum verändert.
nVidia geht eben den Weg zu größeren und teureren Chips mit mehr Transistoren je Recheneinheit und geringerer Packdichte. Ergebnis sind eben Chips die sich gut takten lassen mit sehr guter Leistung/Flop und auch guter Skalierung nach oben hin. Die Chips können auch innerhalb ihres Sweetspots mit guter Energieeffizienz verkauft werden und haben darüber hinaus ein gutes Übertaktungspotential.
Das sind einfach 2 komplett verschiedene Philosophien.

Und selbst mit genau 1380MHz (die wohl real bei 1,5GHz+ sind) wischt die 1050 mit einer RX460 den Boden auf. Die RX480 braucht schon deutlich mehr Rechenleistung und Spericherbandbreite um mit der 1060 gleich zu ziehen. Die Rohdaten twischen RX460 und 1050 sind aber praktisch identisch. 1050 wird locker 20%+ im Durchschnitt vorne liegen.

Und auch für Notebooks sehr interessant. Da wird die 1050 locker schneller als die alte 965M in Notebooks sein, die noch bis vor kurzem in Gaming Notebook locker 1200€+ gekostet hat und das alles in einen viel schmaleren Formfaktor realisierbar.

Ich bin auch mal gespannt ob es zu erst RX460 oder 1050 Notebooks zu kaufen gibt, nachdem AMD so großspurig die Prototypen im Jahresanfang mit so unglaublicher (:rolleyes:) Energieeffizienz gezeigt haben. :ugly:

Screemer
2016-09-04, 23:34:41
Noch so ein selbst ernannter Experte ohne Ahnung von nur irgend etwas. :uclap:


Deinen ersten Satz unterschreiben ich bezugnehmend auf dein Post sehr gerne.

Dir ist aufgefallen, dass gp107/8 bei Samsung 14nm lpp gefertigt werden und nicht wie gp100/4/6 bei tsmc in 16nm vom Band fallen? Plötzlich sinkt der angegebene Base- und Boosttakt um Größenordnungen und du siehst da natürlich keinen Zusammenhang. Experte wir sind hier im speku-sub.

HOT
2016-09-05, 08:30:27
Noch so ein selbst ernannter Experte ohne Ahnung von nur irgend etwas. :uclap:

Das der Boostclock mal so gut wie gar nichts bedeutet, sollte eigentlich mitlerweile jeder mitbekommen der auch nur mal irgend ein Pascal Review in den letzten 3 Monaten überflogen hat. Anders als bei AMD ist das nicht das erlaubte Maximum, sondern der Takt kann je nach Situation deutlich darüber liegen.
Meine Titan X hat auch nen Boost Clock von 1531 MHz geht aber locker auf 1,8GHz default.

Genauso auch mit TDP und Power Target. Bei AMD heißt da auch 150W TDP das die Karte hier und da auch mal 170W ziehen kann. Während bei nVidia das Power Target das harte Limit ist wo die Karte nicht mehr verbrauchen darf.

Und das der 14nm LPP Prozess, bei der Energieffizienz schlechter, wie der 16nm TSMC ist, steht außer Frage. Konnte man ja schon beim iPhone 6S sehen.
Nur hat das mit der Taktbarkeit des Chips 0 am Hut. Das ist einfach grundlegendes Hardwaredesign. Das AMD Design ist eben einfach auf wenig Transistoren pro Rechneinheiten mit hoher Packdichte ausgelegt. Nachteil dessen scheint eben eine schlechtere Taktbarkeit, schlechte Effizienz/Flop zu sein. AMD Chips der letzten Jahre mussten auch im Auslieferungszustand weit über ihren Sweetspot geraktet werden, was für eine sehr schlechte Energieeffizienz sorgt. Das grundlegende Design hat sich sich seit Tahiti vor fast 5 Jahren kaum verändert.
nVidia geht eben den Weg zu größeren und teureren Chips mit mehr Transistoren je Recheneinheit und geringerer Packdichte. Ergebnis sind eben Chips die sich gut takten lassen mit sehr guter Leistung/Flop und auch guter Skalierung nach oben hin. Die Chips können auch innerhalb ihres Sweetspots mit guter Energieeffizienz verkauft werden und haben darüber hinaus ein gutes Übertaktungspotential.
Das sind einfach 2 komplett verschiedene Philosophien.

Und selbst mit genau 1380MHz (die wohl real bei 1,5GHz+ sind) wischt die 1050 mit einer RX460 den Boden auf. Die RX480 braucht schon deutlich mehr Rechenleistung und Spericherbandbreite um mit der 1060 gleich zu ziehen. Die Rohdaten twischen RX460 und 1050 sind aber praktisch identisch. 1050 wird locker 20%+ im Durchschnitt vorne liegen.

Und auch für Notebooks sehr interessant. Da wird die 1050 locker schneller als die alte 965M in Notebooks sein, die noch bis vor kurzem in Gaming Notebook locker 1200€+ gekostet hat und das alles in einen viel schmaleren Formfaktor realisierbar.

Ich bin auch mal gespannt ob es zu erst RX460 oder 1050 Notebooks zu kaufen gibt, nachdem AMD so großspurig die Prototypen im Jahresanfang mit so unglaublicher (:rolleyes:) Energieeffizienz gezeigt haben. :ugly:
Hm, ich versteh dich nicht... ich stelle lediglich fest, dass die 14nm LPP 1050 extrem schlecht ggü. der 16nm FF+ 1060 skaliert... und setzte das in Relation zu P10.
Apple hat übrigens nie was in 14LPP produziert. Das heißt also gar nix.

Undertaker
2016-09-05, 10:21:37
Man darf auch einige weitere Punkte nicht vergessen:

1) Die GTX 1050 taktet ganz bewusst tief, um als 75W-Modell ohne PCIe-Stecker antreten zu können. Inwieweit die Karte darüber skaliert, ist derzeit noch völlig unbekannt.

2) 14nm LPP ist kleiner und offenbar auch billiger als 16nm FF+. Bei gesetztem Budget kann man einen 14nm LPP-Chip folglich deutlich breiter als eine 16nm FF+-Karte bauen. Ergo stellt sich die Frage: Wäre ein GP106 in 14nm LPP mit vielleicht 1536 ALUs und weniger Takt ineffizienter geworden? Wäre ein P10/P11 mit vielleicht 20% weniger ALUs und 20% mehr Takt effizienter gewesen?

Das lässt sich so nicht beantworten. Dem Kunden kann es letztlich auch egal sein.

Der_Korken
2016-09-05, 10:43:38
1) Die GTX 1050 taktet ganz bewusst tief, um als 75W-Modell ohne PCIe-Stecker antreten zu können. Inwieweit die Karte darüber skaliert, ist derzeit noch völlig unbekannt.

Das spricht ja eigentlich eher noch mehr gegen 14LPP, weil die Karte trotz geringerem Takt gerade mal einen Verbrauch erreicht, der 1:1 den gesenkten SPs und dem kleineren Speicherinterface entspricht. An dem Test von TH sieht man, dass die Effizient mit kleinerem Takt eher zunimmt. Sofern die 75W stimmen und die 1050 wirklich nicht viel mehr als 1,4Ghz damit schafft (~ <1,6Ghz), dann sieht es so aus, als würde sich 14LPP entweder deutlich schlechter takten lassen, oder generell mehr Strom verbrauchen.

Undertaker
2016-09-05, 10:55:39
Kleinere Karten verbrauchen immer mehr pro ALU/FLOP, das ist auch bei der RX 460 ggü. der ähnlich taktenden 470 der Fall. Und dann ist da noch der zweite Punkt wo ich sagte, dass ein 14nm LPP-Chip einfach breiter gebaut werden kann und muss als ein 16nm FF+-Chip. "Schlechter" wäre 14nm LPP erst dann, wenn man bei gleichem Herstellungsbudget weniger Leistung und Effizienz als in 16nm FF+ erhält. Das 14nm LPP bei gleichem Transistorcount im Nachteil ist, kann gut sein, aber wenn man dafür bei gleichem Preis breiter bauen kann ändert sich das Ergebnis schon wieder.

Ailuros
2016-09-05, 14:16:51
Der Takt ist gerade mal 28% höher plus paar Shader zusätzlich, im Vergleich zu den anderen Pascals ist das ganz schön wenig. GP104/GP106 haben fast 50% mehr Takt und mehr Shader als ihre Vorgänger bei ähnlichen/leicht höheren TDPs.
GM107 war bei 65 W, da sind diese Taktraten bei 75W ganz schön schlecht und sehen nach nem ganz schön schlechten Prozess im Vergleich zu TSMC aus.

Oder NV engineering hat fuer GM107/8 kein padding zwischen den Transistoren angewendet weil es die Marktsparte nicht den Aufwand wert war. Und um meine nichtvorhandenen Lorbeeren zu ehren ich hab vor Wochen von um einiges geringere Frequenzen gewarnt.

Kleinere Karten verbrauchen immer mehr pro ALU/FLOP, das ist auch bei der RX 460 ggü. der ähnlich taktenden 470 der Fall. Und dann ist da noch der zweite Punkt wo ich sagte, dass ein 14nm LPP-Chip einfach breiter gebaut werden kann und muss als ein 16nm FF+-Chip. "Schlechter" wäre 14nm LPP erst dann, wenn man bei gleichem Herstellungsbudget weniger Leistung und Effizienz als in 16nm FF+ erhält. Das 14nm LPP bei gleichem Transistorcount im Nachteil ist, kann gut sein, aber wenn man dafür bei gleichem Preis breiter bauen kann ändert sich das Ergebnis schon wieder.

"Faster but leakier" fuer 14LPP stammt direkt vom Maul des Loewen. Padding haette zwar geholfen aber die gleichen Frequenzen wie unter 16FF+ haetten sie auch wieder nicht erreicht IMHO. Sonst bin ich um ehrlich zu sein schon ueberzeugt dass unter 16FF+ der Stromverbrauch geringer gewesen waere.

Fusion_Power
2016-09-05, 16:47:24
Bin mal auf die tatsächliche Geschwindigkeit der 1050 gespannt. Wird ja zumindest an ne alte GTX960 locker ran kommen, hoffe ich. Mein Mini-ITX System kann so ne hoffentlich kühle und leise GraKa gut brauchen. Die derzeit noch eingebaute GTX 560 hat nen doppelt so hohen TDP. :D Aber ich nehm auch ne kleine 3GB GTX1060 wenns sein muss, die ist mir aber noch zu teuer.

Bösewicht
2016-09-05, 17:02:24
was ich hier lese verwirrt mich ein wenig... wo liest ihr 14nm Fertigung?
ich lese überall außer hier im thread 16 nm FinFET.

Es kann schon seid das es mal hieß die kleineren bei Samsung aber bis jetzt steht doch überall 1050 @ 16 nm FinFET

HOT
2016-09-05, 17:18:15
Es ist schon länger bekannt, dass NV GP107/8 bei Samsung fertigt, nicht bei TSMC, da TSMC nicht die Kapazitäten liefern kann, die NV gerne hätte. Dafür gibts aber offenbar noch mehr Gründe, die die Chipkosten weiter beschränken:
- weniger Die-Fläche (14LPP erlaubt wohl höhere Packdichten)
- billigerer Prozess (angeblich soll 14LPP insgesamt günstiger sein als 16FF+, was aber wohl eher darin begründet liegt, dass Samsung nicht so stark nachgefragt ist)

Im Grunde gilt das Gleiche wie bei Polaris, Kostendruck.

MadManniMan
2016-09-05, 17:18:41
Aye!

Wo kommen die 14 nm plötzlich her?

Bösewicht
2016-09-05, 17:33:46
Es ist schon länger bekannt, dass NV GP107/8 bei Samsung fertigt, nicht bei TSMC, da TSMC nicht die Kapazitäten liefern kann, die NV gerne hätte. Dafür gibts aber offenbar noch mehr Gründe, die die Chipkosten weiter beschränken:
- weniger Die-Fläche (14LPP erlaubt wohl höhere Packdichten)
- billigerer Prozess (angeblich soll 14LPP insgesamt günstiger sein als 16FF+, was aber wohl eher darin begründet liegt, dass Samsung nicht so stark nachgefragt ist)

Im Grunde gilt das Gleiche wie bei Polaris, Kostendruck.
schon klar schon klar ich schrieb ja auch früher wahr das so angekündigt aber alle links wie z.b der zur gamestar oder zu ihrer quelle und eigentlich alle anderen links auch dort steht im 950 1050 1060 vergleich nm 16 und nicht die 14lpp.

Alles Schreibfehler oder Unwissenheit oder hat sich was geändert und 1050 wird nun doch im 16finfet produziert?

Aye!

Wo kommen die 14 nm plötzlich her?
hatte nvidia anfangs noch angekündigt

Ailuros
2016-09-06, 09:01:12
Ich kann mich an keine offizielle Ankuendigung seitens NV fuer 14LPP erinnern, kann es aber verpasst haben.

Sonst am 15. Juli:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102354&postcount=1059

Ich erlaube mir noch ein OT bis es einen GP107/108 thread gibt: Sammy als Hersteller bestaetigt.

....(und ich hatte es sogar noch frueher angedeutet hier im forum)

18/07/16:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11105933&postcount=2

Wie dem auch sei bei Samsung unter 14LPP hergestellt; nach neuestem Stand gibt es keine Verspaetungen. Es laeuft so wie anfangs geplant, wobei es ihnen schon am Anfang klar war dass es mit den resources etwas knapp werden fuer ein weiteres design team.

Wie schon erwaehnt ich bin auf die Frequenzen gespannt, denn die Samsung Prozesse sind definitiv nicht besser wenn es zu Leckstroemen kommt.

14/08/16:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11131639&postcount=6307

Es donnert schon seit einiger Zeit zwischen NV und TSMC wegen den zu kargen Kapazitaeten fuer 16FF+. Der Wechsel fuer 107/108 auf 14LPP (den wir im relevanten thread schon vor einiger Zeit meldeten) war eine relativ fruehe Entscheidung bei NV so dass es sie nur wenige Wochen mehr kostete fuer den Wechsel um selber genug resources dafuer zu finden da sie ein kleines aber zusaetzliches team dafuer brauchten.

Es gibt doch einen relevanten thread fuer 107/8 hier oder irre ich mich? Auf jeden Fall haben wir es schon seit einiger Zeit besprochen. Ich hatte schon damals das muerbe Gefuehl dass sie vielleicht auf 107/8 weniger extravagante Frequenzen haben werden im Vergleich zu den grossen 16FF+ Bruedern, aber die letzte Meldung deutet wohl aufs Gegenteil hin. Anders wenn die Dinger einen boost von 1600 haben als Beispiel dann hatten sie diesen auch so von Anfang an geplant.

Anders weder 14LPP Samsung ist fuer GP107/108 irgend eine besondere Ueberraschung und wohl auch nicht die finalen Frequenzen. Dass es sich nicht um die finalen Frequenzen handelt will ich ernsthaft bezweifeln; bei 6 clusters klingt es mir unmoeglich.

iuno
2016-09-25, 15:31:44
ComputerBase (https://www.computerbase.de/2016-09/geforce-gtx-1050-ti-zwei-nvidia/) via hwbattle (down) und Benchlife (https://benchlife.info/gp107-with-2gb-and-4gb-for-geforce-gtx-1050-ti-09252016/):

|GTX 1050|GTX 1050 Ti|GTX 960|GTX 750 Ti
GPU|GP107-300|GP107-400|GM206|GM107
SP|640|768|1024|640
Chiptakt (MHz)|1.354-1.455|1.290-1.382|1.127-1.178|1.020-1.050
MFLOPs (peak)|1.862|2.123|2.413|1.344
Speicherinterface (Bit)|128|128|128|128
Speichermenge (GiB)|2|4|4|2
TDP (Watt)|<=75|<=75|120|60|

Zero-11
2016-09-25, 22:56:06
Kleinere Karten verbrauchen immer mehr pro ALU/FLOP,

was? was?

Leonidas
2016-09-26, 04:44:15
Der Takt liegt dennoch 28% über Maxwell mit 1x6 pin.


GM206 hat real auch schon mit ~1300 MHz getaktet, die offiziellen Taktraten von 950/960 sind arger Nonsens.


Bei 1050/Ti würde ich allerdings keine zu den ofiziellen Taktraten abweichende Boosts erwarten. Die Karten werden beide hart am Power-Limit aufschlagen. Nur die Herstellerdesigsn werden zeigen können, was GP107 wirklich kann.

Ailuros
2016-09-26, 12:07:16
GM206 hat real auch schon mit ~1300 MHz getaktet, die offiziellen Taktraten von 950/960 sind arger Nonsens.


Bei 1050/Ti würde ich allerdings keine zu den ofiziellen Taktraten abweichende Boosts erwarten. Die Karten werden beide hart am Power-Limit aufschlagen. Nur die Herstellerdesigsn werden zeigen können, was GP107 wirklich kann.

So viel sollte schon klar sein; aber wenn ich zu jeglichen Vergleichen komme fang ich persoenlich jeweils mit default vs. default Frequenzen an.

1. Egal was die Hersteller anrichten, jeglicher hoeherer Takt bedeutet auch hoeheren Verbrauch.

2. Bei einem naiven Laien-Vergleich zwischen 16FF+ (GP104, 106, 102) steht 14LPP (GP107) nach wie vor in einem schlechteren Licht.

Ausser NV hat sich die "Transistoren-Stopferei" bei GP107/8 wie bei den groesseren cores gespart; in solch einem Fall ist dann (2) oben natuerlich Bloedsinn.

Undertaker
2016-09-26, 13:15:59
Bei 1050/Ti würde ich allerdings keine zu den ofiziellen Taktraten abweichende Boosts erwarten. Die Karten werden beide hart am Power-Limit aufschlagen.

Eigentlich hat NV die Boosttaktraten bei allen Karten zuletzt immer sehr konservativ angegeben, ich glaube nicht das man das plötzlich ändert. Der Takt wird natürlich trotzdem ein gutes Stück unter GP106/104/102 bleiben, aber das wird imo prozentual entsprechend in den Herstellerangaben eingepreist sein.

AnarchX
2016-10-01, 09:26:53
Die GTX 1050 Ti entspricht wohl einer GTX 960 in ~120mm²/14LP @ ~75W: http://wccftech.com/nvidia-geforce-gtx-1050-ti-specs-performance-leak/

scully1234
2016-10-01, 11:16:44
Die GTX 1050 Ti entspricht wohl einer GTX 960 in ~120mm²/14LP @ ~75W: http://wccftech.com/nvidia-geforce-gtx-1050-ti-specs-performance-leak/


Nicht ganz denn...

These are based on numbers from factory overclocked variants

Im Text steht auch nicht das sie diese OC @ 960 irgendwo auf Standard zurueck gesetzt hatten

AnarchX
2016-10-01, 12:23:00
Wenn nahezu alle Karten einen gewissen OC haben, ist das bald sinnvoller als auf den Ref-Takt zu pochen. Die 900er Wert sind hier die OC-Werte, insofern sieht es bei Ref-Takt wohl noch besser für die 1050 Ti aus.

AffenJack
2016-10-02, 11:28:29
angebliche GP107 Photos, woher der User die Bilder hat ist unklar, aber bestimmt aus irgendeinem Fernost Forum:
http://i1024.photobucket.com/albums/y303/martmail55/3333_zpsw1uemc7u.png
https://forums.anandtech.com/threads/gtx-1050-1050-ti-set-to-launch-in-october-specifications-leaked-sweclockers-benchlife.2483473/page-6#post-38498733

Kann einer unserer Pixelzähler die Größe abschätzen oder sind das nur Fakes?

AnarchX
2016-10-02, 15:55:38
GDDR5 ist doch 12x14mm groß. Dann ist wohl 14LP nur billig oder da sind mehr als 6SM enthalten... (150-170mm² geschätzt - passt aber auch zu GM107 = Fake?).

iuno
2016-10-02, 16:04:50
Naja, der Chip ist schon etwas kleiner als der RAM, wuerde eher etwas Richtung 140-150 mm² schaetzen

mczak
2016-10-02, 17:01:11
GP106 war ja auch 63% der Fläche von GP104 obwohl es genau ein halber GP104 war (mit 3/4 Speicherinterface / ROP). GP107 ist sogar 6/10 von GP106 (ok, wohl mit bloss einem GPC, mit 2/3 Speicherinterface), und das Fixed Function Zeugs (Video etc.) wird anteilsmässig logischerweise auch grösser. Da würde ich so über den Daumen gepeilt bei demselben Prozess auch eher von 150mm^2 ausgehen. Aber klar ist der Chip tatsächlich so gross spricht das nicht dafür dass da Samsung 14LP dichter gepackt ist. Wir werden ja (hoffentlich) sehen was nvidia für eine Tranistorzahl angibt.

Leonidas
2016-10-02, 18:18:45
Wahrscheinlich auch einfach nur günstiger. Was interessiert NV auch bei 150mm² die Chipgröße? Spielt für Stromversorgung, Kühlung, Handling etc. alles keine Rolle - für NV als Chipannehmer interessiert nur der Preis. Hypothetisch wären auch 200mm² okay, wenn es nicht mehr Strom frisst und der Preis der gleiche ist.

reaperrr
2016-10-02, 18:28:46
GDDR5 ist doch 12x14mm groß. Dann ist wohl 14LP nur billig oder da sind mehr als 6SM enthalten... (150-170mm² geschätzt - passt aber auch zu GM107 = Fake?).
Der Chip ist an beiden Achsen etwas kürzer als die schmalere Seite der Speicherchips, also höchstens ~11x11 = 121mm², also eventuell sogar etwas kleiner als P11.

Passt absolut zu den Specs, zumal diverse Dinge gar nicht (DisplayController usw.) nur um 1/3 (ROPs, SI) oder halt um 4/10 (SM) gegenüber GP106 reduziert wurden. Finde den Chip dafür sogar recht klein, in 16FF+ wäre er womöglich um ein paar mm² größer ausgefallen.

Leonidas
2016-10-02, 18:48:46
Ich errechne zwischen 135-145mm², ergo nicht in der Nähe von 121mm².

Ailuros
2016-10-03, 12:37:22
Ich errechne zwischen 135-145mm², ergo nicht in der Nähe von 121mm².

Da ich es jedes Mal falsch einschaetze halte ich meistens die Finger von die shots, ueberhaupt von diesem die schraeg aufgenommen wurden.

Wahrscheinlich auch einfach nur günstiger. Was interessiert NV auch bei 150mm² die Chipgröße? Spielt für Stromversorgung, Kühlung, Handling etc. alles keine Rolle - für NV als Chipannehmer interessiert nur der Preis. Hypothetisch wären auch 200mm² okay, wenn es nicht mehr Strom frisst und der Preis der gleiche ist.

Tja wenn es um 20% weniger die area gehen wuerde, beinflusst es schon die Herstellungskosten. Nach einem ihrer engineers gibt es selbst vom GP100 bis zum kleinsten GP1xx core nur sehr kleine Unterschiede in Packdichte. Gilt nun dieses auch fuer 14LPP dann waeren z.B. 150mm2 schon zumindest 3.6 Mrd. Tranistoren welches aber dann schon zu brutal ueberzogen klingt gegen Polaris11/3 Mrd/123mm2.

Aussnahme waere natuerlich eine ziemlich niedrigere Packdichte als =/>24Mio/mm2, woefuer aber mein Bauchgefuehl auf um einiges niedrigeren Stromverbrauch deuten wuerde.

Knapp um die 120mm2 klingen leider momentan um einiges logischer, obwohl natuerlich auf ersten Blick der chip inkl. Rand mal wieder deutlich groesser aussieht.

Undertaker
2016-10-03, 19:44:48
Nur auf den Vergleich zu Polaris 11 bezogen: Wenn GP107 größer als jener wird, ist das per se kein Problem – wenn denn auch Performance und ggf. auch Energieeffizienz besser ausfallen und damit entsprechend höhere Erlöse erzielt werden können. Zudem kommt unter GP107 wohl noch ein GP108, sodass man insbesondere im Mobile-Markt einen nochmals günstigeren Low-End-Chip hat und GP107 hier nicht künstlich übermäßig kastrieren muss.

Ailuros
2016-10-04, 08:34:50
Ein Problem ist es keineswegs wenn 107 groesser ausfallen sollte als P11, aber wie gesagt da es wohl eine kleinere Packdichte bedeuten wuerde, wuerde ich auch um einiges niedrigeren Stromverbrauch als <75W wie angegeben dafuer erwarten. Wenn fuer 14/16FF um die 24-25Mio/mm2 quasi die "Norm" bis jetzt sind wird wohl keiner ohne besonderen Grund ploetzlich auf 19/20Mio/mm2 fallen wollen.

Ailuros
2016-10-06, 10:34:16
http://videocardz.com/63757/nvidia-geforce-gtx-1050-ti-with-gp107-gpu-pictured

Also wenn nichts krummes an der Sklarierung der beiden core-Photos liegt, dann sieht GP107 schwer nach einem ~150mm2 die aus im Vergleich zu GP106.

mczak
2016-10-06, 17:33:11
http://videocardz.com/63757/nvidia-geforce-gtx-1050-ti-with-gp107-gpu-pictured

I think there’s just enough room to fit 6 GPCs (Graphics Processing Clusters)...

Wohl eher nicht :biggrin:

Sieht für mich eher nach etwa 2/3 der Grösse aus (gleich breit, aber nur 2/3 lang). Wären dann eher so 135 mm^2 (und damit imho relativ klein). Ist aber ziemlich unscharf das Ganze.

Leonidas
2016-10-07, 05:41:15
Gibt es eigentlich feste Größen für die Chipabdeckung - oder könnte es da kleinere oder größere Varianten geben? In Sinne von weniger oder mehr die Diefläche verschleiernd.

iuno
2016-10-10, 19:47:57
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1050-Ti-Benchmarks-Boost-1210047/

Offenbar ordentlicher Boost, keine niedrige "Taktmauer" nahe der Referenztaktraten.

Gezeigt werden dort nach einem kurzen Einpendeln Werte zwischen 1.600 und knapp 1.800 MHz

AnarchX
2016-10-11, 07:37:55
Gibt es eigentlich feste Größen für die Chipabdeckung - oder könnte es da kleinere oder größere Varianten geben? In Sinne von weniger oder mehr die Diefläche verschleiernd.
Da ist keine Abdeckung. Seit Flip-Chip sehen wir den Die, sofern kein HS drüber ist. Bei Lowres-Bildern muss man nur aufpassen, dass man die Isolatiinsmasse am Rand nicht mitmisst.

Ailuros
2016-10-11, 09:16:56
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1050-Ti-Benchmarks-Boost-1210047/

Offenbar ordentlicher Boost, keine niedrige "Taktmauer" nahe der Referenztaktraten.

Fuer 45 Sekunden koennte ich auch die GPU eines Parker SoCs auf solche boosts jagen. So nichtsaussagend wie es gerade noch geht.

Troyan
2016-10-17, 19:17:22
Nächste Woche ab Dienstag für $109 verfügbar:
http://videocardz.com/63820/exclusive-nvidia-geforce-gtx-1050-ti-to-cost-139-usd-gtx-1050-109-usd

iuno
2016-10-17, 19:38:29
Fuer 45 Sekunden koennte ich auch die GPU eines Parker SoCs auf solche boosts jagen. So nichtsaussagend wie es gerade noch geht.
Das meinte ich auch nicht, sondern bezog mich auf die Aussagen mancher, 14LPP wuerde derartige Taktraten gar nicht erlauben.

Loeschzwerg
2016-10-17, 19:55:35
Nächste Woche ab Dienstag für $109 verfügbar:
http://videocardz.com/63820/exclusive-nvidia-geforce-gtx-1050-ti-to-cost-139-usd-gtx-1050-109-usd

139 bzw. 109USD sind mal eine Ansage und einige ITX Varianten scheinen auch gleich aufzuschlagen, so muss das sein :)

horn 12
2016-10-17, 21:18:15
Nicht leicht für AMD da durchzuhalten!

Schnäppchenjäger
2016-10-17, 22:19:26
Nicht leicht für AMD da durchzuhalten!
AMD kann einpacken und nach Hause gehen :biggrin:
nvidia forever!!!

MadManniMan
2016-10-17, 23:29:30
AMD kann einpacken und nach Hause gehen :biggrin:
nvidia forever!!!

Ich glaube, das ist so ziemlich die seltsamste Aussage zu auch nur irgendwas, die ich heute lesen durfte.

Achill
2016-10-18, 00:35:15
AMD kann einpacken und nach Hause gehen :biggrin:
nvidia forever!!!

Ich glaube, das ist so ziemlich die seltsamste Aussage zu auch nur irgendwas, die ich heute lesen durfte.

Diese Impliziert einfach, dass man die Auswirkungen von Monopolen willentlich ignoriert - dies wäre für niemanden gut.

Loeschzwerg
2016-10-18, 07:20:15
Nicht leicht für AMD da durchzuhalten!

Leider. In meinen Augen stimmt da das P11 Lineup nicht wirklich bzw. die Karten sind viel zu uninteressant :(

Ailuros
2016-10-18, 08:22:06
Das meinte ich auch nicht, sondern bezog mich auf die Aussagen mancher, 14LPP wuerde derartige Taktraten gar nicht erlauben.

Zwischen dem was ein Prozess "erlaubt" und dem Punkt wo ein IHV mit der Frequenz halt macht, gibt es schon einen sehenswerten Unterschied. NV selber hat 14LPP als "faster but leakier" beschrieben, wobei Du offensichtlich den Stromverbrauch total vergessen willst?

Damit wir uns nicht falsch verstehen: damit sich der maximale Stromverbrauch einer 1050 unter 75W haelt wird aus solchen extravaganten Frequenzen ueberhaupt nichts fuer Referenz SKUs. Wenn einem jeglichen Hersteller der Verbrauch innerhalb Grenzen egal sein sollte und diese auch so schoen uebertaktet fuer einen ebenso uebertakteten Preis, bleibt immer noch die Frage wieso nicht gleich eine einfache 1060 stattdessen.

Linmoum
2016-10-18, 15:49:03
Nvidia hat auch eine unverbindliche Preisempfehlung für Deutschland bekannt gegeben. Die GeForce GTX 1050 soll es ab 125 Euro geben, die GeForce GTX 1050 Ti ab 155 Euro. Kurz vor der Vorstellung im deutschen Handel aufgetauchte Preise von um die 220 Euro erscheinen entsprechend sehr hoch. Von Händlern wurden gegenüber ComputerBase allerdings durchaus um die 200 Euro für die größere Variante in Aussicht gestellt – je nach „Ausbaustufe“ könnten die Preis also sehr unterschiedlich ausfallen.

https://www.computerbase.de/2016-10/geforce-gtx-1050-ti-termin-preis/

Loeschzwerg
2016-10-18, 16:45:39
http://wccftech.com/nvidia-geforce-gtx-1050-ti-pascal-announce/

Hier gibt's noch ein paar mehr Infos + Hersteller Benches (1050Ti; Galax). 155€ scheinen mir nach den synthetischen Benches zu passen.

Könnte die ideale Karte für meinen kleinen ITX Kübel werden.

Edit:
http://cdn.wccftech.com/wp-content/uploads/2016/10/NVIDIA-GeForce-GTX-1050-Ti_3DMark-Firestrike-840x458.png
http://cdn.wccftech.com/wp-content/uploads/2016/10/NVIDIA-GeForce-GTX-1050-Ti_3DMark-Time-Spy-840x462.png

MadManniMan
2016-10-18, 17:38:32
Mehr als 150 Ocken für eine Karte, die so weit hinter der 1060 hängt? :crazy2:

Loeschzwerg
2016-10-18, 17:56:53
Sind trotzdem 100€ zur 1060 und verglichen zur RX460 passen die 155€ dann schon. Aber mal abwarten ob nicht doch noch irgendwelche gewichtigen Problemstellen in den Tests aufgedeckt werden.

Ailuros
2016-10-18, 18:20:43
Sind trotzdem 100€ zur 1060 und verglichen zur RX460 passen die 155€ dann schon. Aber mal abwarten ob nicht doch noch irgendwelche gewichtigen Problemstellen in den Tests aufgedeckt werden.

Wenn man nur die 6GB Variante der 1060 vorraussetzt schon; es ist aber dann auch ein ganz anderes Paket. Da aber die 3GB schon bei 197 Euro anfangen, ist der Preis-Unterschied dann wohl doch zu klein, wobei man dann eben mit dem Nervenkitzel spielen koennte dass die 1050Ti 25% mehr Speicher haben koennte :freak:

***edit: http://www.anandtech.com/show/10768/nvidia-announces-geforce-gtx-1050-ti-gtx-1050

Der chip duerfte schon um die 130+mm2 wiegen mit 3.3 Mrd. Transistoren.

y33H@
2016-10-18, 19:09:17
132 mm² ... von 3 auf 4 GByte wäre IMHO übrigens +33 % ^^

Ailuros
2016-10-18, 19:10:45
Ich war schon immer eine Banause mit Prozenten :mad:

AnarchX
2016-10-18, 19:11:01
Dual-GPC und 32 ROPs, da kann P11 wohl nicht viel dagegenhalten. :freak:

Ohne 75W Fessel ist es wohl auch eine 2GHz GPU:
Nvidia zeigt sich jedenfalls zuversichtlich und gibt an, dass zumindest die Modelle mit zusätzlichem 6-Pin-Stromstecker auf 2,0 GHz und mehr übertaktet werden könnten.
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Geforce-GTX-1050-Ti-Release-Samsung-1210868/

mczak
2016-10-18, 19:26:48
132 mm² ...
Anandtech spricht von 135mm^2, Techreport von 132mm^2. Keine Ahnung welche Zahl richtig ist :-).

mczak
2016-10-18, 19:31:34
Ohne 75W Fessel ist es wohl auch eine 2GHz GPU:

Zumindest die Gigabyte Karten sind aber meilenweit davon entfernt:
http://www.gigabyte.co.nz/products/product-page.aspx?pid=6054#sp
Dafür dass die einen pcie-Stecker haben ist es geradezu erstaunlich dass die trotzdem nicht mal 10% über den Referenztaktraten liegen, selbst im OC-Modus...

AnarchX
2016-10-18, 19:34:32
Anandtech spricht von 135mm^2, Techreport von 132mm^2. Keine Ahnung welche Zahl richtig ist :-).

3mm² für die integrierte ARM-CPU? ;) Computerbase und PCGH geben auch 132mm² an. Da scheint sich ja 14nm doch gelohnt zu haben und man erreicht fast GP100 bei der Packdichte.

Zumindest die Gigabyte Karten sind aber meilenweit davon entfernt:
http://www.gigabyte.co.nz/products/product-page.aspx?pid=6054#sp
Dafür dass die einen pcie-Stecker haben ist es geradezu erstaunlich dass die trotzdem nicht mal 10% über den Referenztaktraten liegen, selbst im OC-Modus...
Es bleibt bei der 300W NT Empfehlung (GTX 1060 400W), selbst mit 6-Pin gibt es da vielleicht Auflagen, dass man nicht der 1060 3G gefährlich wird.

Troyan
2016-10-18, 19:59:25
Dual-GPC und 32 ROPs, da kann P11 wohl nicht viel dagegenhalten. :freak:


Die erste Pascal-GPU, deren Pixeldurchfluss nicht durch die Computeunits nicht durch die GPCs und ROPs beschränkt wird.

Hoffentlich testet jemand den MDolenc Benchmark bzgl. Async Compute.

Schnäppchenjäger
2016-10-18, 19:59:43
Diese Impliziert einfach, dass man die Auswirkungen von Monopolen willentlich ignoriert - dies wäre für niemanden gut.
Nee, nicht ganz. Monopole sind scheiße, weil Nvdia dann praktisch Marktmacht hat,da stimme ich zu; mein AMD-Hass rührt von meinen persönlichen Erfahrungen :biggrin:

mczak
2016-10-18, 20:04:38
3mm² für die integrierte ARM-CPU? ;) Computerbase und PCGH geben auch 132mm² an. Da scheint sich ja 14nm doch gelohnt zu haben und man erreicht fast GP100 bei der Packdichte.

Also so viel dichter ist das nicht. Gut es sind 75% der Transistoren von GP106 bei 66% der Fläche - rund 10% dichter. Immerhin.


Es bleibt bei der 300W NT Empfehlung (GTX 1060 400W), selbst mit 6-Pin gibt es da vielleicht Auflagen, dass man nicht der 1060 3G gefährlich wird.
Die 1050Ti kommt nie an eine 1060 3G hin da würden auch 2Ghz bei weitem nicht reichen. Kann aber schon sein dass nvidia da auch noch künstlich Limiten setzt - scheint mir aber zumindest bei der 1050Ti nicht wirklich nötig. Bei der 1050 hingegen würde das Sinn machen, denn bei ~20% OC würde man schon locker die (non-OC) 1050Ti überholen (mal abgesehen davon dass die weniger Speicher hat natürlich).
Gigabyte hat übrigens 8 Modelle - je 4 Ti 4GB und non-Ti 2GB, jeweils (sortiert von langsam nach schnell) D5, OC, Windforce, Gaming. Der Unterschied zwischen der schnellsten und der langsamsten Karte ist aber ein Witz, sind gerade mal so um die 4-6% (je nachdem was man als Massstab nimmt - Boost vs. Base, Gaming vs. OC Mode). Und da sind ja noch 2 Karten dazwischen - also für jedes Prozentchen gibt's eine eigene Karte :-).

AnarchX
2016-10-18, 20:12:10
Bei EVGA zeigt man 1,8GHz mittels Precision X OC:
http://www.evga.com/articles/01063/images/precisionxoc/standard_overclock_mode.png
http://www.evga.com/articles/01063/evga-geforce-gtx-1050-ti-and-1050/

mczak
2016-10-18, 20:26:12
Bei EVGA zeigt man 1,8GHz mittels Precision X OC:
http://www.evga.com/articles/01063/images/precisionxoc/standard_overclock_mode.png
http://www.evga.com/articles/01063/evga-geforce-gtx-1050-ti-and-1050/
Wobei die Default-Taktraten auch nicht wirklich höher sind als bei Gigabyte (und evga hat sogar je 5 Modelle...). Da geht wohl manuell also doch noch relativ viel (wobei die 1800Mhz immerhin auch noch 10% unter dem liegen was mit anderen Pascal Chips geht).

Thunder99
2016-10-18, 21:46:11
1,093V -> wohl Prozess etwas Spannungs-hungriger als 16++. Wobei auch zusätzlich das Design auf etwas entspanntere Taktraten hin designt sein könnte. Ziel Kostenoptimiert

N0Thing
2016-10-19, 02:26:29
Nee, nicht ganz. Monopole sind scheiße, weil Nvdia dann praktisch Marktmacht hat,da stimme ich zu; mein AMD-Hass rührt von meinen persönlichen Erfahrungen :biggrin:

Nur aus Interesse und mit der Hoffnung, keinen Fanboy-Krieg zu befeuern, was waren deine negativen Erfahrungen und aus welcher Zeit stammen sie?

AnarchX
2016-11-02, 18:45:10
Jetzt sind schon die Notebook Varianten schneller als auf dem Desktop: http://laptopmedia.com/highlights/nvidia-geforce-gtx-1050-ti-laptop-specs-and-benchmarks/ ;D

mironicus
2016-11-05, 12:19:47
Wird es wohl auch LowProfile-Versionen geben? Ich will einen sehr kleinen Rechner aufrüsten, und die Onboard-Grafik kann maximal nur 1920x1200 ausgeben.

dildo4u
2016-12-21, 08:37:05
Neues XPS 15 kommt mit Kaby Lake, GTX 1050 (4GB) und Ultra HD


https://www.computerbase.de/2016-12/dell-xps-15-2017-kaby-lake-gtx-1050/

SentinelBorg
2017-01-07, 20:04:21
Besteht eigentlich noch eine Chance auf eine 1030 oder 1040? Es ist nun 2017 und es gibt immer noch keine single-Slot Nvidia Karte mit HDMI 2.0. Ansonsten wird es halt die hier: http://geizhals.de/xfx-radeon-rx-460-core-rx-460p2tfg5-a1552183.html?hloc=at&hloc=de

scully1234
2017-01-07, 21:01:00
Es ist nun 2017 und es gibt immer noch keine single-Slot Nvidia Karte mit HDMI 2.0.

Singleslot oder Low Profile?

Fuer HTPCs gibt es bereits ne Loesung

https://www.notebooksbilliger.de/msi+geforce+gtx+1050+ti+4gt+lp/?nbb=pla.google_&wt_cc2=912-0001_Hardware_287703&gclid=Cj0KEQiAwMLDBRDCh_r9sMvQ_88BEiQA6zuAQ6w1kBaSsgKD-YA_jjGIObkLfL2KfWzYNkFXghtifggaAmnq8P8HAQ

SentinelBorg
2017-01-08, 00:30:07
Singleslot oder Low Profile?

Fuer HTPCs gibt es bereits ne Loesung

https://www.notebooksbilliger.de/msi+geforce+gtx+1050+ti+4gt+lp/?nbb=pla.google_&wt_cc2=912-0001_Hardware_287703&gclid=Cj0KEQiAwMLDBRDCh_r9sMvQ_88BEiQA6zuAQ6w1kBaSsgKD-YA_jjGIObkLfL2KfWzYNkFXghtifggaAmnq8P8HAQ
Ne, single-Slot. Die steckt bei mir in meinem Home-Server und neben Raid-Controller und TV-Karte ist da kein Platz für ne dual-Slot Kühlung.

AnarchX
2017-01-08, 11:17:01
Wenn dann richtig: http://www.anandtech.com/show/10926/galax-shows-off-single-slot-geforce-gtx-1070-graphics-card ;D

Da es von der RX 460 Single-Slot-Designs gibt, wird wohl auch die GTX 1050 da in der nahen Zukunft ähnliche Angebote bieten müssen.

GP108 wird wohl noch auf höhere 14nm Kapazitäten und gesunkene Waferpreise warten.

Loeschzwerg
2017-02-06, 07:08:44
Die Quadro P600 ist mit 384 Kernen, 128 Bit, 2 GByte GDDR5, 64 GByte die Sekunde und 40 Watt darunter angesiedelt. Unter ihr rangiert die Quadro P400 mit 256 Shader-Einheiten, 64 Bit, 2 GByte GDDR5, 32 GByte pro Sekunde und 30 Watt.

https://www.golem.de/news/quadro-gp100-nvidia-steckt-schnellsten-chip-in-eine-workstation-karte-1702-126003.html

Sind die Quadro P600 und P400 evtl. mit GP108 bestückt? Man wird doch den GP107 nicht so weit verstümmeln.

AnarchX
2017-02-06, 07:12:10
Laut Aida64 beides GP107GL.

Loeschzwerg
2017-02-06, 07:13:43
Schade :(

Leonidas
2017-02-06, 13:00:05
GP108 weiterhin nirgendwo verbaut, richtig?

Entweder Probleme oder eingestampft.

MadManniMan
2017-04-11, 21:24:55
GP108 kommt jetzt doch als 1030? (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-april-2017)

=Floi=
2017-04-11, 22:38:56
eine 1030er bräuchte vor allem mehr bandbreite.

ndrs
2017-04-11, 23:30:14
DDR4 wäre vielleicht schon ein Fortschritt

frankkl
2018-05-20, 00:47:37
DDR4 wäre vielleicht schon ein Fortschritt
Die Geforce GT 1030 mit DDR4 kommt jetzt doch !

Zum beispiel:

https://www.computerbase.de/2018-05/asus-geforce-gt-1030-ddr4/

frankkl

y33H@
2018-05-20, 01:01:45
Rückschritt von GDDR5 ...

Blediator16
2018-05-20, 04:05:23
https://www.youtube.com/watch?time_continue=113&v=-7yLkSE0k5A

Da sieht man auch den Vergleich.

deekey777
2018-05-23, 10:05:52
Vollausgebauter GP107 mit 3 GB und 96 bit SI: https://www.computerbase.de/2018-05/geforce-gtx-1050-3gb/

Ist sie dann für UHD wie Netflix geeignet? Oder waren es mindestens 4 GB?

Bucklew
2018-05-23, 10:14:02
Ist sie dann für UHD wie Netflix geeignet? Oder waren es mindestens 4 GB?
Für Netflix 4K reichen 3GB, also die perfekte HTPC Karte :up: