PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26

Thunder99
2016-04-13, 14:59:24
Kann man davon ausgehen, dass der Chip DX 12.1 voll unterstützt? Wobei ja ASync ja nicht sicher ist ob es da Verbesserungen gibt :confused:

iuno
2016-04-13, 15:05:56
Maxwell ist doch iirc schon auf FL 12_1?
Man kann dazu natuerlich noch nichts sicheres sagen. Ich denke aber, aber dass auf jeden Fall Verbesserungen ggue. Maxwell 2 zu erwarten sind.
Async hat mit dem FL nichts zu tun. Nvidia unterstuetzt treiberseitig schon bei Maxwell natuerlich die fuer DX12 benoetigten Queues. Wie das in Hardware ausgefuehrt wird, schreibt kein FL vor. Wenn Nvidia nicht gelogen hat und sich die Aenderungen von GP100 auf GP104 projizieren lassen, wurde immerhin die preemption verbessert. Das deutet fuer mich(!) darauf hin, dass man nicht auf AMD Niveau kommt. Durch bessere preemption sollte es aber wenigstens keine groesseren Probleme bei der Verwendung von AC mehr geben. Gleichzeitig gfx und compute queues ausfuehren koennen wird Pascal aber mMn.(!) nicht.

bananenmann
2016-04-13, 15:21:53
(Zitat von ShinyMcShine)
Ein voller (!) GP104-400 mit dieser Leistung zu dem Preis wäre (auch im Hinblick auf VR dieses Jahr) wohl fast sicher gekauft. Wenn es dann noch ein feines Kärtchen von ASUS (Strix) oder MSI (Gaming) gibt, wäre mir das ~680€ wert.


(Zitat von PHuV)
Naja, glaubst Du wirklich, es wird so billig?

So billig? Wenn ich bedenke, dass ursprünglich selbst bei der Umfrage hier die meisten sich ein 50%iges Performanceplus für GP104 auf die 980Ti gewünscht haben - und nun findet ihr 20% toll und wollt dafür gleich wieder 650 - 700 Euro blechen? Also ich bin durch und durch NVidia Fan aber trotzdem enttäuscht - einerseits von dem geringen Leistungszuwachs und zweitens vom wahrscheinlichen Preis.

Ich hatte gehofft, dass es 980ti Performance für ca. 400 Euro und die 50% mehr dann halt für 650 Euro geben wird - aber daraus wird wohl nix. Trotzdem wird Nvidia wieder massig Kohle scheffeln, weil ihr euch damit zufrieden gebt und AMD erstmal nicht kontern kann.

Schade, schade :(

Dann werde ich wohl den GP102 abwarten, wenn der denn mal kommt und dann auf nen Preisrutsch des GP104 Topmodells hoffen, so dass ich dann wenigstens für 500 Euro 980ti Performance +20% habe...

scully1234
2016-04-13, 15:26:38
Ich glaub nicht ,das hier schon einer die Leistungsentfaltung, noch die Preisgestaltung von GP104 genau kennt ,um hier enttäuscht oder gar gehypt zu sein.

Schrotti
2016-04-13, 16:05:39
Ein voller (!) GP104-400 mit dieser Leistung zu dem Preis wäre (auch im Hinblick auf VR dieses Jahr) wohl fast sicher gekauft. Wenn es dann noch ein feines Kärtchen von ASUS (Strix) oder MSI (Gaming) gibt, wäre mir das ~680€ wert.

Könnte ich damit entspannt in 4k zocken?

iuno
2016-04-13, 16:08:18
Das kommt darauf an.

Hübie
2016-04-13, 16:16:13
Könnte ich damit entspannt in 4k zocken?

Ohne Kompromiss? Nein. Da musst du noch warten.

ShinyMcShine
2016-04-13, 16:34:21
Ich glaub nicht ,das hier schon einer die Leistungsentfaltung, noch die Preisgestaltung von GP104 genau kennt ,um hier enttäuscht oder gar gehypt zu sein.

Korrekt! Außerdem upgrade ich nicht von einer Highend-Karte der 900er-Serie sondern von einer GTX 770 aus! :smile:

Schrotti
2016-04-13, 16:45:01
Ohne Kompromiss? Nein. Da musst du noch warten.

Gut dann warte ich. Extra 1200€ zur Seite gelegt.

bananenmann
2016-04-13, 17:18:43
Korrekt! Außerdem upgrade ich nicht von einer Highend-Karte der 900er-Serie sondern von einer GTX 770 aus! :smile:

Ich sogar von einer GTX 660!!! :) ... Hab extra Maxwell ausgesessen, weil ich alle Hoffnungen auf Pascal gestzt habe - und nun schwärmt ihr alle so von Volta. So lange kann ich nicht mehr warten :(

Ich hoffe ja auch, dass ich mich irre, aber die vielen Leaks gehen schon in die erwähnte Richtung was das Leistungsvermögen der kommenden GP104-Karten angeht. Und wir alle kennen Nvidias Preispolitik. Da wirds keine "Schnäppchen geben. Ähnlich wie bei Intel: Der Broadwell-E 10-Kerner wird da preislich nicht das alte 8-Kerne-Topmodell ersetzen, sondern es werden 500 Euro draufgepackt und der neue 8 Kerner mit n paar wenigen Prozent mehr IPC erstzt dann 1:1 den alten 8 Kerner...

Hübie
2016-04-13, 17:50:12
Die 660 ist doch sogar eine 6er GPU. Da hast das Portemonnaie aber nicht weit geöffnet. :freak: Ich wollte Maxwell auch aussitzen, aber irgendwie hat das nicht geklappt. :D

bananenmann
2016-04-13, 18:22:14
Ja, ich habe ewig lange mit dem Aufrüsten gewartet. Von nem I5-750 mit GTX 660 wollte ich dann ca. 1000 - 1500 Euro maximal für Mainboard, DDR4-Speicher, CPU und Graphikkarte ausgeben und dann auf Jahre meine Ruhe haben. Ich will auch eigentlich nur auf meinem Full-HD Fernseher gamen - möchte aber, dass die Graphikkarte wenigstens gut genug für 4K ist (wegen Downsampling) - und das ist die 980ti NICHT, sonst hätte ich mir die schon geholt.

Doch dann kam die Skylake Enttäuschung (Leistungsmäßig), jetzt die Broadwell-E Enttäuschung (preislich gesehen) - und ich hoffe nicht noch ne Enttäuschung mit Pascal (Leistung und Preis).

Jetzt habe ich umgedacht und gebraucht nen I5-3750 samt Board geholt. Der muss mich jetzt bis Skylake-E oder Cannonlake (wenns denn 6-8 Kerner davon geben sollte) retten. Aber um Himmelswillen: Bei der Graphikkarte kann ich wirklich nicht mehr bis 2018 (Volta) warten :D

Aber genug OT

BiZiNiZz
2016-04-13, 18:22:31
Ich verstehe dieses zwanghafte Upgrade von Generation zu Generation bei euch nicht mehr. Das Leute von der 6xxer oder 7xxer Reihe aufrüsten verstehe ich, aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Ich selbst werde dieses Jahr von meiner 580 aufrüsten, hatte bis jetzt kein Problem damit auch aktuelle Spiele zu spielen (klar Ausnahmen gibt es und es sieht nicht so hübsch aus) aber nennt mir einen vernünftigen Grund das Geld so rauszuwerfen

ShinyMcShine
2016-04-13, 18:31:00
Ich verstehe dieses zwanghafte Upgrade von Generation zu Generation bei euch nicht mehr. Das Leute von der 6xxer oder 7xxer Reihe aufrüsten verstehe ich, aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Ich selbst werde dieses Jahr von meiner 580 aufrüsten, hatte bis jetzt kein Problem damit auch aktuelle Spiele zu spielen (klar Ausnahmen gibt es und es sieht nicht so hübsch aus) aber nennt mir einen vernünftigen Grund das Geld so rauszuwerfen

Die meisten, die jedes Jahr wechseln, stoßen doch ihre ein-Jahr-alten Grafikkarten vorher für 'nen guten Preis ab und zahlen dann die Differenz. Das ist dann bei weitem nicht so, als ob man jedes Jahr (OK, jede neue Generation) den vollen Neupreis ausgibt! Ich selbst behalte meine Grafikkarten meist so für ca. 3 Jahre und komme damit meist immer gut aus, und es reicht auch, um mindestens immer eine Generation zu überspringen (... 8800 GTS 512 -> GTX 560 Ti -> GTX 770 -> GTX 1080).

MiamiNice
2016-04-13, 18:31:30
Ich verstehe dieses zwanghafte Upgrade von Generation zu Generation bei euch nicht mehr. Das Leute von der 6xxer oder 7xxer Reihe aufrüsten verstehe ich, aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Ich selbst werde dieses Jahr von meiner 580 aufrüsten, hatte bis jetzt kein Problem damit auch aktuelle Spiele zu spielen (klar Ausnahmen gibt es und es sieht nicht so hübsch aus) aber nennt mir einen vernünftigen Grund das Geld so rauszuwerfen

Ist Dir klar in welcher Art Forum Du hier unterwegs bist?

BiZiNiZz
2016-04-13, 18:35:38
Ist Dir klar in welcher Art Forum Du hier unterwegs bist?

Ja, dass ist mir durchaus klar in was für einem Forum ich hier unterwegs bin. Das ist also dein Argument? ;)

Die meisten, die jedes Jahr wechseln, stoßen doch ihre ein-Jahr-alten Grafikkarten vorher für 'nen guten Preis ab und zahlen dann die Differenz. Das ist dann bei weitem nicht so, als ob man jedes Jahr (OK, jede neue Generation) den vollen Neupreis ausgibt! Ich selbst behalte meine Grafikkarten meist so für ca. 3 Jahre und komme damit meist immer gut aus, und es reicht auch, um mindestens immer eine Generation zu überspringen (... 8800 GTS 512 -> GTX 560 Ti -> GTX 770 -> GTX 1080).

Mit der Argumentation kann ich leben. :)

MiamiNice
2016-04-13, 18:39:25
Ja, dass ist mir durchaus klar in was für einem Forum ich hier unterwegs bin. Das ist also dein Argument? ;)

Nein, das ist sicher nicht das Argument. Das Argument ist das das Publikum im 3DC schon sehr nerdy ist. Du erhoffst Dir doch auch keinen Erfolg wenn Du einem Drogenjunk ins Gewissen redest :biggrin:

BiZiNiZz
2016-04-13, 18:44:51
Nein, das ist sicher nicht das Argument. Das Argument ist das das Publikum im 3DC schon sehr nerdy ist. Du erhoffst Dir doch auch keinen Erfolg wenn Du einem Drogenjunk ins Gewissen redest :biggrin:

Interessanter Vergleich :D

aber Back2Topic! Kann es kaum abwarten bis endlich handfeste und auch bestätigte Details der neuen Generation auftauchen. Meine alte Grafikkarte verabschiedet sich langsam Richtung Sterbebett.... :(

Thunder99
2016-04-13, 18:48:01
Willkommen bei den quasi Monopolisten...

Bei nur +20% kann man quasi auch nicht von einer 4k Karte reden. Da braucht es wohl echt den Big Chip

BlacKi
2016-04-13, 18:52:33
weil mir die performancesprünge reichten. deshalb bin ich zwar nicht direkt von der 670 zur 970, aber es sind nicht selten 50-80% mehr fps. von einer 780 auf die 970 hätte ich nicht gewechselt, aber selbst da sind die sprünge schon beachtlich. die differenz ist zahlt man letztendlich immer. manchmal juckt es aber einen einfach.

Hübie
2016-04-13, 18:52:37
Ich verstehe dieses zwanghafte Upgrade von Generation zu Generation bei euch nicht mehr. Das Leute von der 6xxer oder 7xxer Reihe aufrüsten verstehe ich, aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Ich selbst werde dieses Jahr von meiner 580 aufrüsten, hatte bis jetzt kein Problem damit auch aktuelle Spiele zu spielen (klar Ausnahmen gibt es und es sieht nicht so hübsch aus) aber nennt mir einen vernünftigen Grund das Geld so rauszuwerfen

Wiiiiie? Wiiiiie bitte soll man Unvernunft mit einem vernünftigen Grund darlegen? Ich kann es dir nicht sagen, aber es ist bei mir so etwas wie damals bei Frauen. Ich sehe eine die mir gut gefällt und will sie haben. Rational kann ich es nicht erklären. Mein Plan ist aber mit der 980 Ti bis Ende meines Studiums, 03/2018, zu lieben und zu leben. :D
Problem ist, dass in meinem Leben selten ein Plan funktioniert. Allein schon die Unfähigkeit der Lady mit 4k umgehen zu können reizt mich etwas.
Aber big Pascal wird dann, zu Release, für mich wohl out of range sein.

Dural
2016-04-13, 19:00:55
interessant das alle schon von 20-30% über einer 980Ti für den GP104 ausgehen.

Bin ich wirklich der einziger der dies doch recht hoch erscheint? :rolleyes:

igg
2016-04-13, 19:20:28
Ich finde das auch zu hoch geschätzt...

y33H@
2016-04-13, 19:21:44
Die GTX 980 (stock) lag beim Release rund +10 % vor der GTX 780 Ti (stock) und heute etwa +20 %. Nur als Erinnerung.

Dural
2016-04-13, 19:25:49
also ich gehe auch von 10% aus, aber schon das ist viel!
den GM200 ist 600mm2 schwer und GP104 wird auf rund 300mm2 geschätzt.

generell ist pascal wohl etwas "fetter" dafür aber effizienter, aber wunder würde ich nicht erwarten.

scully1234
2016-04-13, 19:28:23
y33H@

Da lag aber auch kein Shrink und FinFET als Mittel zum Zweck dazwischen, sondern nur der lupenreine Architekturumbau.

10% waeren schon etwas enttaeuschend ,fuer den ganzen ''Fertigungsaufwand'':smile:

Nightspider
2016-04-13, 19:55:11
aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Fragen wir mal anders herum: Wieso bist du der Meinung, dass das Geld zum Fenster rausgeworfen ist?
Spielst du zu wenig so das der Nutzen bei dir beschränkt ist?
Ist der Aufpreis für dich finanziell schwer zu stämmen?

Die meisten hier spielen gerne und aller 1,5-2 Jahre läppische 200-400 Euro draufzuzahlen ist auf den Monat gerechnet ein Witz im Vergleich zu dem was manche Leute für ihre Hobbies, Zigaretten oder Alkohol ausgeben.
Imo ist das Hardware-Hobby sogar noch ein recht günstiges Hobby.

Da lag aber auch kein Shrink und FinFET als Mittel zum Zweck dazwischen, sondern nur der lupenreine Architekturumbau.

10% waeren schon etwas enttaeuschend ,fuer den ganzen ''Fertigungsaufwand'':smile:

This!

Der riesige Sprung in der Fertigung und dann nur max.10%? Niemals.

phoenix887
2016-04-13, 20:05:08
Wiiiiie? Wiiiiie bitte soll man Unvernunft mit einem vernünftigen Grund darlegen? Ich kann es dir nicht sagen, aber es ist bei mir so etwas wie damals bei Frauen. Ich sehe eine die mir gut gefällt und will sie haben. Rational kann ich es nicht erklären. Mein Plan ist aber mit der 980 Ti bis Ende meines Studiums, 03/2018, zu lieben und zu leben. :D
Problem ist, dass in meinem Leben selten ein Plan funktioniert. Allein schon die Unfähigkeit der Lady mit 4k umgehen zu können reizt mich etwas.
Aber big Pascal wird dann, zu Release, für mich wohl out of range sein.

Schön geschrieben. Rational kann man das nicht erklären, bin auch scharf auf ne Kollegin, da sprechen aber mehrere Gründe dagegen. Aber ich kann sie auch nicht aus meinem Handy löschen, leiden macht Spass;D

Hatte neulich, die Leiterin der Supervision zu mir gesagt, Herr phoenix887, Ihnen macht das Leiden Spass. Das hat mir die Augen geöffnet.;)

Genug abgeschweift.....

Palpatin
2016-04-13, 20:10:05
Die GTX 980 (stock) lag beim Release rund +10 % vor der GTX 780 Ti (stock) und heute etwa +20 %. Nur als Erinnerung.
Das stimmt allerdings hat die 980ti deutlich mehr OC Spielraum als die 780ti. Nach der Präsentation des P100 sieht es imo so aus also ob NV dieses mal den Takt nicht so konservativ wählt. Dazu passt eben auch das man wohl wieder mal mit 3 Versionen eines Chips an den Start geht plus ein neuer Prozess.
Könnten schon 30% auf die Stock 980ti drinnen sein. Damit wäre man aber immer noch langsamer als eine 980ti @ 1,5GHZ.
Ich rechne nicht mit +30% und dem selben OC Potential.

y33H@
2016-04-13, 20:10:44
Da lag aber auch kein Shrink und FinFET als Mittel zum Zweck dazwischen, sondern nur der lupenreine Architekturumbau. 10 % wären schon etwas enttäuschend für den ganzen 'Fertigungsaufwand''.Am Ende geht's um Kohle und ich behaupte, 16FF+ wird uns locker zwei Jahre begleiten.

iuno
2016-04-13, 20:12:17
This!

Der riesige Sprung in der Fertigung und dann nur max.10%? Niemals.
Bleibt doch mal Locker, in Wahrheit koennt ihr froh sein ;D Wenn man reines Tick-Tock und die Effizienzschiene faehrt ist pro shrink noch weniger drin.

bei den genannten ~10% geht es um den Sprung vom 0er zum 4er, das ist schon klar oder?

y33H@

Da lag aber auch kein Shrink und FinFET als Mittel zum Zweck dazwischen, sondern nur der lupenreine Architekturumbau.

10% waeren schon etwas enttaeuschend ,fuer den ganzen ''Fertigungsaufwand'':smile:

Das war ja wohl darauf bezogen, und da muss ich ihm klar zustimmen:

von einer 780 auf die 970 hätte ich nicht gewechselt, aber selbst da sind die sprünge schon beachtlich.

Thunder99
2016-04-13, 20:22:05
Das stimmt allerdings hat die 980ti deutlich mehr OC Spielraum als die 780ti. Nach der Präsentation des P100 sieht es imo so aus also ob NV dieses mal den Takt nicht so konservativ wählt. Dazu passt eben auch das man wohl wieder mal mit 3 Versionen eines Chips an den Start geht plus ein neuer Prozess.
Könnten schon 30% auf die Stock 980ti drinnen sein. Damit wäre man aber immer noch langsamer als eine 980ti @ 1,5GHZ.
Ich rechne nicht mit +30% und dem selben OC Potential.
Wird nur egalisiert wenn man den GP104 ebenso hoch züchten kann ;)

Ob man Pascal ebenso beachtlich übertakten kann wie Maxwell muss sich zeigen. Wenn ja, happy OC :freak:

fondness
2016-04-13, 20:26:47
Am Ende geht's um Kohle und ich behaupte, 16FF+ wird uns locker zwei Jahre begleiten.

Ich erhöhe auf drei.

Ailuros
2016-04-13, 20:39:05
interessant das alle schon von 20-30% über einer 980Ti für den GP104 ausgehen.

Bin ich wirklich der einziger der dies doch recht hoch erscheint? :rolleyes:

Unmoeglich ist ueberhaupt nichts; es haengt davon ab wo sie den Strich fuer den maximalen Stromverbrauch ziehen werden. Sonst war die GTX680 beim ihrem launch um 25% schneller als eine GTX580 bei =/>1080p. Muss zwar nichts heissen, aber "recht hoch" ist eher relativ zum eigentlichen Ziel von NVIDIA und nicht der Einsamkeit Deines Bauchgefuehls.

also ich gehe auch von 10% aus, aber schon das ist viel!
den GM200 ist 600mm2 schwer und GP104 wird auf rund 300mm2 geschätzt.

generell ist pascal wohl etwas "fetter" dafür aber effizienter, aber wunder würde ich nicht erwarten.

Theoretische 300mm2@16FF+ bei etwas niedriger Packdichte als beim P100 bei 25Mio/mm2 entsprechen 7.5 Milliarden Transistoren. GM200 ist bei 8.1 Mrd. mit einem 384bit bus und zich mehr ROPs und Pascal kommt auch nicht nur mit 0% Effizienz-Zusatz im Vergleich zu Maxwell und NV wird auch garantiert nicht mit so moderaten Frequenzen wie bei der 980 bzw. 980Ti ankommen......und Moment das Baby hat gerade die Windeln vollgeschissen..... :D

Schrotti
2016-04-13, 20:49:13
Ich verstehe dieses zwanghafte Upgrade von Generation zu Generation bei euch nicht mehr. Das Leute von der 6xxer oder 7xxer Reihe aufrüsten verstehe ich, aber wieso werft ihr euer Geld raus und rüstet von der 9xxer auf die 10xxer auf?

Meine beiden 980er haben mich fast 2 Jahre begleitet. Gekostet haben die beiden 1024€ und beim Verkauf neulich kamen 851€ in die Kasse.
Also habe ich effektiv nur ~170€ für die fast 2 Jahre bezahlt, konnte meinen 4K Bildschirm aber in den meisten Fällen (wenn SLI unterstützt wurde) effektiv nutzen.
Hätte ich das mit einer 170€ Karte aus dem Jahr 2014 auch geschafft?

MiamiNice
2016-04-13, 21:07:42
Ich würde mir wünschen das NV bei den Big Chips mal sprichwörtlich auf das Power Target schei... Soll die Graka doch 400 oder 500 Watt verbraten, die Länge der Balken zählt im High End. Alles andere -> wayne?

iuno
2016-04-13, 21:25:40
Not gonna happen
OC halt, bekommst das Teil mit Glück schon auf 400 Watt ;D

MiamiNice
2016-04-13, 21:30:32
Na klar, Mod BIOS etc. pp. Aber wo steht das eine Grafikkarte nur 200-250 Watt at Stock verbrauchen sollte/darf? Von mir aus auch gerne 600 Watt, so lange der Balken durch die Ecke echt.

Thunder99
2016-04-13, 21:36:28
Kühlung bei Luft :wink:. Nicht jeder steht auf AIO bzw Wakü

Godmode
2016-04-13, 21:39:28
interessant das alle schon von 20-30% über einer 980Ti für den GP104 ausgehen.

Bin ich wirklich der einziger der dies doch recht hoch erscheint? :rolleyes:

Wenn sie 20-30% über der 980Ti liegen, würden sie wohl wieder einige 980Ti/TX Käufer zum Aufrüsten bewegen. Bei nur 10%+ warten die meisten dann doch lieber auf den richtigen GM200 Nachfolger. Im Prinzip wollen sie Karten verkaufen die a.) schnell genug sind, damit die Leute aufrüsten aber b.) nicht zu schnell sind, damit die Leute die Karten nicht übermäßig lange behalten können. Die 970/980/Fury sind hier ein gutes Beispiel: Die Karten wären prinzipiell schnell genug, aber der beschränkte VRAM zwingt dann doch wieder zum Aufrüsten.

G3cko
2016-04-13, 21:57:38
Meine beiden 980er haben mich fast 2 Jahre begleitet. Gekostet haben die beiden 1024€ und beim Verkauf neulich kamen 851€ in die Kasse.
Also habe ich effektiv nur ~170€ für die fast 2 Jahre bezahlt, konnte meinen 4K Bildschirm aber in den meisten Fällen (wenn SLI unterstützt wurde) effektiv nutzen.
Hätte ich das mit einer 170€ Karte aus dem Jahr 2014 auch geschafft?

Das liegt aber eben hauptsächlich an dem USD Kurs und an den nichtahnenden gebraucht Käufern. Wenn man bei Nvidia jede Generation wechselt alles gut, aber ansonsten... Frag mal Titan1 Besitzer nach ihrer Performance und was sie so von der GTX960 halten. ;)

BlacKi
2016-04-13, 22:06:07
also ich gehe auch von 10% aus, aber schon das ist viel!
den GM200 ist 600mm2 schwer und GP104 wird auf rund 300mm2 geschätzt.

generell ist pascal wohl etwas "fetter" dafür aber effizienter, aber wunder würde ich nicht erwarten.
gp100 hat nen boost von 1480mhz. allein vom takt her werden es wohl 20%, dann kommen noch durch andere verbesserungen 10% hinzu.

die 980 gewinnt die 10-20% hauptsächlich durch den höheren takt.

Das liegt aber eben hauptsächlich an dem USD Kurs und an den nichtahnenden gebraucht Käufern.
genau, schönrechnen kann jeder^^ die karten sind sozusagen 250€ mehr wert geworden, zsm mit den 170 sind es schon über 400, ein realistischer wert, aber für ein sli system vertretbar.

Godmode
2016-04-13, 22:08:49
Das liegt aber eben hauptsächlich an dem USD Kurs und an den nichtahnenden gebraucht Käufern. Wenn man bei Nvidia jede Generation wechselt alles gut, aber ansonsten... Frag mal Titan1 Besitzer nach ihrer Performance und was sie so von der GTX960 halten. ;)


Meine Aufrüsterei ging in etwa so: 2x690->4xTitan->2x980->2xTitan X. Die Verluste beim Aufrüsten langen wohl immer bei ca. 30% und das war es mir allemal Wert. Mal sehen was GP104 bietet, aber gegen stark übertaktete GM200 wird er es schwer haben, IMHO. Wenn es etwas gibt, das 40% auf meine 1,5 GHz Titan X drauflegt, bin ich bereit wieder was neues zu kaufen. Rein wegen weniger Stromverbrauch rüste ich dieses mal nicht auf.

gp100 hat nen boost von 1480mhz. allein vom takt her werden es wohl 20%, dann kommen noch durch andere verbesserungen 10% hinzu.

die 980 gewinnt die 10-20% hauptsächlich durch den höheren takt.

Ein 3000 SPs GP104 wäre eine sehr schöne Lösung. Mit 1,5 GHz wäre man auf 1,5 GHz GM200 Niveau, nur das GP104 noch nicht übertaktet ist und eventuelle Pascal Verbesserungen noch nicht eingerechnet sind. Falls Pascal wieder so gut zum übertakten geht wie Maxwell, wären dann wohl 1,8 GHz drinnen, und da kommt dann kein GM200 mehr nach. Fraglich ob es wirklich 3000 SPs werden, oder doch eher weniger. Bisher haben wir ja das Wachstum der SPs bei jeder Generation als viel zu hoch eingeschätzt, siehe GP100.

G3cko
2016-04-13, 22:24:58
Meine Aufrüsterei ging in etwa so: 2x690->4xTitan->2x980->2xTitan X.

Wenn man sonst keine Hobbys hat... ;)

Christopher_Blair
2016-04-13, 22:34:34
Hallo,

habe seit längeren nicht mehr in diesen Thread geschaut.

Das letzte mal vor 2-3 Monaten ging man aber doch noch davon aus dass Pascal HBM Speicher haben wird?
Wird man überhaupt dieses Jahr noch Pascal mit hbm Speicher sehen, evtl. in der Form einer Titan XXX?

Hübie
2016-04-13, 22:40:06
Hobbies :P Godmode ist glaub ich einer unserer Rekordhalter was Grafikkartenlaufbahn angeht. :D

@Christopher_Blair: HBM gab es schon vor ~1 Woche zu sehen. :D GP100.

scully1234
2016-04-13, 22:58:20
Hobbies :P Godmode ist glaub ich einer unserer Rekordhalter was Grafikkartenlaufbahn angeht. :D


Gibt da noch mehr Wahnsinnige ,er ist da nicht vollends alleine befuerchte ich=)

Mal sehen welche Exzesse dieser Pascal Chip wieder treiben wird im Geldbeutel

Leonidas
2016-04-14, 04:41:58
Zur GDDR5X Verfügbarkeit aus dem B3D geklaut:

http://seekingalpha.com/article/3958520-micron-technologys-mu-ceo-mark-durcan-q2-2016-results-earnings-call-transcript?part=single


Falls noch nicht erwähnt: Das "laufende Finanzquartal" geht bei Micron schon Anfang Juni zu Ende!

Ailuros
2016-04-14, 06:21:21
Hallo,

habe seit längeren nicht mehr in diesen Thread geschaut.

Das letzte mal vor 2-3 Monaten ging man aber doch noch davon aus dass Pascal HBM Speicher haben wird?
Wird man überhaupt dieses Jahr noch Pascal mit hbm Speicher sehen, evtl. in der Form einer Titan XXX?

https://devblogs.nvidia.com/parallelforall/inside-pascal/

Ich tippe nein zur letzten Frage.

iuno
2016-04-14, 07:55:24
Falls noch nicht erwähnt: Das "laufende Finanzquartal" geht bei Micron schon Anfang Juni zu Ende!
*Fiskal- ;p
Wo hast du das her?
Die letzten Jahre endete Q2 immer Ende Maerz/Anfang April (so wie jetzt auch) und Q3 Ende Juni: http://investors.micron.com/results.cfm

BigKid
2016-04-14, 08:15:12
Helft mir mal aus... Ich hab grad nen Knoten im Hirn...
Wenn die Energieeffizienz gesteigert wird - verkleinert das dann den Abstand zwischen Desktop und Laptop - oder bleibt der gleich?
Meine Überlegung war bisher einfach: In Laptops limitiert der Verbrauch und die Hitze deutlich mehr als in Desktops -> Annäherung. Den Eindruck hatte ich seit der gtx570m. Ausserdem waren die letzten Laptop Karten irgendwie kleine Übertaktungswunder (mit Mod Bios).
Aber ist das so? Oder werden die Desktop Karten auch soviel besser dass sie ihren Abstand einfach nur halten?
PS: Ich spreche von gtx x70 und x80 (ohne TI) mit m gegen ohne m - dass an die Enthusiast Karten die Laptops bis auf Ausnahme-Monster noch lange nicht rann kommen (wenn überhaupt) glaube ich schon...

iuno
2016-04-14, 08:24:22
Der Abstand wird nur scheinbar kleiner, weil die schnellsten Desktop Karten natuerlich auch dementsprechend schneller werden in ihren jeweiligen Leistungsstufen bis hin zu 300 Watt.

Bei Maxwell war es schon neu, dass die 970M und 980M relativ Nahe an ihren Desktop Pendants lagen. Da hat sich aber einfach das Namensschema geaendert. 980M und 980 haben beide den GM204 (die spaetere mobile 980 ohne M sogar im Vollausbau) waehrend die 780M GK104 und die 780 den GK110 nutzten (bei der 500er Serie genauso).
Darueber hinaus durften im Laufe der Zeit Laptop Chips auch einfach immer mehr verbrauchen. MXM Module waren anfangs iirc bis max. 75 Watt spezifiziert, die mobile 980 (>980M) verbraucht schon sehr deutlich ueber 100 Watt.

Leonidas
2016-04-14, 09:04:19
*Fiskal- ;p
Wo hast du das her?
Die letzten Jahre endete Q2 immer Ende Maerz/Anfang April (so wie jetzt auch) und Q3 Ende Juni: http://investors.micron.com/results.cfm


Really?


Micron Technology, Inc., (Nasdaq:MU) today announced results of
operations for its third quarter of fiscal 2015, which ended June 4, 2015.
http://investors.micron.com/common/download/download.cfm?companyid=ABEA-45YXOQ&fileid=836926&filekey=6C2ED60D-AEB2-487E-AD51-4B0D34CC164B&filename=MU_News_2015_6_25_Corporate_News.pdf



Bin ja nur drauf gekommen, weil das letzte Fiskalquartal schon am 3. März 2016 endete:
http://investors.micron.com/releasedetail.cfm?ReleaseID=962782

iuno
2016-04-14, 09:16:34
oops :facepalm: :lol:
Sorry, da war ich wieder schlampig :redface: Nur aufs Veroeffentlichsdatum geschaut...

Skysnake
2016-04-14, 10:09:22
Um mal die 130k $ für das Pascal DevKit in Relationen zu setzen:

2U Server mit 4x KNL für $19,703.14 und das zusammen mit einer 1 Jahresversion von Intel Parallel Studio XE Professional Edition, die allein schon mehr als 1.000$ kostet. (http://www.hpcwire.com/2016/04/12/intel-debuts-knights-landing-developer-platform/)

Die Desktop-Kiste gibt es sogar schon für $4,982.88, ebenfalls mit einer Jahreslizenz für die Intel Parallel Studio XE Professional Edition.

Das heist also, das ich 26 KNLs für den gleichen Preis bekomme, den ich für 8 P100 und 2 Power8(+) hinlegen muss.

Na ob das ein guter Deal ist.

BigKid
2016-04-14, 10:23:34
Der Abstand wird nur scheinbar kleiner, weil die schnellsten Desktop Karten natuerlich auch dementsprechend schneller werden in ihren jeweiligen Leistungsstufen bis hin zu 300 Watt.

Bei Maxwell war es schon neu, dass die 970M und 980M relativ Nahe an ihren Desktop Pendants lagen. Da hat sich aber einfach das Namensschema geaendert. 980M und 980 haben beide den GM204 (die spaetere mobile 980 ohne M sogar im Vollausbau) waehrend die 780M GK104 und die 780 den GK110 nutzten (bei der 500er Serie genauso).
Darueber hinaus durften im Laufe der Zeit Laptop Chips auch einfach immer mehr verbrauchen. MXM Module waren anfangs iirc bis max. 75 Watt spezifiziert, die mobile 980 (>980M) verbraucht schon sehr deutlich ueber 100 Watt.

Ok... Die immer größere erlaubte TDP ist sicher auch ein Teil... Die ist glaube ich schon mit der GTX580M auf 100 Watt und spätestens mit der 780M auf 120 Watt gesprungen...

Dass die GTX980M den selben Chip wie die GTX980 enthält war mir gar nicht bewusst - erklärt aber auch warum sie teilweise an die GTX970 rannkommt...
Die Verwendung des "großen" Chips für Laptops (TI und Titan mal aussen vor) ist also eine weitere Komponente warum der Abstand kleiner wurde...

Bedeutet nun aber was für Pascal :o)
Mehr Leistung wirds sicher... Aber der Abstand zwischen GTX1080 und 1080M aber nun kleiner oder größer wird als aktuell mit der 980 hängt dann davon ab ob sie:
- sich bei der GTX1080 absichtlich zurückhalten (mehr Leistung aber auch weniger Verbrauch)
- oder an die Grenzen des Chips gehen und damit eine erhöhte oder zumindest gleiche TDP in Kauf nehmen...

Wenn die GTX1080 Desktop also weniger verbraucht als die GTX980 dann gibt es Chancen, dass der Abstand wieder kleiner werden könnte.
Sehe ich das richtig ?

Hübie
2016-04-14, 10:31:06
Ja. Dann konfiguriere dir mal so eine Kiste und schau auf die Endsumme. ;) "Signup & Preorder". Und ein Jahr ist schnell vorbei. Dann darfste die 1000 $ noch mal drauf packen, da mach dir nix vor. Die wirst du brauchen. Intel schenkt dir auch nix.

Skysnake
2016-04-14, 10:37:05
Nö schenken tun die einem nichts, aber Sie könnten die Lizenz auch ganz weg lassen.

Und ich hab mir die Konfigs angeschaut. 4x96GB 2133 DDR4, 4 KNL, 240GB SSD und ne 4TB HDD. Keine Ahnung, was du jetzt damit sagen wolltest. Ist doch alles drin, und jetzt auch nicht wirklich schmalspur. :confused:

Hübie
2016-04-14, 10:49:05
Die 4x96 GB und Storage muss ich überlesen haben ;)

BlacKi
2016-04-14, 11:02:13
Helft mir mal aus... Ich hab grad nen Knoten im Hirn...
Wenn die Energieeffizienz gesteigert wird - verkleinert das dann den Abstand zwischen Desktop und Laptop - oder bleibt der gleich?
Meine Überlegung war bisher einfach: In Laptops limitiert der Verbrauch und die Hitze deutlich mehr als in Desktops -> Annäherung. Den Eindruck hatte ich seit der gtx570m. Ausserdem waren die letzten Laptop Karten irgendwie kleine Übertaktungswunder (mit Mod Bios).
Aber ist das so? Oder werden die Desktop Karten auch soviel besser dass sie ihren Abstand einfach nur halten?
PS: Ich spreche von gtx x70 und x80 (ohne TI) mit m gegen ohne m - dass an die Enthusiast Karten die Laptops bis auf Ausnahme-Monster noch lange nicht rann kommen (wenn überhaupt) glaube ich schon...

er wird wohl gleich bleiben bei gleichen chips, denn auch im desktop bereich wird die leistung durch den verbrauch geregelt. wäre die tdp offen und man könnte größere chips bauen als 600mm² dann würde der desktop dem mobilen sektor die hufe zeigen. der mobile sektor ist mehr auf effizienz getrimmt, aber ohne tdp limit hat der mobile bereich mehr reserven. umgekehrt könnte man aber auch sagen das der mobile bereich aka gaming laptops aka desktop replacements ihre kühlungen verbessert haben und dem desktop etwas näher rückten.

das hat also alles nichts mit der architektur/fertigungstechnologie zu tun sondern die umstände unter denen der chip arbeiten muss.

Mandalore
2016-04-14, 11:06:21
Hmm was denkt ihr, soll ich meine GTX 970 Strix bis Mitte Mai bzw. Ende Mai verkaufen?

Dural
2016-04-14, 12:37:55
Hmm was denkt ihr, soll ich meine GTX 970 Strix bis Mitte Mai bzw. Ende Mai verkaufen?


Wenn du einige wochen ohne leben kannst dann klar!
Wir haben auf den arbeitsplätzen 980 drin, werde die ziemlich sicher auch bald verkaufen.

Nakai
2016-04-14, 14:19:59
Um mal die 130k $ für das Pascal DevKit in Relationen zu setzen:

2U Server mit 4x KNL für $19,703.14 und das zusammen mit einer 1 Jahresversion von Intel Parallel Studio XE Professional Edition, die allein schon mehr als 1.000$ kostet. (http://www.hpcwire.com/2016/04/12/intel-debuts-knights-landing-developer-platform/)

Die Desktop-Kiste gibt es sogar schon für $4,982.88, ebenfalls mit einer Jahreslizenz für die Intel Parallel Studio XE Professional Edition.

Das heist also, das ich 26 KNLs für den gleichen Preis bekomme, den ich für 8 P100 und 2 Power8(+) hinlegen muss.

Na ob das ein guter Deal ist.

GP100 ist ein Deep Learning Beschleuniger. Die Kosten sind angemessen, wenn man bedenkt, wie NV versucht ihre Software-Landschaft darauf aufzubauen. Dass es trotzdem teuer ist, sollte klar sein. Recht viel mehr als ein Paperlaunch ist es natürlich nicht, dennoch reiben sich ausgewählte Partner jetzt schon die Hände.^^

Es existiert wenig Vergleichbarkeit mit normalen HPC-Server-Systemen.

scully1234
2016-04-14, 17:43:59
WCCF Tech

Spricht nun auch davon, das Mitte Mai erste Review online gehen sollen, noch vor der eigentlichen Computex.

Based Geforce Lineup At Editors’ Event – Reviews Expected to Go Live By Mid-May

Ob das auch auf unserem tschechischen Nachbarn fusst

Palpatin
2016-04-15, 08:18:49
Hmm was denkt ihr, soll ich meine GTX 970 Strix bis Mitte Mai bzw. Ende Mai verkaufen?
Könnt schon bissel spät sein, wenn man sieht wie grad die Preise purzeln. :rolleyes:

Liquaron
2016-04-15, 08:43:17
Ich kann auf meine GTX 970 leider noch nicht verzichten wenn bis Ende des Monats meine Vive kommen sollte. Danach werde ich aber mit Sicherheit auf Pascal umsteigen. Hoffe nur die Karten sind auch klein genug für mein M-ITX ;)

scully1234
2016-04-17, 16:26:20
Also irgend was scheint dran zu sein am Abverkauf der 980ti

Schaut man sich auf Geizhals bei den Referenzmodellen der grossen Partner wie EVGA,Gigabyte und Msi um,so gibt es derzeit sage und schreibe noch 1 Haendler ,der das Modell lagernd hat

http://geizhals.de/evga-geforce-gtx-980-ti-06g-p4-4990-kr-a1275031.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l

http://geizhals.de/gigabyte-geforce-gtx-980-ti-gv-n98td5-6gd-b-a1274774.html?hloc=at&hloc=de

http://geizhals.de/msi-geforce-gtx-980-ti-6gd5-v801-1283r-a1274978.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l

Und auch bei Asus sieht es aus wie leergefegt mit 3 Shops

http://geizhals.de/asus-geforce-gtx-980-ti-90yv08m0-u0nm00-a1272927.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l

BlacKi
2016-04-17, 16:38:14
Hoffe nur die Karten sind auch klein genug für mein M-ITX ;)
ich hoffe ebenfalls auf eine itx version der 1070, ich gehe nicht davon aus das man die 1080 als itx version bekommen wird, auch wenn es machbar wäre.

Thunderburne
2016-04-17, 18:08:21
Meine 980Ti ist nun unter den Hammer gekommen für 580 mit Wasserkühler.
Hatte die ganze Zeit gehadert ne zweite zu kaufen aber ich lief hier und da schon ins Vram Limit in 4K.
Mit 8GB sollte das dann erstmal ne weile gut gehen im SLI.
Steht eh erstmal den Garten auf vordermann bringen an wens doch mal juckt ist die PS4 noch da.

DrumDub
2016-04-18, 12:04:30
Also irgend was scheint dran zu sein am Abverkauf der 980ti

Schaut man sich auf Geizhals bei den Referenzmodellen der grossen Partner wie EVGA,Gigabyte und Msi um,so gibt es derzeit sage und schreibe noch 1 Haendler ,der das Modell lagernd hat

http://geizhals.de/evga-geforce-gtx-980-ti-06g-p4-4990-kr-a1275031.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l

http://geizhals.de/gigabyte-geforce-gtx-980-ti-gv-n98td5-6gd-b-a1274774.html?hloc=at&hloc=de

http://geizhals.de/msi-geforce-gtx-980-ti-6gd5-v801-1283r-a1274978.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l

Und auch bei Asus sieht es aus wie leergefegt mit 3 Shops

http://geizhals.de/asus-geforce-gtx-980-ti-90yv08m0-u0nm00-a1272927.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l hier die bestätigung:

Nvidia stoppt Produktion von GeForce GTX 970, GTX 980 und GTX 980 Ti (TomsHardwareGuide) (http://www.tomshardware.de/gtx-970-gtx-980-gtx-980-ti-gm204-produktionsstopp,news-255400.html)

iuno
2016-04-18, 12:09:16
Interessant. Ich bin mal gespannt wie viele Chips dann wirklich kommen werden. Wenn von der 970 bis 980 Ti alles direkt abgeloest werden soll, sind das min. GP104 und 106. Wenn dann noch ein ganz kleiner dazu kaeme (107/108), waere das schon ein stattlicher Launch.

Oder ist man sich inzwischen wirklich einig, dass GP204 bis hinab zur 970 reichen soll? :eek: Die News suggeriert das ja wieder, es macht fuer mich aber einfach immer noch keinen Sinn.

Dural
2016-04-18, 12:49:43
Da wird nur gp104 kommen, mehr braucht es auch nicht um 970-980 abzulösen.

Und hinab zur 970 heist nicht so schnell wie 970 ;)

BlacKi
2016-04-18, 12:50:24
welchen sinn macht ein auslaufen der verkäufe 2-3 monate im voraus? ist das in der vergangenheit auch schon so gewesen??? oder gp104 kommt früher als gedacht.

iuno
2016-04-18, 12:51:41
Da wird nur gp104 kommen, mehr braucht es auch nicht um 970-980 abzulösen.

Die Rede ist aber von 970 bis zur 980 Ti. Und da liegen einfach mal gut ueber 50 % Performanceunterschied und auch 350 € dazwischen.

Und hinab zur 970 heist nicht so schnell wie 970 ;)
Imho schon. Die Karte, die die 970 ersetzt, sollte auch etwa gleich schnell und etwa gleich teuer sein.
Du kannst nicht GM204 und 200 auslaufen lassen, GP104 mit Performance auf 980-980 Ti Niveau fuer >500 € verkaufen und darunter nur GM206 fuer < 200 € behalten.

Dural
2016-04-18, 12:53:21
Naja wenn man die produktion stop werden die lager sicher noch 1-3 monate reichen, je nach nachfrage.

Und nein, man wird der platz der 970 übernehmen und sicher nicht die leistung, es macht auch null sinn wenn eine 1070 970 leistung hat ;)

BlacKi
2016-04-18, 12:56:07
Naja wenn man die produktion stop werden die lager sicher noch 1-3 monate reichen, je nach nachfrage.
scully meinte es gibt bereits fast keine referenz TI mehr auf lager.

Edit: als customs gibts ncoh genug, und die referenzmodelle waren doch schon länger nicht mit besonders hohem lagerbestand gelistet.

iuno
2016-04-18, 12:58:17
es macht auch null sinn wenn eine 1070 970 leistung hat ;)
Davon spreche ich ja auch die ganze Zeit. Dann ist die Einordnung aber komplett falsch und es wird der (marketingtechnische) Nachfolger und nicht der Ersatz.
GM204-Ersatz wird fuer mich immer noch GP106. Und solange der nicht in Sicht ist, wird man sicher nicht die Produktion von GM204 einstellen.

Du willst mir ja wohl nicht ernsthaft erzaehlen, Nvidia wuerde so ein Lineup planen:
GM107/108: ....
GM206: <200 €, Performance: 100%
GP104: ~300 € bis >600 €, Performance: 150-250%

Effe
2016-04-18, 12:59:38
Er sprach von Referenzkarten. Mit Partnerkühler gibts noch mehr als genug:
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+980+Ti&asuch=&bpmax=&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&plz=&dist=&sort=p&bl1_id=30

Gerüchte sprechen ja von Ende Mai für neue NV-Karten. Passt doch. Die alten werden jetzt abverkauft, dann gehen noch schön die Preise hoch und die neuen Karten erscheinen dann als günstig.^^

Ailuros
2016-04-18, 13:42:45
Davon spreche ich ja auch die ganze Zeit. Dann ist die Einordnung aber komplett falsch und es wird der (marketingtechnische) Nachfolger und nicht der Ersatz.
GM204-Ersatz wird fuer mich immer noch GP106. Und solange der nicht in Sicht ist, wird man sicher nicht die Produktion von GM204 einstellen.

Du willst mir ja wohl nicht ernsthaft erzaehlen, Nvidia wuerde so ein Lineup planen:
GM107/108: ....
GM206: <200 €, Performance: 100%
GP104: ~300 € bis >600 €, Performance: 150-250%

Es wurde mich verdammt ueberraschen wenn der kleinste GP104 salvage einen MSRP unter $399 haben wird (ausser das Ding kommt nur mit 4GB framebuffer oder irgend einer anderen Marketing-Schnappsidee). Sonst zu den Prozenten noch kein Kommentar :P

iuno
2016-04-18, 13:45:03
Das ist ja genau was ich anspreche. Da waere einfach ein viel zu grosses Loch, imho.

Ailuros
2016-04-18, 13:55:19
Kein IHV kann momentan ein gesamtes lineup auftischen. GP106 wird wohl in den naechsten Monaten nach Juni folgen.

Sonst ist mir die ganze Geschichte mit der Ersatz/Nachfolger Trennung zu kompliziert. Die groesste GP104 SKU wird bis zu Anfang 2017 fuer high end den Platz warm halten muessen mit seinem MSRP bis entweder GP100 oder aehnliches diesen abloesen wird. Bis zu dem Zeitpunkt wird wohl TitanX auch ein ziemlich daemliches perf/$ Verhaeltnis zur groessten GP104 SKU haben.

BigKid
2016-04-18, 14:07:23
Kein IHV kann momentan ein gesamtes lineup auftischen. GP106 wird wohl in den naechsten Monaten nach Juni folgen.

Sonst ist mir die ganze Geschichte mit der Ersatz/Nachfolger Trennung zu kompliziert. Die groesste GP104 SKU wird bis zu Anfang 2017 fuer high end den Platz warm halten muessen mit seinem MSRP bis entweder GP100 oder aehnliches diesen abloesen wird. Bis zu dem Zeitpunkt wird wohl TitanX auch ein ziemlich daemliches perf/$ Verhaeltnis zur groessten GP104 SKU haben.

Ich sehe als Noob aktuell auch Hinweise auf 3 Chips in "näherer" Zukunft und Q3 ist ja nicht mehr so fern...

GP106 (wegen Drive X - eventuell auch für Laptops und kleine Lösungen)
GP104 (weil irgendwie alle davon ausgehen - warum eigentlich ?)
Und das Dickschiff für Supercomputing

Complicated
2016-04-18, 15:47:52
http://www.tomshardware.de/gtx-970-gtx-980-gtx-980-ti-gm204-produktionsstopp,news-255400.html
Irgendwie widerspricht sich der Artikel ja selber:
Die GPU selbst wird allerdings weiterhin gefertigt - sie steckt auch in der Quadro M4000 und der Quadro M5000, die für Systeme angeboten werden, die für einen Unternehmenseinsatz konzipiert sind.Also wird die GM204 Produktion nicht angehalten, wie ein Stück weiter oben im Artikel:
Allem Anschein nach hat Nvidia die Produktion der in den drei Grafikkarten verbauten Chip-Versionen der GM204-GPU angehalten, um Produktionskapazitäten für den Nachfolger freizumachen. Sondern lediglich reduziert/runter gefahren.

Angehalten wird das assembling als GTX 970/980/980 Ti
Und seit wann wird die 980 Ti mit GM 204 bestückt?

AffenJack
2016-04-18, 16:16:46
Unabhängig davon was dadran nun stimm, ich weiß nicht wie DrumDub darauf kommt, dass dieser Artikel überhaupt etwas bestätigt. Er zitiert wie alle anderen einfach Hardwarebattle. Wiederholtes schreiben der Infos der gleichen Quelle erhöht auch nicht den Wahrheitsgehalt.

scully1234
2016-04-18, 18:06:19
dass dieser Artikel überhaupt etwas bestätigt. .
Schau dich auf Geizhals um ,dann hast du deine Bestaetigung

980ti, und 980 sind faktisch schon total ausgeduennt was das Referenzboard betrifft, bei der 970 wird's schwieriger nachzuvollziehen,weil jeder da machen konnte was er wollte

Mir will nur nicht in den Sinn warum man das jetzt schon einlaeutet 2 Monate vor dem eigentlichen Verkauf von Pascal

Die ganzen VR Systeme brauchen schier Leistung, und wenn das noch 2 Monate so laufen soll ,ist bald nix mehr da, nicht mal mehr die eigenen Boardlayouts der Partner

ilibilly
2016-04-18, 18:21:26
Naja denke es ist eine gewollte verknappung,umso größer wird der ansturm auf pascal sein und man hält die preise stabil ,das ist nv wichtiger und jede weniger verkaufte maxwell gpu wird wohl keinen zu amd treiben,die warten alle schön auf pascal.
Dazu kommt das oculus und vive imho ein paperlaunch war mit ein paar tausend einheiten,kann man sagen was man will,3-4 monate wartezeit ? Das ist ein schlechter witz....
Offzielle zahlen wären da mal interessant wiviel ausgeliefert wurde bzw monatlich produzieren.

dildo4u
2016-04-18, 18:30:45
NV wird die Masse der Karten an OEM's ausgeliefert haben um ihre Komplettsysteme VR Ready zu machen,oft lohnt es sich gar nicht 980 Ti als Retail Karte zu kaufen wenn es solche Angebote gibt.

System mit i7 6700 + 980 Ti 16GB für 1130$.
http://www.neogaf.com/forum/showthread.php?t=1198580

Botcruscher
2016-04-18, 18:54:50
US Preise sind ohne Steuer. Für den Preis kann man sich dann auch was zusammenstellen, wo nicht die Hälfte Müll ist.

Ailuros
2016-04-19, 12:04:48
US Preise sind ohne Steuer. Für den Preis kann man sich dann auch was zusammenstellen, wo nicht die Hälfte Müll ist.

ROFL zum letzten :D Die 980Τi ist uebrigens keine Option mehr fuer das verlinkte System/"Angebot".

Zettabit
2016-04-19, 12:20:23
http://www.tomshardware.de/gtx-970-gtx-980-gtx-980-ti-gm204-produktionsstopp,news-255400.html
Irgendwie widerspricht sich der Artikel ja selber:
Nö, wo denn? Ist doch ziemlich klar: NVIDIA fertigt zwar noch den GM204 - aber nur für die Verwendung in den Quadrokarten M4000/M5000. Die Varianten für die GeForce-Versionen 970/980 werden ebenso wie Chips für die 980Ti nicht mehr gefertigt bzw. eher selektiert.

Complicated
2016-04-19, 13:02:16
Und das widerspricht nicht der Aussage die Produktion des GM204 werde angehalten während gleichzeitig weiter produziert wird?

Für mich ein unbestreitbarer Widerspruch.

Und welche Version des GM204 wäre das denn in der GTX 980 Ti?
der in den drei Grafikkarten verbauten Chip-Versionen der GM204-GPU angehalten,

Godmode
2016-04-19, 14:34:52
Neue Kühlerbilder gibts:
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Kuehlerabdeckungen-GTX-1080-GTX-1070-1190697/galerie/2560885/

iuno
2016-04-19, 14:49:46
Naja besonders schoen ist das nicht :ulol:

Ich weiss zwar nicht genau, was da genau getestet wird, aber vielleicht kann jemand damit mehr anfangen:
http://125.215.179.25/handler/v2/21info.htm

es gibt demnach
GP104-200-A1
GP104-725-A1
GP104-750-A1

Allerdings gibt es da auch sonst eher seltsame Bezeichnungen (GM204-950, -650, -975, GK110-899, ...)

Ganz links sind Links zu Screenshots der Testergebnisse. Das Package misst demnach tatsaechlich 37,5x37,5 mm

scully1234
2016-04-19, 14:53:53
Wenn da jetzt Karten im Umlauf sind, wie lange Vorlauf ist denn normalerweisse noetig ,um die Lager fuer einen Launch zu fuellen?

Hat da jemand etwas Vorkenntnis?

Hübie
2016-04-19, 15:00:17
Zirka 6 Wochen. Zumindest gilt es für Deutschland. Die Ware kommt häufig über Rotterdam rein.

scully1234
2016-04-19, 15:01:27
Danke Huebie:smile:

Hübie
2016-04-19, 15:07:54
Das auf den Bildern ist afaik aber noch ein Validating Sample. Also dauert es noch etwas. Massenproduktion dürfte laufen. Takt wird oft noch sehr spät geändert.

Zettabit
2016-04-19, 15:22:02
Und das widerspricht nicht der Aussage die Produktion des GM204 werde angehalten während gleichzeitig weiter produziert wird?
Die Produktion der GM204-Versionen für GeForce wird gestoppt, nicht die komplette GM204-Produktion. In der Überschrift ist es auch noch richtig. Da hat sich ein Redakteur einfach nur doof angestellt, aber ein wirklicher Widerspruch ist es nicht.

Also mir gefällt die 1080, scheint ja dann wirklich Computex zu werden :up:

Complicated
2016-04-19, 15:35:41
Und wie stoppst du die Produktion bestimmter Versionen eines Chips? Alle GM204 kommen vom selben Wafer und werden anschließend dem binning unterzogen. Da kann man nicht einzelne Versionen anhalten zu produzieren.

Hübie
2016-04-19, 15:38:14
Welche Relevanz hat eure Diskussion überhaupt? GK110/210 wurde bis vor kurzem noch hergestellt. :|

Komisch dass mich die Referenzdesigns noch nie interessierten. :D Finds jetzt schon bescheuert einfach 1080 zu nennen. 1080p. Bäh. Meh.

Thunder99
2016-04-19, 15:40:01
Wird bestimmt auf die ganze Karte bezogen sein. Nur noch Workstation Sachen werden produziert, Rest nicht mehr.

Alle schreiben nun es kommen GDDR5 X Versionen. Kann sein, aber ist überhaupt nicht sicher.

Und was auch komisch ist, dass die Nummerierung von 200 gleich zu 7xx gehen soll. Sehr komisch...

igg
2016-04-19, 15:59:09
2 Dinge die nicht gefallen:
- 1 Lüfter: Referenzkarten werden laut sein
- Laut CB zum Launch nur im Referenzdesign, d. h. die ersten Käufer werden Staubsauger im PC haben

Zettabit
2016-04-19, 16:03:20
- 1 Lüfter: Referenzkarten werden laut sein
Ich habe sowohl 680 als auch 980 im Referenzdesign und kann nicht sagen, dass diese per se "laut" sind. Vielleicht lauter als andere Karten, aber die gibt es jenachdem erst deutlich später und/oder deutlich teurer.

Über die Referenzmodelle von NVIDIA der letzten Jahre kann man sich definitiv nicht beschweren.

@Hübie:
Ach Complicated diskutiert wieder mal nur völligen Unsinn. Sieht einen Widerspruch, wo einfach ein Redakteur sich ungeschickt ausgedrückt hat. Als ob ihm das nie passieren würde. Ich werds in Zukunft einfach ignorieren, man soll so jemanden ja nicht füttern. Mein Fehler.

scully1234
2016-04-19, 16:05:42
laut..
Staubsauger..


So umgehe ich das immer:smile:

http://extreme.pcgameshardware.de/attachments/828650d1433007749-3-achsen-rennsimulator-mit-180-grad-rahmenloser-leinwand-dsc00123.jpg

Ich liebe Referenzdesign, aber ich hasse weder Fisch noch Fleisch Karten

Sunrise
2016-04-19, 16:06:18
Das mit der Referenz ist doch eigentlich ganz normal, oder?

Entweder man will direkt eine (da gibt es oft nur Referenz bei wirklich neuen, nicht pin-kompatiblen GPUs, bzw. Platinenlayouts), oder aber man will sowieso so schnell als möglich eine Wakü draufbauen, dann kaufen viele erstmal nur Referenz. Zudem gibts ja auch die meisten Kühllösungs-Alternativen nachzukaufen (siehe auch Arctic Accelero usw.).

Also mit meiner EVGA + Accelero-Strategie bin ich bisher wunderbar gefahren (extrem leise, leistungsfähig...) und immer die Option auf Wakü. So ne non-Referenz ist zwar out-of-the-box evtl. schöner, aber man hat oft mehr Theater, auch wegen Garantie beim Umbau.

Wenn man aber mal ne Wakü hat, will man eigentlich nichtmehr zurück, ist eigentlich kaum Aufwand, leider aber immer wieder eine Zusatzinvestition.

HOT
2016-04-19, 16:41:05
Welche Relevanz hat eure Diskussion überhaupt? GK110/210 wurde bis vor kurzem noch hergestellt. :|

Komisch dass mich die Referenzdesigns noch nie interessierten. :D Finds jetzt schon bescheuert einfach 1080 zu nennen. 1080p. Bäh. Meh.
GK110 ist garantiert schon seit Ewigkeiten eingestellt, alles, was auf GK110 lief läuft heute garantiert mit GK210. Und GK210 wird auch noch ne ganze Weile laufen, das ist übrigens auch NVs erster reiner Profichip ohne Consumer-Grafikbezug.

Dural
2016-04-19, 16:46:38
Die Kühlerabdeckungen sind zu 99% Fake. :rolleyes:

Schrotti
2016-04-19, 17:04:43
So umgehe ich das immer:smile:

http://extreme.pcgameshardware.de/attachments/828650d1433007749-3-achsen-rennsimulator-mit-180-grad-rahmenloser-leinwand-dsc00123.jpg

Ich liebe Referenzdesign, aber ich hasse weder Fisch noch Fleisch Karten

So sehe ich das auch.

Mir geht meine Radeon R9 390 auf den Sack aber nur wegen der Luftkühlung. Meine Wakü kommt mit Silent Lüftern (http://geizhals.de/noiseblocker-nb-eloop-b12-1-itr-b12-1-a820044.html) daher, mit maximal 7db aber die raubt mir den Nerv wenn ich dann doch mal zocke :mad:.

Godmode
2016-04-19, 17:13:11
Die Kühlerabdeckungen sind zu 99% Fake. :rolleyes:

Gibt es einen Grund warum du glaubst, dass das ein Fake ist? Nur "Fake" zu schreiben hilft hier niemanden weiter.

scully1234
2016-04-19, 17:19:13
Sweclocker geht fuer den GP106 nun fuer einem Launch im Herbst aus

https://translate.google.de/translate?sl=auto&tl=de&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21979-nvidia-geforce-gp106-pascal-till-hosten&edit-text=

Das heisst ''all In'' fuer GP104

Dural
2016-04-19, 17:50:41
War ja klar das zuerst GP104 kommt, GP106 einige Monate später.


@Godmode
Ernsthaft? Ich habe schon bedenken das die Karten wirklich 1070 und 1080 heisen werden.

hasebaer
2016-04-19, 19:09:20
2 Dinge die nicht gefallen:
- 1 Lüfter: Referenzkarten werden laut sein

Bei AMD vielleicht, bei NV waren sie zuletzt ganz OK für ein DHE Design.


- Laut CB zum Launch nur im Referenzdesign, d. h. die ersten Käufer werden Staubsauger im PC haben

Dank Ref.Design gibts auch schnell Kühler von Arctic & Co., wenns wirklich flüsterleise sein soll kommt man eh nicht drum rum.
Allein auf MSI könnte man warten, eventuell Palit und Asus, aber bei allen Anderen ist das immer ein Glücksspiel wie laut die eigenen Kühler werden.

Hübie
2016-04-19, 19:25:45
GK110 ist garantiert schon seit Ewigkeiten eingestellt, alles, was auf GK110 lief läuft heute garantiert mit GK210. Und GK210 wird auch noch ne ganze Weile laufen, das ist übrigens auch NVs erster reiner Profichip ohne Consumer-Grafikbezug.

Garantierst du mir das? :rolleyes:

Kannst mir das ruhig glauben. Hier mal Hint: http://www3.pny.com/mega-commercial/explore-our-products/nvidia-quadro-graphics-cards

HOT
2016-04-19, 23:47:00
Jo da werden einfach GK210 verbaut sein. Glaube nicht, dass man da was parallel laufen lässt, dafür sind sich die Dinger einfach zu ähnlich.

Fusion_Power
2016-04-20, 00:18:36
Ich warte dann auf die "1060" (GTX???) für hoffentlich unter 200Euro und mit hoffentlich 256 bit Speicherinterface. Kann ja nich so schwer sein das hinzubekommen, Nvidia!

Ravenhearth
2016-04-20, 00:23:46
Die kriegt 128 Bit.

Leonidas
2016-04-20, 04:23:00
Und unter 200 Euro wird am Anfang auch eine Illusion sein. Das ist die mittelfristige Zielsetzung. Anfänglich dürfte GP106 bei 200 Euro (kleinere Variante) bis 300 Euro (größere Variante) liegen.

Hübie
2016-04-20, 08:59:14
Jo da werden einfach GK210 verbaut sein. Glaube nicht, dass man da was parallel laufen lässt, dafür sind sich die Dinger einfach zu ähnlich.

Wollen wir Wetten darauf abschließen???:freak:

Alle anderen außer HOT dürfen klicken:
Die gewinnt er nicht :D

Ailuros
2016-04-20, 09:12:18
GK210 in Quadros? Mann es wird ja zunehmend spannender :freak: :D

Thunder99
2016-04-20, 10:17:23
Ich warte dann auf die "1060" (GTX???) für hoffentlich unter 200Euro und mit hoffentlich 256 bit Speicherinterface. Kann ja nich so schwer sein das hinzubekommen, Nvidia!
Träum weiter :D

256bit würde nur dann kommen, wenn es kein GDDR5X gäbe. Typisch nvidia so wenig wie nötig das Speicherinterface zu vergrößern

Kartenlehrling
2016-04-20, 10:47:25
Dieses Jahr kommt sowieso kein gtx1060 mit Pascal.

AffenJack
2016-04-20, 10:48:33
Dieses Jahr kommt sowieso kein gtx1060 mit Pascal.

Wie kommst du darauf? GP106 dürfte definitiv dieses Jahr erscheinen. Herbst scheint dafür ein guter Termin zu sein.

Godmode
2016-04-20, 11:20:37
Ernsthaft? Ich habe schon bedenken das die Karten wirklich 1070 und 1080 heisen werden.

Ich kann mir nicht vorstellen, dass sich jemand soviel Mühe macht, einen ganzen Kühler zu faken.

iuno
2016-04-20, 11:31:13
Den angeblichen Controller der neuen Nintendo Konsole hat sich auch einer nachgemacht und "ausgedruckt".
Glaube aber auch nicht an einen Fake, sehe auch keine Unstimmigkeiten. Heisst die Karte halt 1080, na und?

Ailuros
2016-04-20, 11:39:00
Der Name ist wohl am Ende egal so lange das meiste wesentliche stimmt. Die Frage ist eher wie lange jemand gebraucht hat einen so abscheulichen design zu entwerfen und ob er auch noch stolz darauf ist... :weg:

Edgecrusher86
2016-04-20, 11:48:42
Weitere Bilder von Teilen des Ref-Kühlers:

http://abload.de/thumb/nvidia-geforce-gtx-10ljje6.jpg (http://abload.de/image.php?img=nvidia-geforce-gtx-10ljje6.jpg) http://abload.de/thumb/nvidia-geforce-gtx-10uhk6r.jpg (http://abload.de/image.php?img=nvidia-geforce-gtx-10uhk6r.jpg) http://abload.de/thumb/nvidia-gtx-1080-gtx-1rwjvt.jpg (http://abload.de/image.php?img=nvidia-gtx-1080-gtx-1rwjvt.jpg) http://abload.de/thumb/nvidia-gtx-1080-gtx-16ujvd.jpg (http://abload.de/image.php?img=nvidia-gtx-1080-gtx-16ujvd.jpg)

http://videocardz.com/59189/nvidia-geforce-gtx-10801070-cooler-shroud-taken-apart

Da müsste Jemand schon verdammt viel Langeweile haben, das alles zu faken. ;D

igg
2016-04-20, 11:58:44
Da müsste Jemand schon verdammt viel Langeweile haben, das alles zu faken. ;D
Für eine Woche Ruhm tut man viel ;)

Blediator16
2016-04-20, 12:15:26
Was für ein Zufall, dass da eine Zahl fehlt :D

iuno
2016-04-20, 12:26:08
Was für ein Zufall, dass da eine Zahl fehlt :D
Vielleicht wird das erstmal fuer alle Karten so gemacht (gegossen?) und spaeter die einzelne letzte Stelle eingefraest :confused:

Radeonfreak
2016-04-20, 12:56:13
So wies aussieht wird das mit einer schnöden Kupferelektrode senkerodiert.

Wenn ich auf Arbeit Langeweile hätte würd ich das innerhalb von einigen Tagen sicher auch hinbekommen. Also mal abwarten.

Botcruscher
2016-04-20, 14:03:44
Was für ein Zufall, dass da eine Zahl fehlt :D
Bei Vorlaufproduktion und nur einem Ref.-kühler für die ganze Serie auch logisch.

scully1234
2016-04-20, 14:40:46
Wie soll denn bei der Platzaufteilung ,dann noch das Ti Kuerzel dahinter passen, fuer den ''Top Dog''?

http://cdn.videocardz.com/1/2016/04/NVIDIA-GTX-1080-GTX-1070-cooler.jpg

Oder durfte sich da noch ein Lamborghini Designer austoben, an nem weiteren Modell:freak:

iuno
2016-04-20, 14:47:10
Fuer Titan und Ti wird das Teil extra gemacht. Das "Ti" war vorher auch nicht nur dran gehaengt, da hat sich der ganze Schriftzug verschoben.

Ist aber immerhin mal ein Argument und nicht nur ein "Fake"-Schreien :up:
An Lambo hatte ich auch zuerst gedacht ;D

Thunder99
2016-04-20, 14:47:40
Das sagt nur aus, dass eine hypothetische Ti deutlich später kommt ;)

scully1234
2016-04-20, 14:53:39
An Lambo hatte ich auch zuerst gedacht ;D


Ist auch unschwer da nicht solche Analogien zu ziehen:biggrin:

Fusion_Power
2016-04-20, 15:33:24
Die kriegt 128 Bit.
NAIN! NAIN! NAIN! :freak:

Träum weiter :D

256bit würde nur dann kommen, wenn es kein GDDR5X gäbe. Typisch nvidia so wenig wie nötig das Speicherinterface zu vergrößern
Meine alte GTX460 hatte schon 256 Bit Speicher-Bandbreite. Und die hab ich glaube für so um die 160 Euro erstanden damals. ich sehe keinen Grund, warum neuere Karten so viel teurer sein sollten nur weil sie auch ein gescheites Speicherinterface bekommen. Technik wird doch immer billiger statt teurer, eigentlich.

Botcruscher
2016-04-20, 15:53:17
Wie soll denn bei der Platzaufteilung ,dann noch das Ti Kuerzel dahinter passen, fuer den ''Top Dog''?

Mit GP104 kommt ganz sicher kein TI.:rolleyes:

N0Thing
2016-04-20, 15:59:32
Wie soll denn bei der Platzaufteilung ,dann noch das Ti Kuerzel dahinter passen, fuer den ''Top Dog''?

Wenn es wie bei Kepler und Maxwell mit der Namensgebung läuft, dann gibt es für den GP104 kein Ti, das bleibt dann dem GP102/100 vorbehalten.

iuno
2016-04-20, 16:09:11
Da es aber 3 Karten geben soll, waere eine Ti nicht so abwegig.
Macht eine 1060 mit GP104 mehr Sinn als eine 1080 Ti? ich glaube nicht...
Mglw. kommt GP102 erstmal nur als Titan und Quadro und dann gar nicht mehr oder ganz spaet als 1180 Ti. Wer weiss das schon?

N0Thing
2016-04-20, 16:13:07
Ist nicht unmöglich, würde aber mit dem bekannten Namensschema brechen und die 1080Ti müßte dann auch wirklich ordentlich was auf die 980Ti drauf legen, damit es nicht lächerlich wird und nicht nur die max. 20%, die man eigentlich erwarten könnte.

iuno
2016-04-20, 16:20:29
Brechen wird man sowieso muessen, wenn es 3 Varianten gibt. Ausser das mit den drei Karten war schliecht Bloedsinn/falsch verstanden und eins davon ist z.B. eine mobile oder eine Quadro.
An eine 1075 oder 1070 Ti glaube ich noch weniger.

Ailuros
2016-04-20, 16:49:03
Namen sind doch so was von egal.....von mir aus koennen sie die groesste SKU auch 1080X nennen und AMD zeugt sie dann an wegen einer Patent-Verletzung fuer das "X" :freak:

Leonidas
2016-04-20, 16:59:43
Also wenn der Kühler richtig ist, und schon "GTX 10 0" vorgestanzt ist, so dass nur noch eine Zahl reinpasst - und es von Anfang an drei Varianten geben soll - dann wird es nicht ganz einfach:

GTX 1070 mit 4 GB GDDR5 -> GP104-150
GTX 1070 mit 8 GB GDDR5 -> GP104-200
GTX 1080 mit 8 GB GDDR5X -> GP104-400

oder:

GTX 1070 mit 8 GB GDDR5 -> GP104-150
GTX 1070 mit 8 GB GDDR5X -> GP104-200
GTX 1080 mit 8 GB GDDR5X -> GP104-400

Denn mehr als zwei verschiedene Grafikkarten-Namen passen da nicht rein. Es sei denn, man geht jetzt schon auf GTX 1060 oder GTX 1090 (unwahrscheinlich, die Nummern braucht man noch).

Sunrise
2016-04-20, 17:01:44
Früher stand das Ti einfach nur für eine Chipversion mit höheren Taktraten.

Aktuell gestaltet es sich aber folgendermaßen, dass wenn NV bereits GP102 fertig hätte, dann wäre die 1080 Ti eben wieder der Salvage von GP102 und der vollausgebaute Chip bekommt einen Namen wie die Titan.

Das 980 Titan zeigte ja direkt an, dass dies ein Salvage von der Titan ist (früher stand das Ti noch für Titanium).

Wenn NV GP102 eben nicht fertig hat, dann ist tatsächlich eine 980 Ti denkbar und würde dann aber wohl auch signalisieren, dass GP102 noch etwas in der Ferne liegt.

Diese Namensspielchen sind garnicht mal so unbedeutsam, wenn man sich das LineUp anschaut. Wirkliche Rückschlüsse lassen sich aber nicht immer ziehen.

LSSJBroly
2016-04-20, 17:05:12
Stand nicht auch das Gerücht im Raum, dass der kleinste GP104-Ableger kein Referenzdesign erhalten soll und nur als Partnerdesigns in den Markt geht, ähnlich wie die GTX 970? Damit wäre ein GP104-150 als GTX 1060 (Ti) auch nicht ganz vom Tisch)

scully1234
2016-04-20, 17:06:31
Vielleicht heißt die TI ja jetzt schlicht und ergreifend GTX 1090:smile:

iuno
2016-04-20, 17:31:16
Früher stand das Ti einfach nur für eine Chipversion mit höheren Taktraten.

Aktuell gestaltet es sich aber folgendermaßen, dass wenn NV bereits GP102 fertig hätte, dann wäre die 1080 Ti eben wieder der Salvage von GP102 und der vollausgebaute Chip bekommt einen Namen wie die Titan.

Das 980 Titan zeigte ja direkt an, dass dies ein Salvage von der Titan ist (früher stand das Ti noch für Titanium).

Ti ist in erster Linie einfach eine schnellere Variante. Ein festes Schema hat das nicht, das sind einfach alles Marketing-Bezeichnungen.
Ich darf z.B. an die 780 Ti erinnern, die schneller war als die Titan, aber wie die 780 den GK110 nutzt? Insofern war damals Titan Salvage, Ti nicht. 3x derselbe Chip, in verschiedenen Ausbaustufen.

Complicated
2016-04-20, 17:44:05
Stand nicht auch das Gerücht im Raum, dass der kleinste GP104-Ableger kein Referenzdesign erhalten soll und nur als Partnerdesigns in den Markt geht, ähnlich wie die GTX 970? Damit wäre ein GP104-150 als GTX 1060 (Ti) auch nicht ganz vom Tisch)Könnten auch reine OEM-Karten sein oder eine Rückkehr der SE-Varianten bedeuten wie bei GF104.

Sunrise
2016-04-20, 17:57:57
Ti ist in erster Linie einfach eine schnellere Variante. Ein festes Schema hat das nicht, das sind einfach alles Marketing-Bezeichnungen.
Ich darf z.B. an die 780 Ti erinnern, die schneller war als die Titan, aber wie die 780 den GK110 nutzt? Insofern war damals Titan Salvage, Ti nicht. 3x derselbe Chip, in verschiedenen Ausbaustufen.
Die 780 Ti war der Salvage der Titan Black mit nur 6GB VRAM statt 12GB VRAM und das war aufgrund einer neuen Chiprevision, insofern stimmt das schon was ich geschrieben habe, man darf das allerdings nur auf den jeweiligen Chip festmachen, denn sobald eine Revision eingeschoben wird, darf man das nicht mehr vermischen.

Ist ja auch ganz einfach nachzuvollziehen:

Chip A (Revision A1) - Ausbeute 50%
- Chip A - Chipkonfiguration X1 -> Ausbeute 10% -> Titan ($1000 US)
- Chip A - Chipkonfiguration X2 -> Ausbeute 40% -> 1080 Ti ($699 US)

Chip B (Revision A1) - Ausbeute 70%
- Chip B - Chipkonfiguration Z1 -> Ausbeute 10% -> 1080 ($499 US)
- Chip B - Chipkonfiguration Z2 -> Ausbeute 20% -> 1070 ($399 US)
- Chip B - Chipkonfiguration Z3 -> Ausbeute 40% -> 1070 ($299 US) (nur OEM)

Zumindest sieht so ein optimales LineUp aus, aber NV wird GP102 wohl erstmal nicht vorstellen.

illidan
2016-04-20, 18:00:58
Die 780 Ti war kein Salvage Chip.

maguumo
2016-04-20, 18:04:55
Natürlich war die 780Ti ein Salvage Chip, auch wenn da lediglich die FP64 Einheiten zurechtgestutzt wurden.

N0Thing
2016-04-20, 18:06:08
Stand nicht auch das Gerücht im Raum, dass der kleinste GP104-Ableger kein Referenzdesign erhalten soll und nur als Partnerdesigns in den Markt geht, ähnlich wie die GTX 970? Damit wäre ein GP104-150 als GTX 1060 (Ti) auch nicht ganz vom Tisch)

Vielleicht kommt die ganz kleine Ausführung auch nur als Variante für Notebooks und nicht in den Retailmarkt. Da nennt man das Modell 1070M und schon paßt das Namensschema wieder. ^^

illidan
2016-04-20, 18:22:58
Natürlich war die 780Ti ein Salvage Chip, auch wenn da lediglich die FP64 Einheiten zurechtgestutzt wurden.
Hast du einen Nachweis dafür, dass das per GPU-Modifikation selbst, und nicht per Board, geregelt ist?

Hübie
2016-04-20, 19:02:50
Natürlich war die 780Ti ein Salvage Chip, auch wenn da lediglich die FP64 Einheiten zurechtgestutzt wurden.

Die waren nicht deaktiviert. Es gab nur eine DMA-Engine und die FP64 wurden künstlich beschränkt. Das ist ein full fat.

Raff
2016-04-20, 20:04:42
Die 780 Ti war der Salvage der Titan Black mit nur 6GB VRAM statt 12GB VRAM [...]

3 (780 [Ti]) zu 6 GiB (Titan [Black]). :) Die alten Titanen sind heute immer noch bestens speicherbestückt.

MfG,
Raff

Troyan
2016-04-20, 20:46:45
nVidia hat ein Whitepaper zu Pascal veröffentlicht: http://www.nvidia.com/object/pascal-architecture-whitepaper.html

Wer sich nicht bei denen anmelden will, kann es hier download: Datei von filehorst.de laden (http://filehorst.de/d/bkHvdruE)

Steht eigentlich nichts neues drin.

Nakai
2016-04-20, 21:11:42
nVidia hat ein Whitepaper zu Pascal veröffentlicht: http://www.nvidia.com/object/pascal-architecture-whitepaper.html

Wer sich nicht bei denen anmelden will, kann es hier download: Datei von filehorst.de laden (http://filehorst.de/d/bkHvdruE)

Steht eigentlich nichts neues drin.

Ja, absoluter Schrott. War nichts anderes von NV zu erwarten. Das richtige "Whitepaper" oder Architektur-Details gibt es nur für wirklich Premiumkunden.

Die Erwartungshaltung bzgl der GTX1080 ist ja interessant hier. Ich bin sehr gespannt, was nun kommen wird. Bei ~300mm² und einer Packdichte von 25Mio/mm² sind ~2560 SPs wohl sehr naheliegend.

LSSJBroly
2016-04-20, 21:20:16
Die Erwartungshaltung bzgl der GTX1080 ist ja interessant hier. Ich bin sehr gespannt, was nun kommen wird. Bei ~300mm² und einer Packdichte von 25Mio/mm² sind ~2560 SPs wohl sehr naheliegend.

Halte ich auch am wahrscheinlichsten - es passt einfach zu gut. Das wären 2/3 SPs vom GP100 - ein "sehr ähnliches" Verhältnis wie beim GM200 zu GM204.

Nakai
2016-04-20, 21:24:23
Halte ich auch am wahrscheinlichsten - es passt einfach zu gut. Das wären 2/3 SPs vom GP100 - ein "sehr ähnliches" Verhältnis wie beim GM200 zu GM204.

GP102 steht noch in den Sternen. NV kann da gerne in die Vollen gehen. Mit 300mm² und "nur" 2560 SPs, sollte definitiv einiges für GP102 möglich sein. 3840 SPs für GP102 aber ohne hoher DP-Rate könnte man direkt auf ~450mm² übertragen. NV kann aber gerne noch mehr hinzufügen. Platz wäre noch da.;)

horn 12
2016-04-20, 22:13:29
Und dies würde bedeuten,- für die GTX 1080,- oder wie auch immer jene heißen man in etwa welche Performance?
GTX 980TI mit OC auf 1300 bis 1400 maximal, also von deren Performance gesprochen.

Hübie
2016-04-20, 23:18:51
nVidia hat eine Infobroschüre zu Pascal veröffentlicht: http://www.nvidia.com/object/pascal-architecture-whitepaper.html

FTFY :biggrin: Lächerlich was die Whitepaper nennen.

Tamagothi
2016-04-21, 00:14:27
Und dies würde bedeuten,- für die GTX 1080,- oder wie auch immer jene heißen man in etwa welche Performance?
GTX 980TI mit OC auf 1300 bis 1400 maximal, also von deren Performance gesprochen.

GTX 1080 ca. 1,7 GHz -> Titan @ 1,4 GHz

gegen eine GTX 980ti sind es ca. 1,55 GHz


Berichtigt mich falls ich falsch liege. :tongue:

PHuV
2016-04-21, 00:18:43
Wird es eigentlich mit Pascal auch wieder eine Titan-Version geben, gibt es dazu schon Infos?

gravitino
2016-04-21, 03:33:46
Ob das mit NVLink so klug ist? Ein eigener Standard bedeutet man braucht ein Mainboard, dass das unterstützt, denn ansonsten kann man mit den Grafikkarten nix anfangen. Klingt für mich nach einer schlechten Lösung. Generell fände ich's aber nett wenn man die Grafikkarten ähnlich wie die CPU auf dem Mainboard anbringen könnte - dann wären endlich mal vernünftige Tower-Kühler möglich, die man auch schön leise laufen lassen kann...

6GB/s PCIe ist das Bottleneck schlichtweg bei 10 TFlops Compute-Performance in Single-Precision-Genauigkeit. 6GB, das sind 1.5 * 2^30 floats, sprich ca 10^9 floats pro Sekunde: Das hieße man könnte in der Größenordnung GFlops für Linearzeitalgorithmen rechnen, was drei bis vier Größenordnungen langsamer ist als die oben genannten 10 TFlops theoretische Peakperformance. Selbst die 330 GB/s Anbindung an GDDR 5 RAM sind viel zu langsam, um annähernd an die Peakperformance einer modernen GPU heranzukommen. Demnach ist NVLINK der einzig konsequente Schritt, insbesondere wenn man Berechnungen über mehrere GPUs streuen will. Dass Intel nicht mitmachen will, ist wohl eine politische Entscheidung, die ihre eigene Multicore und Manycoresparte schützen soll.

gravitino
2016-04-21, 03:42:23
Wird es eigentlich mit Pascal auch wieder eine Titan-Version geben, gibt es dazu schon Infos?

Vermutung: nein

Begründung: NVIDIA scheint unglücklich mit der aktuellen Titan X zu sein, nicht etwa weil zu wenig Leute sie kaufen, sondern weil die falschen Leute sie kaufen. Gamer sehen nicht ein 1000 Euro für eine gepimpte 980Ti mit mehr RAM hinzulegen. Firmen hingegen, welche die unverschämt teure Tesla M40 nicht kaufen wollen, greifen gern auf die fast baugleiche Titan X zurück. Nun würde NVIDIA aber viel lieber 6000 Euro teure Tesla M40s verkaufen anstatt die 1000 Euro teure Titan X.

Auf der GTC vor zwei Wochen haben Sie die DGX-1 Box für 129000 Dollar vorgestellt, welche aus 8 P100 bestehen wird. Selbst wenn der zugrundeliegende Rechner 10000 Dollar (CPU+RAM+Case) kostest, bedeutet das, dass 120000/8 = 15000 Dollar für eine P100 fällig wären. Meine Vermutung ist eher, dass der Preis ungefähr bei 6000-10000 Dollar pro P100 liegen wird.

Warum also sollte NVIDIA eine fast baugleiche Titan für 1000 Dollar unters Volk werfen?

gravitino
2016-04-21, 04:01:41
Nvidia bleibt so trotz des immer gleichen Angebots weiterhin in den Medien präsent. Bis weitere Maxwell-Chips kommen, dauert es noch Monate. Zudem kann man sich als zukunftsorientiertes Unternehmen darstellen und überlässt AMD mit Mantle nicht diese Rolle alleine.

Daß Maxwell Potential hat, zeigt ja der GM107. Das Thema Pascal wird bald in der Schublade verschwinden, sobald alle Informationen drei Mal durch die Presse verwurstet wurden.

Ich glaube ja, dass NVIDIA den klassischen Gamer auch gar nicht mehr im Fokus hat. "We are all in on Deep Learning", wenn ich mal die Take-Home-Message der ersten Keynote rezitieren darf. Sie werden wohl in den nächsten Jahren bevorzugt Single- und Half-Precision-Rechenmonster designen und den Gamer mit dem Verschnitt versorgen. Zum Beispiel:

Ein P100 mit halb so vielen Streaming-Multiprozessoren, GDDR 5 RAM und PCIe: Quasi der VW Phaeton im Luxuskarosseriensegment.

Ailuros
2016-04-21, 06:34:55
FTFY :biggrin: Lächerlich was die Whitepaper nennen.

https://forum.beyond3d.com/posts/1908151/

Nettes video fuer techno-nerds (und nein GM200 hat natuerlich nicht 9b.... :P )

phoenix887
2016-04-21, 06:46:56
GTX 1080 ca. 1,7 GHz -> Titan @ 1,4 GHz

gegen eine GTX 980ti sind es ca. 1,55 GHz


Berichtigt mich falls ich falsch liege. :tongue:


Dann kann ich Nachts ja ruhig schlafen;D

Triniter
2016-04-21, 07:20:04
Dann kann ich Nachts ja ruhig schlafen;D
Geht mir auch so, bin mal gespannt wie lange die Gesichter bei denen sein werden, die jetzt die 980ti verkaufen in der Hoffnung es kommt eine Pascal ti mit locker 50% Mehrleistung.

Sollte es wieder Erwarten doch so kommen kann man immer noch verkaufen und muss halt ein etwas größeres Delta berappen aber die Wahrscheinlichkeit sehe ich bei weit unter 10%.

rentex
2016-04-21, 07:45:26
Ich reime mir mal folgendes zusammen: die 1080er ist leistungstechnisch nichts anderes als ne oc'ed 980ti (10 bis 15 % Mehrleistung) und weniger Verbrauch. Asynchronous Shader wird nicht sonderlich ausgebaut worden sein (war ja zum Designzeitpunkt auch nicht gefragt).
Ich setze auf Volta, was Leistung und Chipdesign an geht.

Leonidas
2016-04-21, 08:16:01
Stand nicht auch das Gerücht im Raum, dass der kleinste GP104-Ableger kein Referenzdesign erhalten soll und nur als Partnerdesigns in den Markt geht, ähnlich wie die GTX 970? Damit wäre ein GP104-150 als GTX 1060 (Ti) auch nicht ganz vom Tisch)


Hab ich gar nicht bedacht, liefert aber die Auflösung: Da es von GP104-150 keine Referenzdesigns gibt, muß selbig Grafikkarte auch nicht beim default-Kühler beachtet werden. Damit ist ziemlich sicher, das es folgendermaßen kommt:

GP104-400 -> GTX 1080
GP104-200 -> GTX 1070

Platz für eine "1075" gibt es hier nicht, da beim Kühler schon die letzte Null gestanzt ist.

Damit kommt die dritte GP104-Version vermutlich auch als "GTX 1070" - entweder als einzige nur mit GDDR5 oder als einzige nur mit 4 GB Speicher. Alternativ wäre nur noch "GTX 1065" oder "GTX 1060 Ti" denkbar.

Hübie
2016-04-21, 09:36:09
https://forum.beyond3d.com/posts/1908151/

Nettes video fuer techno-nerds (und nein GM200 hat natuerlich nicht 9b.... :P )

Kenne sowohl das Lab als auch das Video bereits, danke :D Kann ich jedem empfehlen mal anzusehen um vielleicht mal etwas mehr Überblick zu bekommen, wie der Entwicklungsprozess abläuft. Die 9 Billion sind vielleicht mit Redundanz und ab 0,5 rundet man eh auf. :D

Ailuros
2016-04-21, 09:55:33
Kenne sowohl das Lab als auch das Video bereits, danke :D Kann ich jedem empfehlen mal anzusehen um vielleicht mal etwas mehr Überblick zu bekommen, wie der Entwicklungsprozess abläuft. Die 9 Billion sind vielleicht mit Redundanz und ab 0,5 rundet man eh auf. :D

Und das hier ist das eigentliche P100 whitepaper: https://images.nvidia.com/content/pdf/tesla/whitepaper/pascal-architecture-whitepaper.pdf

Hübie
2016-04-21, 10:08:58
Ist exakt die Broschüre die Dural verlinkt hat ;)

Edit: Jetzt muss ich mal auf doof fragen: wieso kann man eigentlich keine FP32-Operandenn auf eine dedizierte FP64 mappen? :| Das würde zwar nicht die Performance geben wie native Operationen, aber würde doch die Gesamtperformance anheben, oder? Liegt wahrscheinlich an der Verschaltung innerhalb einer ALU.:uponder:

iuno
2016-04-21, 10:21:09
Immerhin haben sie in dem pdf den "spacer" weggelassen, ueber den Gipsel sich so lustig gemacht hat ;D
The top memory die layer is very thick. When assembled, the top die and GPU are ground to the same height to present a coplanar surface for a heat sink.

Ailuros
2016-04-21, 10:31:37
Womoeglich bloede Laienfrage aber ist es nur eine Frage der Datenschaltung oder eher eine Frage der Datenstroeme? Denn ich kann mir vorstellen dass in ein Tunnel ein dicker, duennerer und noch duennerer Zug passen koennte, aber es wird wohl nicht Gleise fuer 3 gleichzeitige (unterschiedlich dicken :P Zuegen) geben oder?

reaperrr
2016-04-21, 10:33:35
Damit kommt die dritte GP104-Version vermutlich auch als "GTX 1070" - entweder als einzige nur mit GDDR5 oder als einzige nur mit 4 GB Speicher. Alternativ wäre nur noch "GTX 1065" oder "GTX 1060 Ti" denkbar.
Schonmal dran gedacht, dass diese Karte aus Yield-Gründen nur 192 bit SI und 6GB haben könnte?

Wenn SM und Chiptakt genug reduziert werden, sollte das nämlich auch reichen, um nicht zu limitieren, und attraktiver als eine 970 wäre es insgesamt allemal.

BlacKi
2016-04-21, 11:03:54
Geht mir auch so, bin mal gespannt wie lange die Gesichter bei denen sein werden, die jetzt die 980ti verkaufen in der Hoffnung es kommt eine Pascal ti mit locker 50% Mehrleistung.

Sollte es wieder Erwarten doch so kommen kann man immer noch verkaufen und muss halt ein etwas größeres Delta berappen aber die Wahrscheinlichkeit sehe ich bei weit unter 10%.
in erster linie verkaufen die leute die 980ti um dem wertverfall von knapp 150€ in den nächsten 1-2 monaten aus dem weg zu gehen. lieber jetzt für 500-550 abdrücken als nächsten monat nach dem pascal release für 350-400. gp104 schafft keine 50% ggü. der 980ti.

wegen den referenz cover anfertigungen: geht ihr wirklich davon aus das die produkte nicht fake sind?

Gipsel
2016-04-21, 11:23:38
Edit: Jetzt muss ich mal auf doof fragen: wieso kann man eigentlich keine FP32-Operandenn auf eine dedizierte FP64 mappen?Weil es immer noch nicht so richtig klar ist, ob das wirklich eine echt separierte Einheit ist? Die wird sich wohl irgendwas mit einen oder zweien FP32-ALUs teilen, falls da überhaupt irgendwas physisch getrenntes ausmachen läßt.
Eine andere Erklärung wären eventuell die Komplikationen für Scheduling und die Registerbandbreite.

========================

Immerhin haben sie in dem pdf den "spacer" weggelassen, ueber den Gipsel sich so lustig gemacht hat ;DDa dürften bei nV auch ein paar Leute kräftig mit den Augen gerollt haben, als die das gesehen haben. Mich würde mal interessieren, wie der abstruse Fehler in den Folien durchgerutscht ist. Aber nun ja, kann wohl schon mal vorkommen, daß Folien vom Praktikanten bearbeitet werden und dann aus Zeitmangel oder was auch immer keiner mit Ahnung noch mal drüber schaut.

DrumDub
2016-04-21, 11:34:00
wegen den referenz cover anfertigungen: geht ihr wirklich davon aus das die produkte nicht fake sind? ja, siehe auch heise newstticker (http://www.heise.de/newsticker/meldung/Details-zur-GeForce-GTX-1080-im-Mai-AMD-Polaris-ab-Juni-3178541.html).

Ailuros
2016-04-21, 11:36:03
Da dürften bei nV auch ein paar Leute kräftig mit den Augen gerollt haben, als die das gesehen haben. Mich würde mal interessieren, wie der abstruse Fehler in den Folien durchgerutscht ist. Aber nun ja, kann wohl schon mal vorkommen, daß Folien vom Praktikanten bearbeitet werden und dann aus Zeitmangel oder was auch immer keiner mit Ahnung noch mal drüber schaut.

Falls es sich um oeffentliches Material handeln sollte wird leider alles von Marketing Leuten geschrieben.

Leonidas
2016-04-21, 11:54:12
Schonmal dran gedacht, dass diese Karte aus Yield-Gründen nur 192 bit SI und 6GB haben könnte?

Wenn SM und Chiptakt genug reduziert werden, sollte das nämlich auch reichen, um nicht zu limitieren, und attraktiver als eine 970 wäre es insgesamt allemal.


Absolut denkbar und hat sogar etwas für sich.

Nakai
2016-04-21, 12:02:28
Ist exakt die Broschüre die Dural verlinkt hat ;)

Edit: Jetzt muss ich mal auf doof fragen: wieso kann man eigentlich keine FP32-Operandenn auf eine dedizierte FP64 mappen? :| Das würde zwar nicht die Performance geben wie native Operationen, aber würde doch die Gesamtperformance anheben, oder? Liegt wahrscheinlich an der Verschaltung innerhalb einer ALU.:uponder:

Also bei den meisten X86-FPUs gibt es da kaum einen Unterschied. Da wird FP32 auch auf den FP64-Einheiten verarbeitet, aber zum Schluss truncated, um die zusätzlichen Bits abzuschneiden. Numerisch ist das schon sehr spektakulär, was schon zu netten Nebeneffekten führen kann.

http://christian-seiler.de/projekte/fpmath/

mksn7
2016-04-21, 12:17:01
Aber auch nur bei der X87 FPU, die intern (immer?) in 80bit gerechnet hat. Wenn für x64 kompiliert wird, ist SSE2 Support vorgeschrieben und dann werden die skalaren SSE Befehle verwendet.

Sowas würde man heute wahrscheinlich aus Energiegründen nicht mehr machen? Ist für SIMD ja auch doof. Man ist sich denke ich auch einig dass die höhere interne Präzision wegen der Unvorhersehbarkeit tatsächlich eher schlechter ist.

scully1234
2016-04-21, 12:27:09
https://forum.beyond3d.com/posts/1908151/

Nettes video fuer techno-nerds (und nein GM200 hat natuerlich nicht 9b.... :P )

Apu Nahasapeemapetilon haette aber auch mal sein GPU Man Cave aufraeumen koennen,wenn er schon Besuch erwartet:biggrin:

Beim naechsten Top Dog den er simuliert ,muss er wohl noch n paar Regale bauen.

Nakai
2016-04-21, 12:42:58
Aber auch nur bei der X87 FPU, die intern (immer?) in 80bit gerechnet hat. Wenn für x64 kompiliert wird, ist SSE2 Support vorgeschrieben und dann werden die skalaren SSE Befehle verwendet.

Sowas würde man heute wahrscheinlich aus Energiegründen nicht mehr machen? Ist für SIMD ja auch doof. Man ist sich denke ich auch einig dass die höhere interne Präzision wegen der Unvorhersehbarkeit tatsächlich eher schlechter ist.

Nein, die Antwort lautet: Es kommt drauf an.

Bei Visual Studio C++ ist das schon korrekt, aber für andere Compiler (MinGW, GCC, etc.) wird es sehr interessant. Da hängt es davon ab, wie der Compiler konfiguriert ist bzw. wie der Compiler die FPU initialisiert.

https://randomascii.wordpress.com/2012/03/21/intermediate-floating-point-precision/

In The C Programming Language, Copyright © 1978 (prior to the 1985 IEEE 754 standard for floating point), Kernighan and Ritchie wrote:

All floating arithmetic in C is carried out in double-precision; whenever a float appears in an expression it is lengthened to double by zero-padding its fraction.

However the C++ 1998 standard does not appear to contain that language. The most obvious governing language is the usual arithmetic conversions (section 5.9 in the 1998 standard) which basically says that double-precision is only used if the expression contains a double:

5.9: If the above condition is not met and either operand is of type double, the other operand is converted to type double.

But the C++ 1998 standard also appears to permit floating-point math to be done at higher precisions if a compiler feels like it:

5.10 The values of the floating operands and the results of floating expressions may be represented in greater
precision and range than that required by the type; the types are not changed thereby.55)

The C99 standard also appears to permit but not require floating-point math to be done at higher precision:

Evaluation type may be wider than semantic type – wide evaluation does not widen semantic type

And Intel’s compiler lets you choose whether intermediate results should use the precision of the source numbers, double precision, or extended precision.

/fp:double: Rounds intermediate results to 53-bit (double) precision and enables value-safe optimizations.

Apparently compilers may use greater precision for intermediates, but should they?

The classic Goldberg article points out errors that can occur from doing calculations on floats using double precision:

This suggests that computing every expression in the highest precision available is not a good rule.

On the other hand, a well reasoned article by Microsoft’s Eric Fleegal says:

It is generally more desirable to compute the intermediate results in as high as [sic] precision as is practical.

The consensus is clear: sometimes having high-precision intermediates is great, and sometimes it is horrible. The IEEE math standard defers to the C++ standard, which defers to compiler writers, which sometimes then defer to developers.

Für einen Maschine Learning MRI Segmentierungsalgorithmus hatte ich sogar ein richtiges Problem. Der Algorithmus iterierte sich zu Tode. Der Grund war, dass bei starker Optimierung (O3) eben "intermediate" in FP64 gerechnet wurde. Da war es egal, ob X87 oder SSE. Ein iterativer Compare zwischen zwei Floats iterierte sich zu Tode, weil die beiden Floats niemals bitgenau gleich wurden. Der Algorithmus wurde angepasst, ergo die FPU-Flags, sowie Compiler-Flags wurde angepasst. Dabei kam die Software von Oxford...

N0Thing
2016-04-21, 13:18:09
https://forum.beyond3d.com/posts/1908151/

Nettes video fuer techno-nerds (und nein GM200 hat natuerlich nicht 9b.... :P )

Wurde schon vor ein paar Tagen hier im Forum gepostet, vielleicht ist es von hier ins B3D gewandert. ^^

http://youtu.be/pRz_CG3DZb4

Was ich auch ganz interessant fand, sofern ich mich nicht verhört habe, Nvidia überprüft dort auch schon ihre 10nm Testchips.

https://youtu.be/pRz_CG3DZb4?t=486

Dural
2016-04-21, 14:31:46
niemanden aufgefallen das der angebliche GM200 im Video ein Fertigungsdatum von 1219 hat? finde das sehr früh, dürfte wohl mehr ein GK110 sein.

Hübie
2016-04-21, 15:36:03
Also bei den meisten X86-FPUs gibt es da kaum einen Unterschied. Da wird FP32 auch auf den FP64-Einheiten verarbeitet, aber zum Schluss truncated, um die zusätzlichen Bits abzuschneiden. Numerisch ist das schon sehr spektakulär, was schon zu netten Nebeneffekten führen kann.

http://christian-seiler.de/projekte/fpmath/

Interessant. Hab mir jetzt nur den wichtigsten Teil durchgelesen. Das sind Dinge die man so nicht erfährt. :)

Das rückt die Info von "dedizierten FP64 ALUs" in ein Licht wie Gipsel es darstellte. Ein simples loopen dürfte es in dem Fall jedoch nicht sein, aber offenbar wird z. B. im GK110/210 an FP32 in Cluster verschaltet so dass 64 Bit breite Operanten durchlaufen können. Und da die Registerbandbreite sich nicht magisch verdoppelt bleibt es bei 1:2. So stell ich mir das gerade vor.

Edit: Entsprechend dieser Annahme muss der Operand-collector und der Scheduler auch dementsprechend angebunden sein.

Godmode
2016-04-21, 15:47:03
Zum "Whitepaper" nochmal: Ganz interessant ist die Anbindung von NVLink und PCIe. Es gibt in der GPU einen Highspeed-Hub, der NVLink und PCIe mit der globalen Crossbar verbindet.

mksn7
2016-04-21, 17:07:51
Nein, die Antwort lautet: Es kommt drauf an.

Bei Visual Studio C++ ist das schon korrekt, aber für andere Compiler (MinGW, GCC, etc.) wird es sehr interessant. Da hängt es davon ab, wie der Compiler konfiguriert ist bzw. wie der Compiler die FPU initialisiert.


Ich hätte jetzt mal sogar behauptet dass heute in der Praxis per default alle modernen Compiler SSE generieren wenn für 64bit kompiliert wird. Sonst natürlich nicht, weil die Existenz von SSE ja nicht sicher ist. Dann wird auch nur auf double erweitert wenn ein Operand ein double ist. Was aber auch schnell mal passieren kann, weil Konstanten wie 3.2 per default double sind.

mczak
2016-04-21, 17:42:01
Ich hätte jetzt mal sogar behauptet dass heute in der Praxis per default alle modernen Compiler SSE generieren wenn für 64bit kompiliert wird.

Das ist sogar mehr oder weniger zwingend (weil für x87 FPU keine calling convention existiert) - klar es geht auch ohne solange man keine Libraries baut, macht aber wirklich kein Compiler.
Sonst natürlich nicht, weil die Existenz von SSE ja nicht sicher ist.

Was übrigens ganz nette Effekte nach sich ziehen kann. Wenn man z.B. ints-disguised-as-floats rumkopiert, kann es gut sein dass die Daten plötzlich über die x87-FPU verschoben werden und die Werte verändert werden (diejenigen die NaNs darstellen). Von den Entwicklern merkt's natürlich keiner, denn die haben alle schon vor Jahrzehnten auf 64bit gewechselt :biggrin:.

Dann wird auch nur auf double erweitert wenn ein Operand ein double ist. Was aber auch schnell mal passieren kann, weil Konstanten wie 3.2 per default double sind.
So ist es. Immer schön brav das "f" hintendran machen :rolleyes:.

Nakai
2016-04-21, 17:52:25
Ich hätte jetzt mal sogar behauptet dass heute in der Praxis per default alle modernen Compiler SSE generieren wenn für 64bit kompiliert wird. Sonst natürlich nicht, weil die Existenz von SSE ja nicht sicher ist. Dann wird auch nur auf double erweitert wenn ein Operand ein double ist. Was aber auch schnell mal passieren kann, weil Konstanten wie 3.2 per default double sind.

Ja, bei X86-64 sollte SSE automatisch verwendet werden. X87 wird wohl nicht unterstützt, da bei einem Kontextswitch bestimmt nicht das ganze Controlregister wiederhergestellt werden. Sicherlich kann man per Assembler X87 ansprechen.
;)

Das Problem bei X87 ist einfach, dass, solange die internen Register verwendet werden, dass die Präzision eben anhand des X87-Controlregisters eingestellt wird. Erst wenn in den RAM geschrieben wird, wird dann richtig truncated.
Bei hoher Optimierung ist das ein Problem.

SSE hat dementsprechend 32Bit und 64Bit Register und eben korrespondierende Instruktionen für FP32 und FP64. Kurz, da sollte das Problem nicht bestehen. Soweit ich aber weiß, werden auf FP32-Zahlen wie FP64-Zahlen intern behandelt. Ergo die Ausführungseinheiten sind volle FP64-Einheiten und bei FP32-Operationen wird intern mit einer höheren Präzision gerechnet. Nur beim Writeback wird wieder auf den jeweiligen Datentyp truncated.

mczak
2016-04-21, 18:28:24
Joweit ich aber weiß, werden auf FP32-Zahlen wie FP64-Zahlen intern behandelt. Ergo die Ausführungseinheiten sind volle FP64-Einheiten und bei FP32-Operationen wird intern mit einer höheren Präzision gerechnet. Nur beim Writeback wird wieder auf den jeweiligen Datentyp truncated.
Kann ich mir beim besten Willen nicht vorstellen, das wäre nicht effizient.
Es gibt genügend CPUs bei denen das ganz sicher nicht der Fall ist, denn die haben höhere Latenzzeiten (oder sogar tieferen Durchsatz) für double vs. single float Multiplikationen (atoms, jaguar, Core2, Nehalem beispielsweise).

Nakai
2016-04-21, 19:46:53
Kann ich mir beim besten Willen nicht vorstellen, das wäre nicht effizient.
Es gibt genügend CPUs bei denen das ganz sicher nicht der Fall ist, denn die haben höhere Latenzzeiten (oder sogar tieferen Durchsatz) für double vs. single float Multiplikationen (atoms, jaguar, Core2, Nehalem beispielsweise).

Normalerweise sind es auch immer Registerpaare, also 2 32Bit Register sind ein 64Bit Register. Wenn es vektorisierte Einheiten sind, dann ist die Latenz meistens bei FP32 und FP64 identisch, nur der Durchsatz ist bei FP32 eben doppelt so hoch. Und klar, es gibt Architekturen, wo das eben anders ist.

Ansonsten sollte die X87-Hardware "extern" gehandelt werden. Sie ist skalar und eben nicht SIMD-basiert. Wie es intern abgearbeitet wird, bleibt trotzdem unklar. Ich ziehe das mal zur Rate:

http://www.agner.org/optimize/instruction_tables.pdf

Was sind äquivalente Instruktionen? FMUL und MULSS? Ich nehme nur die Register-Varianten, ohne Memory-Access.

Jaguar:
FMUL Latenz: 5 Port: FP1
MULSS Latenz: 2 Port: FP1

Gleicher Port, aber unterschiedliche Latenz sprechen entweder für die gleiche Einheit aber teildeaktiviert oder eben zwei unterschiedliche Einheiten. Da X87 intern immer mit voller Präzision arbeitet, ergitb sich daraus schon eine höhere Latenz.

Haswell:
FMUL Latenz: 5 Pipe: p0
MULSS Latenz: 5 Pipe: p0 oder p1

X87 nur auf Pipe0 und SSE eben auf Pipe0 oder 1.

Andere Microarchitekturen werde ich mal nicht darlegen. Aber jede Architektur löst das eh anders. Im Grunde sind hinter den Ports/Pipes eh nur Funktionseinheiten definiert, welche dann eben durch die MicroOps angesprochen werden. Einen Unterschied zwischen FP64 oder FP32 bzgl er Latenz habe ich nun nicht ausfindig machen können. Eher wird dann am parallelen Durchsatz gedreht.

Mal bzgl Nehalem:
http://sc.tamu.edu/systems/eos/#nehalem_intel64

Nehalem's execution engine (see Fig. 7) contains the ALU circuitry necessary to carry out two double-precision, or four single-precision "simple" FP operations, such as addition or subtraction, in each one of the two FP units accessible through ports 0 and 1. Note that Nehalem execution engine can retire up to 4 operations per clock cycle, including the SIMD FP ones.

Intern sind es eben zwei FP64 Einheiten, welche wohl splittbar auf 4 FP32-Einheiten sind. Wie das genau für bestimmte Architekturen gelöst ist keine Ahnung. Ich hab nur das hier mal gefunden:
http://stackoverflow.com/questions/15655835/flops-per-cycle-for-sandy-bridge-and-haswell-sse2-avx-avx2

Intel Core 2 and Nehalem:

4 DP FLOPs/cycle: 2-wide SSE2 addition + 2-wide SSE2 multiplication
8 SP FLOPs/cycle: 4-wide SSE addition + 4-wide SSE multiplication
Intel Sandy Bridge/Ivy Bridge:

8 DP FLOPs/cycle: 4-wide AVX addition + 4-wide AVX multiplication
16 SP FLOPs/cycle: 8-wide AVX addition + 8-wide AVX multiplication
Intel Haswell/Broadwell/Skylake:

16 DP FLOPs/cycle: two 4-wide FMA (fused multiply-add) instructions
32 SP FLOPs/cycle: two 8-wide FMA (fused multiply-add) instructions
AMD K10:

4 DP FLOPs/cycle: 2-wide SSE2 addition + 2-wide SSE2 multiplication
8 SP FLOPs/cycle: 4-wide SSE addition + 4-wide SSE multiplication
AMD Bulldozer/Piledriver/Steamroller, per module (two cores):

8 DP FLOPs/cycle: 4-wide FMA
16 SP FLOPs/cycle: 8-wide FMA
Intel Atom (Bonnell/45nm, Saltwell/32nm, Silvermont/22nm):

1.5 DP FLOPs/cycle: scalar SSE2 addition + scalar SSE2 multiplication every other cycle
6 SP FLOPs/cycle: 4-wide SSE addition + 4-wide SSE multiplication every other cycle
AMD Bobcat:

1.5 DP FLOPs/cycle: scalar SSE2 addition + scalar SSE2 multiplication every other cycle
4 SP FLOPs/cycle: 4-wide SSE addition every other cycle + 4-wide SSE multiplication every other cycle
AMD Jaguar:

3 DP FLOPs/cycle: 4-wide AVX addition every other cycle + 4-wide AVX multiplication in four cycles
8 SP FLOPs/cycle: 8-wide AVX addition every other cycle + 8-wide AVX multiplication every other cycle
ARM Cortex-A9:

1.5 DP FLOPs/cycle: scalar addition + scalar multiplication every other cycle
4 SP FLOPs/cycle: 4-wide NEON addition every other cycle + 4-wide NEON multiplication every other cycle
ARM Cortex-A15:

2 DP FLOPs/cycle: scalar FMA or scalar multiply-add
8 SP FLOPs/cycle: 4-wide NEONv2 FMA or 4-wide NEON multiply-add
Qualcomm Krait:

2 DP FLOPs/cycle: scalar FMA or scalar multiply-add
8 SP FLOPs/cycle: 4-wide NEONv2 FMA or 4-wide NEON multiply-add
IBM PowerPC A2 (Blue Gene/Q), per core:

8 DP FLOPs/cycle: 4-wide QPX FMA every cycle
SP elements are extended to DP and processed on the same units
IBM PowerPC A2 (Blue Gene/Q), per thread:

4 DP FLOPs/cycle: 4-wide QPX FMA every other cycle
SP elements are extended to DP and processed on the same units
Intel Xeon Phi (Knights Corner), per core:

16 DP FLOPs/cycle: 8-wide FMA every cycle
32 SP FLOPs/cycle: 16-wide FMA every cycle
Intel Xeon Phi (Knights Corner), per thread:

8 DP FLOPs/cycle: 8-wide FMA every other cycle
16 SP FLOPs/cycle: 16-wide FMA every other cycle

Kurz, meine Aussage bzgl FP32 auf FP64-Einheiten ist falsch und es sind eher MixedPrecision-Einheiten. Nur bei PowerPC wird FP32 auf FP64 ausgeführt. ;D

mczak
2016-04-21, 22:45:31
http://www.agner.org/optimize/instruction_tables.pdf

Was sind äquivalente Instruktionen? FMUL und MULSS? Ich nehme nur die Register-Varianten, ohne Memory-Access.

Nun, wenn ich DP und SP vergleiche, beziehe ich mich immer auf SSE. Also MULSS vs. MULSD (skalar) bzw. MULPS vs. MULPD (vektor). x87 hat genügend eigene Probleme...
Und klar, der x87-Multiplizierer braucht am Ende fast sicher dieselbe HW wie derjenige der SSE-Einheit (es könnte z.B. sein dass einer der SSE-64bit Multiplizierer eben mehr Bits verarbeiten kann - das wäre dann bei Haswell der bei Port 0). Ob da wirklich komplett separate Multiplizierer vorhanden sind für 32bit und 64bit oder ob man die teildeaktivieren oder zusammenschalten kann oder was auch immer keine Ahnung - ging mir nur darum dass eben nicht einfach alles mit doppelter Genauigkeit gerechnet wird.

Troyan
2016-04-22, 10:57:23
Wohl neue Bilder von GP104:
http://www.overclock.net/t/1598114/chiphell-possible-gtx-1070-and-gtx-1080-price-revealed/120#post_25095998

BlacKi
2016-04-22, 11:55:06
Wohl neue Bilder von GP104:
http://www.overclock.net/t/1598114/chiphell-possible-gtx-1070-and-gtx-1080-price-revealed/120#post_25095998
350mm² leider etwas unscharf.

Thunder99
2016-04-22, 12:02:00
Können hier die Experten GDDR5X erkennen oder doch nur GDDR5? :D

~350mm² ist eine gesunde Größe finde ich. Dann könnte ja der TopDog GP102 um die 450-550 sein um dennoch wirtschaftlich für den Gamer zum produzieren zu sein ^^

Godmode
2016-04-22, 12:16:15
Wohl neue Bilder von GP104:
http://www.overclock.net/t/1598114/chiphell-possible-gtx-1070-and-gtx-1080-price-revealed/120#post_25095998

Wie schaffen die es immer, total verschwommene Fotos zu machen? Entweder ist das Absicht, oder die sind einfach zu blöd dazu.

Beim Speicher erkennt man leider nicht wirklich, ob das GDDR5 oder GDDR5X ist.

Ailuros
2016-04-22, 12:40:11
Wie schaffen die es immer, total verschwommene Fotos zu machen? Entweder ist das Absicht, oder die sind einfach zu blöd dazu.

Beim Speicher erkennt man leider nicht wirklich, ob das GDDR5 oder GDDR5X ist.

Noch schlimmer es wird immer von einem daemlichen Winkel aufgenommen so dass man fast immer die Groesse falsch einschaetzen wird.

iuno
2016-04-22, 12:42:02
MMn. sind das Samsung Chips, die bauen kein GDDR5X.
Die Beschriftung ist charakteristisch, links oben der quadratische binaere Code, darunter "SAMSUNG" (Achtung: die Chips sind natuerlich verdreht, ganz rechts unten ist z.B. "richtig" herum)

Aber immerhin 8 Stueck davon -> SI beim GP104-200 nicht beschnitten (zumindest nicht offensichtlich *SCNR*)

scully1234
2016-04-22, 12:55:08
Wie schaffen die es immer, total verschwommene Fotos zu machen? .

Vielleicht musste es schnell gehen ,immerhin bewegt man sich da ja derzeit immer noch in ner rechtlich nicht ganz einwandfreien Situation, solange die NDAs es nicht zu lassen da was zu veroeffentlichen:smile:

Oder Jensen hat gerade angeklopft

iuno
2016-04-22, 13:06:15
Also damit ich auch mal eine Vermutung in den Raum werfe: ~330 mm²

;D

Thunder99
2016-04-22, 13:35:51
Dann kann man, wenn es zutrifft, davon ausgehen, dass der kleine GP104 aka 1070 nur mit GDDR5 kommt und damit aus gebremst wird zum voll aktiviertem Chip (400).

Wollen wir nur hoffen das es die einzige Bandbreitenbeschränkung ist und nicht auch noch was wie bei der GTX970 passiert :wink:

reaperrr
2016-04-22, 13:55:00
Dann kann man, wenn es zutrifft, davon ausgehen, dass der kleine GP104 aka 1070 nur mit GDDR5 kommt und damit aus gebremst wird zum voll aktiviertem Chip (400).
Nicht unbedingt.
Der L2-Cache wurde wahrscheinlich auf 4MB verdoppelt, eventuell konnte Nvidia noch ein paar Prozent bei der DCC rauskitzeln, und die schnellsten GDDR5-Chips schaffen immerhin 8 GHz. Wenn das volle 256-bit SI bei der 1070 aktiv ist, wäre das für eine Leistung über der GTX 980 genug Bandbreite.

iuno
2016-04-22, 14:01:14
Mit "gebremst" meinte er wohl eher, dass klare Grenzen gesetzt sind.
Das macht in meinen Augen auch Sinn, die Situation Karten fast auf das naechsthoehere Niveau uebertakten zu koennen, kann Nvidia nicht wollen.
Ist aber natuerlich weiterhin alles Speku, wir wissen ja nicht mal, ob die grosse Karte uberhaupt 5X bekommt.

Nakai
2016-04-22, 14:01:43
Man braucht für GDDR5X definitiv eine neue Platine. Ein neues Package wäre auch möglich, aber wohl vorerst nicht geplant...wäre auch etwas inconventient.

Es macht viel Sinn, dass die GTX1070 nur GDDR5 hat, während eben eine GTX1080 GDDR5X erhält. Wenn erstmal nur 10 Gbps für GDDR5X kommt, wäre das ein Upgrade von 25% von 8 Gbps oder gar ~42% von 7 Gbps.

Damit wäre eine GTX1080 bei ~320GB/s und GTX1070 bei 256GB/s. Das passt hervorragend zu den 2560 SPs und einem höheren Takt. Dann wird man wohl eine GTX 1070 eher gegen P10-XT stellen.

Die Diesize wird ziemlich genau 300mm² sein. Ich denke sogar etwas darunter.

Thunder99
2016-04-22, 14:06:11
Mit "gebremst" meinte er wohl eher, dass klare Grenzen gesetzt sind.
Das macht in meinen Augen auch Sinn, die Situation Karten fast auf das naechsthoehere Niveau uebertakten zu koennen, kann Nvidia nicht wollen.
Ist aber natuerlich weiterhin alles Speku, wir wissen ja nicht mal, ob die grosse Karte uberhaupt 5X bekommt.
This! :) :up:

Bisher war es ja so, dass bei vielen Karten ja nur der Chiptakt und Shader Einheiten gesenkt wurde, nicht aber der Speichertakt. Dadurch konnte man ja mehr aus dem Chip raus holen und besser zum großen Bruder aufschließen als gewollt.

Mit der 970 hat nvidia ja effektiv was dagegen unternommen. Und beim kleinen GP104 könnte dies ja durch die Wahl des Speichers geschehen was ja besser wäre für den Kunden (als eine Cache Beschneidung aka 970).

Bleibt spannend :D

HOT
2016-04-22, 14:18:54
Der ist doch keine 350mm² groß. Das mit den angepeilten 300mm² wird da schon hinkommen. Man kann ja mal nen Tahiti oder Tonga danebenlegen und grob schätzen (wobei die ja gedreht verbaut sind wegen den 384Bit).
Zudem scheint es 256Bit GDDR5 zu sein.

iuno
2016-04-22, 14:35:29
Also ich habe mich am Package orientiert, das hat 37,5 x 37,5 mm

Complicated
2016-04-22, 15:48:34
Auf diesem Bild ist Samsung sogar sehr gut zu lesen:
http://cdn.overclock.net/7/7e/900x900px-LL-7e385297_NVIDIA-Pascal-GP104-GPu.jpeg

Dural
2016-04-22, 15:59:58
ca. 300mm2 dürften hinkommen.

Dies dürfte die "1070" sein, somit können wir immer noch hofen das die 1080 GDDR5X hat.

Edit:
Ist doch scharf genug ;)

Rampage 2
2016-04-22, 16:44:58
Es macht viel Sinn, dass die GTX1070 nur GDDR5 hat, während eben eine GTX1080 GDDR5X erhält. Wenn erstmal nur 10 Gbps für GDDR5X kommt, wäre das ein Upgrade von 25% von 8 Gbps oder gar ~42% von 7 Gbps.

Damit wäre eine GTX1080 bei ~320GB/s und GTX1070 bei 256GB/s. Das passt hervorragend zu den 2560 SPs und einem höheren Takt. Dann wird man wohl eine GTX 1070 eher gegen P10-XT stellen.


Ich lese ja immer wieder, dass GP102 (also kastrierter GP100 für den Consumer-Segment) gar nicht kommen wird - wäre es in einem solchen Fall möglich, dass der GP104-Vollausbau in Wirklichkeit sogar noch größer ist und Nvidia erstmal nur abgespeckte Varianten (eben z.B. "GTX 1080" mit "nur" 2560SPs & niedriggetaktetem GDDR5X) auf den Markt wirft?

Denn, wenn GP102 tatsächlich nicht kommen sollte, dann müsste NV die Zeit bis Volta allein mit der GP104 überstehen - und 2560SPs sind irgendwie einfach zu wenig...

zur hypothetischen "GTX 1070": Da sie angeblich nur mit GDDR5 bestückt werden soll, ist es wohl sehr wahrscheinlich, dass hier gleich die maximale Ausbaustufe (8Gbps = 256GB/sec. Bandbreite) eingesetzt wird, oder?

R2

mczak
2016-04-22, 16:51:02
Beim Speicher erkennt man leider nicht wirklich, ob das GDDR5 oder GDDR5X ist.
Sind K4G80325FB-HC25, also kommune 8gbit, 8Ghz gddr5 Chips. Ich nehme mal an dass die auch damit getaktet werden (der Takt könnte natürlich theoretisch auch etwas darunter liegen).

Dural
2016-04-22, 17:20:02
Kann auch gut sein das die 1070 zuerst kommt, und die 1080 ein reiner Paperlaunch wird, verfügbar mal im Sommer.

scully1234
2016-04-22, 17:45:12
Ich lese ja immer wieder, dass GP102 (also kastrierter GP100 für den Consumer-Segment) gar nicht kommen wird -

Der wird schon noch kommen ,wenn wieder Raum zum Atmen ist.
Da gibt es seit Kepler erstmal viel aufzuholen im Profisektor, und die werden sich mit GP100 wohl jetzt erstmal die Finger wund produzieren.
Intel duerfte da schier auch nen Schuss vor den Bug bekommen haben mit Xeon Phi, aufgrund der schieren Groesse und Aufbau des Chips.
Jetzt will man mit den GP104 ein ganzes ''Highend'' Lineup fahren. Wenn man da nicht in der Lage ist TSMC ueber Monate hinweg zu blockieren, wird's denke ich mal schwer da noch Produktionsstrassen zu finden fuer weitere Chips.
Den GP106 hat man ja nun auch schon in den Herbst verpflanzt

Nakai
2016-04-22, 18:22:56
Apple verstopft alles. Für gp104 und gp100 reicht es wohl. Für kleinere Modelle wird man bis Herbst warten müssen.

AMD hat GF und macht es dadurch umgekehrt. Ob GF für große Chips noch problematisch ist?

Thunder99
2016-04-22, 18:25:26
Mit ein Grund warum AMD bei Globalfountry produziert denke ich. Fabs werden gut ausgelastet sein mit nvidia und den ganzen mobil Chips

Ailuros
2016-04-22, 18:58:08
GP204-200 hat GDDR5 und soll die GTX980 ersetzen. Sonst:

http://cdn.videocardz.com/1/2016/04/NVIDIA-Pascal-GP104-vs-GM200-vs-GM204-GPU-Comparison.jpg

http://videocardz.com/59266/nvidia-pascal-gp104-gpu-pictured-up-close

.

igg
2016-04-22, 20:43:31
GP204 und nicht GP104?

AnarchX
2016-04-23, 08:15:06
GDDR5X auf der 400er-SKU/GTX 1080 bestätigt: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/

ShinyMcShine
2016-04-23, 08:43:43
GDDR5X auf der 400er-SKU/GTX 1080 bestätigt: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/

That's good news! :up:

Troyan
2016-04-23, 09:25:41
Mit 320mm^2 sollten es wohl über 8 Milliarden Transistoren sein. Gekoppelt mit 384GB/s und der Fähigkeit den Chip auf 1500MHz zu takten, kann man wohl mit knapp 50% zur Referenz-GTX980TI rechnen.

Sieht doch ganz gut aus für den ersten Versuch.

fondness
2016-04-23, 09:30:39
Interessant, also GDDR5X wohl doch schon ab Juni verfügbar?!

Gipsel
2016-04-23, 10:00:15
GDDR5X auf der 400er-SKU/GTX 1080 bestätigt: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/
Na daß die auf der Micron-Website nicht gelistet sind, wie in dem Artikel behauptet, stimmt nicht so ganz. Man muß nur "Z9TXT" in den FBGA part marking decoder auf der Micron-Website tippern (bei Micron stehen die Typenbezeichnungen nie direkt drauf) und man erhält:

MT58K256M32JA-100 ES:A

Also 8GBit (256Mx32), 10 GBps und es ist noch ein Engineering Sample der Revision A. Das ist (bis auf den Zusatz "ES") eins der drei gelisteten Module, das langsamste.

y33H@
2016-04-23, 10:06:51
Laut Spec sind es 11 Gbps.

Gipsel
2016-04-23, 10:09:29
Laut Spec sind es 11 Gbps.
Mit -100 sind es nur 10. 11 GBps hätte -110, 12 GBps -120.

Kann ja sein, daß die Finalversion die 11GBps Module kriegen soll, fotografiert wurde das Sample mit 10GBps-Speicher.

iuno
2016-04-23, 10:11:35
Mit 320mm^2 sollten es wohl über 8 Milliarden Transistoren sein. Gekoppelt mit 384GB/s und der Fähigkeit den Chip auf 1500MHz zu takten, kann man wohl mit knapp 50% zur Referenz-GTX980TI rechnen.

Ruhig bleiben ;)
Erstmal sind es 320 GB/s
Es gibt ja noch keinen Hinweis darauf, dass micron die 11 oder 12 Gbps chips rechtzeitig fertig bekommt und an einen paperlaunch glaube ich nicht

Ailuros
2016-04-23, 10:23:45
GP204 und nicht GP104?

Tippfehler; sonst sind die wccftech Messungen immer noch falsch. Der 400-er kommt afaik als letzter im Juni und nicht als erster wegen der GDDR5X Verfuegbarkeit.

Es gibt auch bessere Photos von chiphell wo wenn man den Rand nicht mitberechnet sehen kann dass der die tatsaechlich 19+*15+mm ist. Meine Schaetzung fuer die Transistoren waere definitiv unter 7.5b wenn sie bei 25Mio/mm2 geblieben sind.

Ruhig bleiben ;)
Erstmal sind es 320 GB/s
Es gibt ja noch keinen Hinweis darauf, dass micron die 11 oder 12 Gbps chips rechtzeitig fertig bekommt und an einen paperlaunch glaube ich nicht

Wenn LovesuckZ nicht optimistisch waere wuerde meine Welt zusammenbrechen ;) Unter 30% im Durchschnitt sagt der Hintergrund momentan und das ist schon verdammt viel sowohl fuer die die-Groesse als auch die Transistoren-Anzahl.

kdvd
2016-04-23, 10:27:57
GDDR5X auf der 400er-SKU/GTX 1080 bestätigt: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/

Das muss ein Fake sein! ... schließlich hat uns HOT schon erklärt:
NV arbeitet seit 2014 an GP104/6. Das müssen sie, wenn die Chips jetzt final werden sollen. Da war für NV aber noch nicht an GDDR5X zu denken. Ich finde, einige bringen immer die Zeiträume total durcheinander. Ein Chip der im Sommer final kommt und ein Speicher, der erst dieses Jahr final gegangen ist, passt einfach nicht zusammen.

SCNR :anonym:

Ailuros
2016-04-23, 10:32:58
Ein lokaler Spruch sagt dass wenn man einen Hintern kochen laesst, man nur Scheisse futtern wird. :freak:

y33H@
2016-04-23, 10:35:24
Mit -100 sind es nur 10. 11 GBps hätte -110, 12 GBps -120. Kann ja sein, daß die Finalversion die 11GBps Module kriegen soll, fotografiert wurde das Sample mit 10GBps-Speicher.My bad, hatte mich verklickt. Du hast freilich Recht.

y33H@
2016-04-23, 10:37:24
Das muss ein Fake sein! ... schließlich hat uns HOT schon erklärt:Schon als Micron sagte, man erwarte GDDR5X im H1/2016, war klar: da kommt zur Computex was.

Hübie
2016-04-23, 11:02:14
326 mm^2 nach meiner Analyse. :D

@Ail: :D :D mmd

Ailuros
2016-04-23, 11:03:10
Weniger.

horn 12
2016-04-23, 11:12:00
Unter 300mm² sollte man nicht weit über einer GTX 980TI @1400 Mhz kommen, also GTX 980 Stock plus maximal 15% ist wohl drinn.
OC sei mal dahingestellt, jedoch der GDDR5X Support ist schon Nice

Schaun wie AMD reagiert...

Blediator16
2016-04-23, 11:18:31
Unter 300mm² sollte man nicht weit über einer GTX 980TI @1400 Mhz kommen, also GTX 980 Stock plus maximal 15% ist wohl drinn.
OC sei mal dahingestellt, jedoch der GDDR5X Support ist schon Nice

Schaun wie AMD reagiert...

Sie kleben auch gddr5x module drauf was denkst du denn :eek:

Sunrise
2016-04-23, 11:28:59
Also wie schon vor Monaten geschrieben exakt die gleiche Strategie wie bei GK104, einzige Überraschung ist jetzt GDDR5X.

Langweilig...;)

Da war GP100 irgendwie überraschender.

Somit kann problemlos die 980 Ti auch ersetzt werden. Schaun wir mal, ob GP102 etwa mit Vega kommt oder ob AMD hier schneller ist.

Interessant wird jetzt nur noch die TDP von den Dingern.

Troyan
2016-04-23, 11:32:18
Ruhig bleiben ;)
Erstmal sind es 320 GB/s
Es gibt ja noch keinen Hinweis darauf, dass micron die 11 oder 12 Gbps chips rechtzeitig fertig bekommt und an einen paperlaunch glaube ich nicht

Mit >300mm^2 sind es 8 Milliarden Transistoren - also 50% mehr als GM204.
Mit 10Gbit/s sind es alleine 42% mehr Bandbreite als GM204.
P100 taktet 30% höher als GM200 und ganze 78%(!) höher als GK110.

GM204 hat 50% mehr Transistoren als GK104 und die Leistung gegenüber der GTX770 ist >50% größer. Und nicht alle Transistoren gingen für "direkte" Leistungssteigerung rauf (besserer Displaycontroller, FL12_1 gegenüber 11_0, Tiled Ressources Tier 3, Cuda Kompartibiltät, Color Compression etc.).

Alleine durch den Transistoren- und Bandbreiteanstieg sind locker 50% zur GTX980 ohne Takterhöhung drin. Und das wäre schon 15% über GTX980TI im Referenzdesign.

kdvd
2016-04-23, 11:37:23
Langweilig...;)

Tja wenn man sieht wie lange heute ein Fertigungsprozess durchhalten muss, kann man im Grunde froh sein,
wenn die neue Mittelklasse (~300mm²), dass alte High End (> 500mm²) noch um 10-15% schlagen kann, bei deutlich geringerem Verbrauch.

Und ebendso wenn GP102 auf GM200 wieder 60% +X bringt.

Screemer
2016-04-23, 11:39:31
An massiv geringeren Verbrauch von gp104 im Vergleich zu gm200 mag ich noch nicht glauben. Ich denke man bewegt sich zwischen gm104 oc und gm200. Bin schon recht gespannt wie sich die Karten schlagen werden.

kdvd
2016-04-23, 11:48:48
Bei der Stock 1080 erwarte ich wieder um die 170W, und das wäre ja schon 30% mehr Abwärme pro mm² ggü GM204, auf Grund der gringeren Fläche.
Bei über 200W wird/würde es dann natürlich bedenklich mit Blick auf GP102, der ja nochmal 50% größer werden sollte.

Sunrise
2016-04-23, 12:05:33
Bei der Stock 1080 erwarte ich wieder um die 170W, und das wäre ja schon 30% mehr Abwärme pro mm² ggü GM204, auf Grund der gringeren Fläche.
Bei über 200W wird/würde es dann natürlich bedenklich mit Blick auf GP102, der ja nochmal 50% größer werden sollte.
Da AMD wohl mit Vega den HBM irgendwie ausfahren will, denke ich wird das wieder ein ziemlich dickes Ding werden, evtl. aber weniger Takt und durch HBM (1,0v) sollte man da recht stromsparend rangehen können. Wird dann wie Fiji, großer Die, HBM, aber dieses Mal mit ordentlich Performance.

Bei GP102 wird NV wohl +50% draufschlagen (Einheiten) und somit kommt man wohl etwa auch auf 4096 ALUs, jedoch mit 384bit GDDR5X, was ein Nachteil ggü. HBM wäre, aber bei den Kosten sieht es dann wohl für NV wieder besser aus.

Ich denke nicht, dass GP104 über die 200W geht, von 150-185W TDP (je nach SKU) sind realistisch. GP102 hat dann Spielraum bis 250W, das sollte genügen.

Ailuros
2016-04-23, 12:16:09
185W als obrige Grenze ist schon zu viel, wenn man genug Uebertaktungs-raum fuer vendors lassen will.

scully1234
2016-04-23, 12:17:37
Weiß man denn schon, ob man bei der Texturkompression nochmal weiter Hand anlegen wird,oder gab es dahingehend noch keine Verlautbarung ?

fondness
2016-04-23, 12:17:50
P10 scheint wohl ~dieselbe SP-Anzahl zu haben wie GP104, aber mindestens eine Größenordung geringere Die-Size und Leistungsaufnahme. NV wird dafür mit dem Takt wohl höher kommen und damit natürlich auch mehr Leistung generieren.

Troyan
2016-04-23, 12:21:19
Die Stromaufnahme wird bestimmt nicht geringer sein. GTX980 hat 165W, Tonga hat 200W im Vollausbau. Ein GP104 mit der selben Anzahl an Recheneinheiten wird natürlich nicht mehr Strom benötigen als AMD. Das hat auch nichts mit "Taktrate" zu tun. Die ist nämlich bei Maxwell heutzutage auch schon bis zu 20% höher.

fondness
2016-04-23, 12:23:29
Na dann warte ab. P10 wird nicht über ~125W liegen und auch deutlich <300mm². Und Tonga XT hat 190W TDP btw.

Ailuros
2016-04-23, 12:26:21
P10 scheint wohl ~dieselbe SP-Anzahl zu haben wie GP104, aber mindestens eine Größenordung geringere Die-Size und Leistungsaufnahme. NV wird dafür mit dem Takt wohl höher kommen und damit natürlich auch mehr Leistung generieren.

Gute Nacht wenn es Dir erst JETZT einleuchtet dass die beiden IHVs schon seit R600 ihre chips anders positionieren.

Die Stromaufnahme wird bestimmt nicht geringer sein. GTX980 hat 165W, Tonga hat 200W im Vollausbau. Ein GP104 mit der selben Anzahl an Recheneinheiten wird natürlich nicht mehr Strom benötigen als AMD. Das hat auch nichts mit "Taktrate" zu tun. Die ist nämlich bei Maxwell heutzutage auch schon bis zu 20% höher.

Ich sehe keine 250W auf der groessten GP104 SKU.