PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26

PHuV
2016-05-02, 13:44:12
In meinem Szenario ist die 1080 Ti der Vollausbau von GP104, und den wiederum wird keiner für diesen Preis offerieren, den du genannt hast. ;)
Wir werden es ja am Ende sehen. Nvidia hat ja bereits gut ausgetestet, was sie für HighEnd-Karten verlangen können, und die werden für einen Vollausbau garantiert mehr verlangen als Deine veranschlagte Summe von 649 €. Wenn schon die dicken Pascals bei ca. 12500 € pro Karte liegen, kann man sich ausmalen, daß die Consumerkarten entsprechend nicht verschleudert werden.

Dural
2016-05-02, 13:57:37
GP106 wird ja so wie so zeitnah kommen, ist ja nicht so das AMD Monate lange mit Polaris alleine da stehen wird.

Wir sollte nicht vergessen das NV schon GP106 silizium hat, also lange kann es nicht mehr dauern.

Complicated
2016-05-02, 15:03:48
@Dural
Das werden sie auch mit Hochdampf versuchen fertig zu stellen, denn sonst wird der sub 300$ Bereich viel zu lange AMD alleine überlassen.

Die früher verkauften LowEnd-Karten gibt es faktisch nicht mehr. Aber die Absatzzahlen sind natürlich das eine, das andere ist der Umsatz/Marge und da sieht man gerade bei NVIDIA, dass die Verkäufe der großen Karten stark gestiegen sind.

Daher denke ich auch, dass die NVIDIA-Strategie mit HighEnd zum Sommer hin deutlich besser ist/erfolgreicher sein wird, als AMDs MidRange/OEM-Chips.Also ich sehe da kein zusammenhängendes Argument. Die GPUs zwischen 100-300 $ sind OEM Massenware. Da werden 10 mal so viele Verkäufe getätigt als im Bereich über 300$ (7,5 Mio Stückzahl über GTX970/R9 390). Der Launch der GP104 kann gar nicht mehr Umsatz einbringen als der Launch von P10 und P11 gleichzeitig, wo zudem auch noch der gesamte Notebook-Sektor adressiert wird. Die Marge des GP104 wird auf diese Weise ebenfalls angegriffen, da AMD klar angesagt hat mit den deutlich kleineren Chips auch im Preis eine Etage tiefer zu rutschen und VR erschwinglich zu machen. Ein angenommener P10 bei der Performance einer GTX980 und bei 200$ lässt dem GP104 nicht viel Marge. Und das obwohl die beiden Chips gar nicht direkt konkurieren - allein durch die erhöhte Preisdifferenz muss Nvidia entweder den Preis senken oder eine dem entsprechend deutlich höhere Leistung haben. Das macht es dem GP104 sehr schwer ein besseres Preis-/Leistungsrating zu erreichen als P10.

Die 50% kleinere Diefläche lässt AMD einen Preisdruck auf die nächst höhere Performanceklasse ausüben, sofern die Leistung des P10 als derzeitiger Sweetspot, also als ausreichend, angesehen wird von den Kunden.

Ohne GP106 steht hier Nvidia nicht gerade gut da, da der GP104 an zu vielen Fronten unterschiedliche Dinge adressieren muss. Daher wohl auch die 3 Dies bis zu GP104-150 runter um den billigsten GP104 so nah wie möglich an den teuersten P10 zu bringen. Ohne GP106 hat Nvidia nichts dem P11 entgegen zu stellen im mobilen Bereich für die OEMs und die Desktop-Mittelklasse zwischen 100-200$

y33H@
2016-05-02, 15:35:35
Bedenke, wie viel mehr Marktanteil Nvidia hat um GP104 loszuwerden und im OEM-Segment bei Notebooks hatte AMD bisher erst recht wenig zu melden. Davon ab 50 Prozent kleineres Die ... hab ich was verpasst und Polaris10 ist nur 150 mm² kompakt?

Troyan
2016-05-02, 15:38:50
Laut PurePC.pl seien Review-Samples schon unterwegs oder bei den Redakteuren gelandet: http://www.purepc.pl/karty_graficzne/geforce_gtx_1060_ti_moze_otrzymac_6_gb_gddr5_192bit

Godmode
2016-05-02, 15:46:34
Laut PurePC.pl seien Review-Samples schon unterwegs oder bei den Redakteuren gelandet: http://www.purepc.pl/karty_graficzne/geforce_gtx_1060_ti_moze_otrzymac_6_gb_gddr5_192bit

Würde das dann bedeuten, dass am 6. Mai schon der Launch ist.

Troyan
2016-05-02, 15:47:45
Nein. Am 6. Mai gibt es ein NDA-Event. Danach wohl 3 Wochen Zeit für die Reviews. Und am Sonntag/Montag - also dem Eröffnungstag der Computex - fällt das NDA.

igg
2016-05-02, 15:53:41
Nein. Am 6. Mai gibt es ein NDA-Event. Danach wohl 3 Wochen Zeit für die Reviews. Und am Sonntag/Montag - also dem Eröffnungstag der Computex - fällt das NDA.
3 Wochen Zeit für Reviews -> diese dürften eine gute Qualität haben

Mancko
2016-05-02, 16:28:03
3 Wochen Zeit für Reviews -> diese dürften eine gute Qualität haben

Das stimmt und das sind ja grundsätzlich gute Nachrichten. Auf jeden Fall siehts mir dann im Juni aber nach einem Hardlaunch aus. Die werden garantiert der Presse keine 3 Wochen Zeit geben um danach Kleinstmengen zu liefern. Die sind vermutlich viel weiter als viele das im Vorfeld gedacht haben. Nvidia war ja recht schweigsam anders als AMD. Ich habe aber schon mal gesagt, dass für Nvidia auch überhaupt keine Veranlassung bestand hier frühzeitig zu kommunizieren. Maxwell lief extrem gut im Verkauf. Auch das sie mit GP100 mit A1 an den Start gehen, wenn natürlich auch in kleineren Mengen ist ein sehr gutes Zeichen.

Godmode
2016-05-02, 16:42:42
Nein. Am 6. Mai gibt es ein NDA-Event. Danach wohl 3 Wochen Zeit für die Reviews. Und am Sonntag/Montag - also dem Eröffnungstag der Computex - fällt das NDA.

Die Frage die sich mir dann stellt: Warum werden jetzt schon Reviewsamples versendet? Normalerweise wurde das ja immer nach den NDA-Veranstaltungen gemacht?

Schaffe89
2016-05-02, 17:15:09
@Dural
Das werden sie auch mit Hochdampf versuchen fertig zu stellen, denn sonst wird der sub 300$ Bereich viel zu lange AMD alleine überlassen.

Also ich sehe da kein zusammenhängendes Argument. Die GPUs zwischen 100-300 $ sind OEM Massenware. Da werden 10 mal so viele Verkäufe getätigt als im Bereich über 300$ (7,5 Mio Stückzahl über GTX970/R9 390). Der Launch der GP104 kann gar nicht mehr Umsatz einbringen als der Launch von P10 und P11 gleichzeitig

Das kann er sehr wohl, wenn man sich die bisherigen Marktanteile von AMD anschaut und bisher sieht es so aus, als würde Nvidia wieder die bessere Strategie haben und eine solide Performancekarte bringen, das bringt ordentlich Presse.
Zur Not kann Nvidia auch die alten Maxwell Chips noch für Notebooks an den Mann bringen, die sind ja noch effizient genug.

wo zudem auch noch der gesamte Notebook-Sektor adressiert wird. Die Marge des GP104 wird auf diese Weise ebenfalls angegriffen, da AMD klar angesagt hat mit den deutlich kleineren Chips auch im Preis eine Etage tiefer zu rutschen und VR erschwinglich zu machen.

Nvidia kann eigentlich machen was sie wollen, die stehen bezüglich der Marktdurchdringung so weit vor AMD, dass die letztendlich die Strategie völlig wumpe ist. AMD benötigt einen Gamechanger, mal wieder einen guten Chip und wenn ich mir die Daten bisher reinziehe ~230mm² ( pitcairn hatte 212m²), gegen Kepler damals ~298mm² ( gp104 ähnlich groß ) und dem zu erwartenden sehr hohen Takt von ~1500mhz, bin ich überzeugt davon, dass AMD mit der Nummer komplett baden geht.
Vielleicht bringt das kurzfristige Erfolge im Notebooksektor bis Nvidia ihren Brot und Butter Chip launcht.

Aber bisher dachte man AMD wäre 3 oder sogar 4 Monate früher drann und das hat AMD auch so angedeutet.
Dass von dem jetzt gar nichts mehr übrig bleibt, tippe ich auf Probleme.
Wahrscheinlich wollte AMD den Chip auf 1300mhz noch recht effizient hochjagen und stockt jetzt bei ~1000mhz und ein paar zerquetschten, dann kommt halt nur GTX 970 Leistung heraus und die braucht im Desktop Markt kein Mensch mehr.



Ein angenommener P10 bei der Performance einer GTX980 und bei 200$ lässt dem GP104 nicht viel Marge.

Nur dass der GP104 sich in einem deutlich höheren Performancefeld einsortiert, wahrscheinlich ist selbst die GTX 1060, oder 1070 stark abgespeckt und mit 6GB V-ram noch recht deutlich vor einem P10.
Du argumentierst immer einen Vorteil für AMD heraus, ich kapier das nicht.
Ich sehe den Vorteil eher bei Nvidia, vor allem wenn man alle Infos die bisher durchs Netz gejagt wurden mal bisschen ordnet.

Die 50% kleinere Diefläche lässt AMD einen Preisdruck auf die nächst höhere Performanceklasse ausüben

~300 -->> ~230 , eher bei umgekehrter Basis

sofern die Leistung des P10 als derzeitiger Sweetspot, also als ausreichend, angesehen wird von den Kunden.

GTX 970 bis GTX 980 Leistung ist doch ein alter Schuh, wer will sich den im Desktopmarkt noch anziehen? Den konnte man schon damals mit einer 780 Ti oder Titan 2013 mit leichtem OC haben. Das kauft keiner mehr.
Wenn AMD damit überzeugen will und bis 2017 nix schnelleres bringt, dann gehen die komplett unter.

Aus Marketingsicht eine Katastrophe, da kann der Chip noch so effizient sein, im Desktopsegment kräht danach kein Hahn mehr.
Aber ich hab mir das irgendwie schon gedacht, von daher wird die Nano wohl neben einer GTX 1080/1080Ti weiter betrieben werden, Polaris wird mit soner schmalbrüstigen Performance sicherlich von den wenigsten gekauft.

Complicated
2016-05-02, 18:07:28
Bedenke, wie viel mehr Marktanteil Nvidia hat um GP104 loszuwerden und im OEM-Segment bei Notebooks hatte AMD bisher erst recht wenig zu melden. Davon ab 50 Prozent kleineres Die ... hab ich was verpasst und Polaris10 ist nur 150 mm² kompakt?
Der Marktanteil von Nvidia bedeute nicht, dass sie einen größeren Käufermarkt haben. Sicherlich haben sie mehr Stammkäufer dadurch, doch in der Klasse unter 300$ gäbe es ja nichts zu kaufen.

Ich hatte das falsch herum formuliert. GP104 ist ca. 50% größer als P10.
234m²(P10)+117= 351m²(GP104)

Bedeutet 3x P10 Chips zum Preis von 2x GP104 Chips ohne die schlechteren Yields des größeren Chips überhaupt zu berücksichtigen. Und hierbei ist noch gar nicht erwähnt, dass die Kosten zwischen 14nm Samsung und 16nm TSMC durchaus unterschiedlich sein können. Samsung betreibt mit den 14nm einen Preiskampf und hat auch Qualcomm überzeugt nicht auf 16nm zu setzen.

Pirx
2016-05-02, 18:08:20
...
GTX 970 bis GTX 980 Leistung ist doch ein alter Schuh, wer will sich den im Desktopmarkt noch anziehen? Den konnte man schon damals mit einer 780 Ti oder Titan 2013 mit leichtem OC haben. Das kauft keiner mehr...Die Gefahr besteht durchaus, denn Pascal wird sicherlich einiges an Leistung auf 980Ti & Co. drauflegen.

Gipsel
2016-05-02, 18:14:42
Ich hatte das falsch herum formuliert. GP104 ist ca. 50% größer als P10.
234m²(P10)+117= 351m²(GP104)Ich dachte, die Gerüchte gehen eher von irgendwas in der GK104-Region (294mm²) aus. Dann wären es ja maximal +30%.

Troyan
2016-05-02, 18:15:29
300 bis 330mm^2 sind die Schätzungen.

Botcruscher
2016-05-02, 18:18:38
GTX 970 bis GTX 980 Leistung ist doch ein alter Schuh, wer will sich den im Desktopmarkt noch anziehen? Den konnte man schon damals mit einer 780 Ti oder Titan 2013 mit leichtem OC haben. Das kauft keiner mehr.
Wenn AMD damit überzeugen will und bis 2017 nix schnelleres bringt, dann gehen die komplett unter.

Im sub 200er Mainstream und Mobil bringt das richtig Schotter.

N0Thing
2016-05-02, 18:19:12
Laut PurePC.pl seien Review-Samples schon unterwegs oder bei den Redakteuren gelandet: http://www.purepc.pl/karty_graficzne/geforce_gtx_1060_ti_moze_otrzymac_6_gb_gddr5_192bit

Bedeutet autorskie modele so etwas wie Review-Modelle? Finde die Übersetzung mit "Urheberrecht Modelle" bei Google und Leo nicht so ganz eindeutig, könnten es auch die NDA-Unterlagen sein?

Birdman
2016-05-02, 18:21:08
Die Frage ist doch eher, ob nVidia mit Pascal auch im sub 350$ Bereich (aka GTX970) mehr Performance bringt.
Bis jetzt sieht es ja nicht danach aus, die Performance/$ Ratio wird mit Pascan nicht oder nur unwesentlich verbessert. Ja, Pascal scheint mehr Speed zu bringen, kostet aber halt einfach auch mehr.
Da muss AMD nur mit einem Chip auf GTX970 Performance, Preis und Verbrauch kontern, dem aber volle 8GB RAM mitgeben und das Teil wird sich sehr gut verkaufen.

Complicated
2016-05-02, 18:28:37
Ich dachte, die Gerüchte gehen eher von irgendwas in der GK104-Region (294mm²) aus. Dann wären es ja maximal +30%.
Ich hatte da zuletzt 330-340 mm² im Hinterkopf von den Dieshots.

horn 12
2016-05-02, 18:34:45
Erwartet nicht zu viel und nicht zu wenig von Pascal.

Gipsel
2016-05-02, 18:46:01
300 bis 330mm^2 sind die Schätzungen.
Ich hatte da zuletzt 330-340 mm² im Hinterkopf von den Dieshots.
Okay, bin da vielleicht nicht auf dem neuesten Stand. Die rumschwirrenden 2560 SPs würden vermutlich für irgendwas näher an 350mm² als 300mm² sprechen. Andersrum könnten es ein paar weniger SPs werden. Mit vermutlich so ab 1,4GHz Basetakt (Boost entsprechend höher) und den internen Verbesserungen kann man wohl auch schon ab 2048 SPs und um die 300mm² an die Performance einer Stock 980Ti kommen (mit 36 SMs, also 2304SPs dann auch locker etwas drüber). Na mal sehen, wieviel nV durch die reduzierte FP64-Rate sparen kann.

horn 12
2016-05-03, 07:05:29
http://wccftech.com/nvidia-geforce-gtx-1080-1070-pascal-teaser/

scully1234
2016-05-03, 07:11:25
Dieser mystische Mist immer ,raus mit den nackten Zahlen und gut ist

Also kommt Pascal doch noch vor der Computex

Limit
2016-05-03, 08:16:51
Zur Not kann Nvidia auch die alten Maxwell Chips noch für Notebooks an den Mann bringen, die sind ja noch effizient genug.
Das wird darauf ankommen, wann die Hersteller ihre neuen Modellreihen auflegen. Sollte bis dahin Polaris auf dem Markt sein, aber nichts neues von nVidia in dem Segment, dürften einige Hersteller wechseln, denn ansonsten müsste man eine gesamte Modellgeneration mit veralteter Technik ausharren.

AMD benötigt einen Gamechanger, mal wieder einen guten Chip und wenn ich mir die Daten bisher reinziehe ~230mm² ( pitcairn hatte 212m²), gegen Kepler damals ~298mm² ( gp104 ähnlich groß ) und dem zu erwartenden sehr hohen Takt von ~1500mhz, bin ich überzeugt davon, dass AMD mit der Nummer komplett baden geht.
Von der Leistung her dürfte GP104 schneller sein. Da aber P10 in einer ganz anderen Preiskategorie (<300 bis 350$) als GP104 (400 bis >650$) spielen wird, heißt das noch garnichts. Hohe Taktraten sind schön und gut, aber da im Vergleich zur GTX980Ti die Einheitenzahl verringert wurde, sind die auch notwendig um auf die entsprechende Rohleistung zu kommen.

Vielleicht bringt das kurzfristige Erfolge im Notebooksektor bis Nvidia ihren Brot und Butter Chip launcht.
Vor allem im OEM und noch mehr im Notebookmarkt ist es wichtig früh am Markt zu sein, denn die dort werden häufig länger laufende Verträge abgeschlossen.

Aber bisher dachte man AMD wäre 3 oder sogar 4 Monate früher drann und das hat AMD auch so angedeutet.
Ich finde gerade den Artikel nicht, aber afaik ging es um die direkten Konkurrenzkarten, also GP106/107 gegenüber P10/P11 und da die beiden nVidias erst Herbst/Winter erwartet werden, passt die Aussage.

Dass von dem jetzt gar nichts mehr übrig bleibt, tippe ich auf Probleme.
Wahrscheinlich wollte AMD den Chip auf 1300mhz noch recht effizient hochjagen und stockt jetzt bei ~1000mhz und ein paar zerquetschten, dann kommt halt nur GTX 970 Leistung heraus und die braucht im Desktop Markt kein Mensch mehr.
Das wäre ein mächtiger Designfail, wenn man so deutlich unter der Zieltaktrate bleiben würde. In dem Fall stünde vermutlich ein Redesign auf dem Programm, der min. 3-6 Monate Verzögerung bedeuten würde. Da Polaris aber schon seit längerem für diesen Sommer angekündigt wurde und der erwartete Termin zur Computex auch noch eher Frühsommer bedeutet, vermute ich, dass du falsch liegst. Übrigens wurde im Linux-Treiber bereits die Taktrate von 1154MHz hinterlegt. Damit hätte P10 ziemlich exakt die Rohleistung der 390X. Wenn sie die Architektur also nicht verschlimmbessert haben, kann man das als Untergrenze ansehen. Mit entsprechenden Architekturverbesserungen dürfte sie dann irgendwo zwischen 980 und 980Ti landen. Das wäre ein guter Wert für eine Karte der Pitcairn-Preiskategorie.

Nur dass der GP104 sich in einem deutlich höheren Performancefeld einsortiert, wahrscheinlich ist selbst die GTX 1060, oder 1070 stark abgespeckt und mit 6GB V-ram noch recht deutlich vor einem P10.
Das hängt natürlich stark davon ab, bei welchen Performancepunkte du GP104 erwartest. Ich gehe von geringen Architekturveresserungen aus, d.h. die Mehrleistung kommt in erste Linie über höhere Taktraten. Damit wären 1060Ti / 1070 / 1080 vielleicht im Bereich von 970 / 980 / 980Ti in ihrer jeweiligen OC-Variante. Dementsprechend läge P10 dann zwischen den beiden kleineren Varianten.

Du argumentierst immer einen Vorteil für AMD heraus, ich kapier das nicht.
Ich sehe den Vorteil eher bei Nvidia, vor allem wenn man alle Infos die bisher durchs Netz gejagt wurden mal bisschen ordnet.
Interessant. Auf welche Infos beziehst du dich? Bei dir habe ich den Eindruck, dass du von nVidia immer das beste annimmst und bei AMD das schlimmste.

Also kommt Pascal doch noch vor der Computex

Da bekommt nur die Presse Infos, Samples und ganz wichtig einen Maulkorb.

MiamiNice
2016-05-03, 08:28:18
So viel blabla ... Die sollen einfach sagen wo ich meine 700 oder 800€ hin überweisen soll und her mit der Karte. Daddy braucht mehr Power.

Radeonfreak
2016-05-03, 08:30:03
Die sollen einfach sagen wo ich meine 700 oder 800€ hin überweisen soll und her mit der Karte. Brauch mehr Power.

+1 :D

MiamiNice
2016-05-03, 08:31:51
+1 :D

Du meinst wohl Mommy braucht mehr Power :)

Radeonfreak
2016-05-03, 08:32:44
Freilich.

Hübie
2016-05-03, 08:58:36
So viel blabla ... Die sollen einfach sagen wo ich meine 700 oder 800€ hin überweisen soll und her mit der Karte. Daddy braucht mehr Power.

*Kontonummerrauskram* :biggrin:

Ich bin noch verhalten. Irgendwie turnt mich das alles nicht an. Volta oder Vega. Pascal wird wohl übersprungen. Die Leistung der 1080 wird sicher gut, aber ob es sich vom GM200 aus lohnt? Eher nicht.
Na mal sehen was die 10 Wunder dieses mal sind. Ich erinnere da mal an VXAO und MFAA. Beides eher Checklistenfeatures, als echtes Zeugs. DSR war imo die beste Option der letzten Jahre. Jetzt noch ein Tess-Slider und alles wäre fein.

JA ICH WEIß DAS ICH DAS BEI JEDER GEN SAGE :P

radical83
2016-05-03, 09:18:48
Bedeutet autorskie modele so etwas wie Review-Modelle? Finde die Übersetzung mit "Urheberrecht Modelle" bei Google und Leo nicht so ganz eindeutig, könnten es auch die NDA-Unterlagen sein?

Da liegst du ziemlich richtig. Wörtlich übersetzt heißt es Modelle für die Autoren.
Der letzte Satz lässt sich wie folgt übersetzen:

Jetzt kann ich es euch glaube ich verraten, dass die Modelle für die Autoren zu uns unterwegs sind (zu uns fließen), also hat Nvidia, mit der Premiere von Pascal, AMD überholt.

Godmode
2016-05-03, 09:36:55
*Kontonummerrauskram* :biggrin:

Ich bin noch verhalten. Irgendwie turnt mich das alles nicht an. Volta oder Vega. Pascal wird wohl übersprungen. Die Leistung der 1080 wird sicher gut, aber ob es sich vom GM200 aus lohnt? Eher nicht.
Na mal sehen was die 10 Wunder dieses mal sind. Ich erinnere da mal an VXAO und MFAA. Beides eher Checklistenfeatures, als echtes Zeugs. DSR war imo die beste Option der letzten Jahre. Jetzt noch ein Tess-Slider und alles wäre fein.

JA ICH WEIß DAS ICH DAS BEI JEDER GEN SAGE :P

Wenn die Pascal SPs besser sind als die Maxwell SPs, dann könnte eine hypothetische 1080 deutlich mehr auf GM200 drauflegen, als wir hier erwarten. Wenn NV dem Treiber beibringt, FP32 durch FP16 Ops zu ersetzten - natürlich nur wo es keine Nachteile bringt - dann könnte ich mir durchaus mehr als nur 10-20% über GM200 vorstellen.

Pascal GP104 vs GM204:
mehr Cluster zb. 40*64 = 2048 vs 2560 = +25%
mehr Takt = 1216 vs 1500 = +23%
mehr Durchsatz pro SP = +?%
Vorteile durch FP16 = +?%

Fraglich ist allerdings, ob NV überhaupt eine so starke 1080 haben will?

Dural
2016-05-03, 09:40:53
Ich frage mich schon länger an was AMD rumbastelt, die Polaris GPUs laufen bei ihnen ja schon eine halbe Ewigkeit. :rolleyes:

dildo4u
2016-05-03, 09:48:18
Die 1080 ist was für Aufrüster von einer 980,PCGH hat grad ein Test im Heft 980 mit 8GB(MSI Vortex G65) vs mit 4GB.Bei Tomb Raider zersägt die Karte mit 8GB,die mit 4GB obwohl sie die selbe GPU haben.Eine 980 Ti hat das Problem weniger.

Hübie
2016-05-03, 09:51:11
Wenn die Pascal SPs besser sind als die Maxwell SPs, dann könnte eine hypothetische 1080 deutlich mehr auf GM200 drauflegen, als wir hier erwarten. Wenn NV dem Treiber beibringt, FP32 durch FP16 Ops zu ersetzten - natürlich nur wo es keine Nachteile bringt - dann könnte ich mir durchaus mehr als nur 10-20% über GM200 vorstellen.

Pascal GP104 vs GM204:
mehr Cluster zb. 40*64 = 2048 vs 2560 = +25%
mehr Takt = 1216 vs 1500 = +23%
mehr Durchsatz pro SP = +?%
Vorteile durch FP16 = +?%

Fraglich ist allerdings, ob NV überhaupt eine so starke 1080 haben will?

Was du mit bessere SP meinst weiß ich nicht, aber der Takt haut sicher einiges heraus. Auch die Relation aus größeren Registern macht einiges gut (wenn das GP100<->GP104 Verhältnis dahingehend konstant bleibt).
Ob ein Treiber einfach die Ops ändern kann weiß ich nicht, aber ich bezweifel es gerade, wenn es nicht eine per App-Optimierung gibt. Wenn 32 Bit floats reinkommen müssen die ja irgendwo abgeschnibbelt werden. :freak:
Und ob Spiele FP16 soviel nutzen dass man es an der Latenz bemerkt weiß ich ebenfalls nicht. Unsere Gurus sind ja nun weg bzw. Undercover unterwegs. ;)

Ich frage mich schon länger an was AMD rumbastelt, die Polaris GPUs laufen bei ihnen ja schon eine halbe Ewigkeit. :rolleyes:

Secret Sauce, Dural. Secret Sauce. :biggrin:

igg
2016-05-03, 09:51:51
Fraglich ist allerdings, ob NV überhaupt eine so starke 1080 haben will?
Mit 4K und VR wäre die Zeit reif für eine neue 8800 GTX.

Ätznatron
2016-05-03, 09:55:58
Dieses MSI Vortex G65 ist ja mal ein interessantes Teil.

Wer 4 Mille übrig hat: Zugreifen! ;)

Werewolf
2016-05-03, 10:02:45
Ich möchte min. +80% Performance zu meiner übertakteten Karte. Mal sehen was das nächste Jahr bringt.

ShinyMcShine
2016-05-03, 10:08:16
Ich hoffe ja inständig, dass AMD mit den neuen GPUs was ordentliches auf die Beine stellt, damit NVIDIA nicht die umhergeisternden Preise verlangen kann. Ich will zwar auch eine 1080 so früh wie möglich (alleine schon wegen VR). Aber wenn das Dingens für meinen Geschmack überteuert rauskommt, dann wird halt noch ein paar Monate abgewartet und auf AMD gehofft. :tongue:

Ailuros
2016-05-03, 10:10:03
Ich möchte min. +80% Performance zu meiner übertakteten Karte. Mal sehen was das nächste Jahr bringt.

Ergo irgendwo +100% zu default Frequenzen und dazu wohl auch noch im Durchschnitt oder? Wenn ja wie sieht es bei Dir mit mGPU genau aus?

Mayk-Freak
2016-05-03, 10:11:23
Weiß man schon was nach Volta kommt?

R.I.P.
2016-05-03, 10:18:27
Weiß man schon was nach Volta kommt?

Newton, Gauss, Einstein, Röntgen...such's dir aus ;D

Mich wundert es auch, warum AMD mit Polaris so lange wartet. Gut möglich, dass man Taktspielraum hat und abwarten will, damit man nicht zu weit hinter den Nvidias zurückfällt. Oder die Secret Sauce gibt es scheinbar wirklich und man will mediatisch etwas vorbereiten (wenn man AMDs Marketing kennt, eher nicht :) )

Man munkelt auch von einer Zusammenarbeit von Nvidia und Dice und dass man am Editors Day zusammen/getrennt BF5 auf Pascals vorstellen wird....

Ailuros
2016-05-03, 10:21:19
Wenn die Pascal SPs besser sind als die Maxwell SPs, dann könnte eine hypothetische 1080 deutlich mehr auf GM200 drauflegen, als wir hier erwarten. Wenn NV dem Treiber beibringt, FP32 durch FP16 Ops zu ersetzten - natürlich nur wo es keine Nachteile bringt - dann könnte ich mir durchaus mehr als nur 10-20% über GM200 vorstellen.

Gfxbench3.x (Manhattan3.0 und 3.1) sind verdammt ALU bound als benchmarks. Zwischen Rogue GPUs mit FP16 SPs und ohne sehe ich in Echtzeit keinen Millimeter an Leistungs-Unterschied.

Im Gegenvergleich skaliert die Tegra X1 GPU (Maxwell mit 2*FP16 OPs) wie man erwarten wuerde gegen die K1 GPU (Kepler ohne 2*FP16 OPs); zumindest hier muesste man einen Unterschied sehen koennen.

Pascal GP104 vs GM204:
mehr Cluster zb. 40*64 = 2048 vs 2560 = +25%
mehr Takt = 1216 vs 1500 = +23%
mehr Durchsatz pro SP = +?%
Vorteile durch FP16 = +?%

Fraglich ist allerdings, ob NV überhaupt eine so starke 1080 haben will?

Es ist leichter GP104 mit GM200 (980Ti) zu vergleichen IMHO.

+N% Effizienz pro cluster
+X% Takt
~ = Bandbreite

Du hast 10% weniger SPs im GP104.

robbitop
2016-05-03, 10:34:05
Wenn NV dem Treiber beibringt, FP32 durch FP16 Ops zu ersetzten - natürlich nur wo es keine Nachteile bringt - dann könnte ich mir durchaus mehr als nur 10-20% über GM200 vorstellen

Woher soll der Treiber das wissen? Wenn das gehen sollte, müsste es wohl mühselig über Shaderreplacement laufen. Das wäre dann Spielspezifisch.

Das ist eher eine Aufgabe/Option für den Spieleentwickler, das passende Format zu wählen.

Mortalvision
2016-05-03, 10:36:28
NDA fällt diesen Freitag, 06.05.

igg
2016-05-03, 10:39:26
NDA fällt diesen Freitag, 06.05.
Woher hast du das?

dildo4u
2016-05-03, 10:44:28
Woher hast du das?
http://orderof10.com/humanityshallbeenlightened

igg
2016-05-03, 10:46:02
http://orderof10.com/humanityshallbeenlightened
Ich dachte das bezieht sich auf die Ankündigung und Infomaterial für Redakteure. Der Review NDA sollte doch erst zur Computex fallen?

Werewolf
2016-05-03, 10:51:43
Ergo irgendwo +100% zu default Frequenzen und dazu wohl auch noch im Durchschnitt oder? Wenn ja wie sieht es bei Dir mit mGPU genau aus?

Ja, in etwa. Wäre dann ein klar und deutlicher Sprung. Als ich für eine Woche von einer R9 290 auf eine 980 wechselte war der Sprung zwar hier und da bemerkbar, aber vielmehr in den Frametimes (GTA z.B.). Das war dann schon interessant aber die Gesamtleistung dann letztendlich nicht wie ich es erwartete. Mit der TX war das alles dann massiv besser. Bekam diese aber auch zum TI Preis, sonst hätte ich nicht zugeschlagen.

mGPU kommt nicht in Frage, habe keinen Bock auf eine zweite TX, müsste dann beide wasserkühlen (derzeit läuft eine mit Accelero XIV) da die Referenzkühlung ordentlich nervt. Habe nie eine gebaut und der Umbau auf den Accelero war ein mieses Stück Arbeit. :D

AffenJack
2016-05-03, 11:12:03
http://orderof10.com/humanityshallbeenlightened

Viel lustiger fände ich es, wenn das ne AMD Aktion in Bezug auf Polaris 10 wäre, obwohl alle gerade an Nvidia denken;D

Ailuros
2016-05-03, 11:28:21
Viel lustiger fände ich es, wenn das ne AMD Aktion in Bezug auf Polaris 10 wäre, obwohl alle gerade an Nvidia denken;D

OrderOf10 und "enlightened" deutet fuer mich tatsaechlich eher auf Polaris.

HOT
2016-05-03, 11:35:03
Astronomie ebenso... Seitendesign ist auch seltsam für NV.

Sunrise
2016-05-03, 11:35:51
http://orderof10.com/humanityshallbeenlightened
Sieht für mich viel mehr nach AMD aus.

igg
2016-05-03, 11:38:11
OrderOf10 und "enlightened" deutet fuer mich tatsaechlich eher auf Polaris.
Dachte die Einladungsbox wurde laut wccftech von Nvidia verschickt, aber offenbar war das nur eine Annahme.

Orderof10 -> Polaris10?
Sternenhintergrund -> Polaris

Was dagegen spricht: Quellen die sicher schon unter NDA stehen (zb CB) beziehen das auf Nvidia.

Sunrise
2016-05-03, 11:40:46
Oder NV ist wirklich so gut gelaunt, dass sie zusätzlich zu ihrem aggressiven Zeitplan, der wohl wiedermal mit A1-Silizium aufgeht, jetzt AMD mit diesem Design auf die Schippe nehmen. :D

Troyan
2016-05-03, 11:42:09
Warum sollte AMD so stark bezug auf Wissenschaftler nehmen? Imo kann es alles sein - aber mit Kepler, "tessellated waves" und Fermi, der von George Wells inspiriert wurde, deutet vieles auf nVidia hin. Und in der Einladungsbox ist ein Dreieck enthalten.

BlacKi
2016-05-03, 11:44:59
polaris mit 8gb lässt eine 6gb nvidia karte ziemlich schwach aussehen. ich denke es wird wohl nicht nur 8gb varianten geben, vl 4gb, aber eine 1060 braucht mehr als 6gb um mit die 8gb polaris konkurieren zu können, ich hoffe nv macht nicht denselben fehler wie mit gk104. den hohen marktanteil von tahiti liegt nur am preis und dem 50% größeren speichers.

Sunrise
2016-05-03, 11:46:31
Ist wohl doch NV, da die URL mit einer Box aus Californien ankam:
http://hothardware.com/news/orderof10-mystery-temporal-shard

Ailuros
2016-05-03, 11:59:15
polaris mit 8gb lässt eine 6gb nvidia karte ziemlich schwach aussehen. ich denke es wird wohl nicht nur 8gb varianten geben, vl 4gb, aber eine 1060 braucht mehr als 6gb um mit die 8gb polaris konkurieren zu können, ich hoffe nv macht nicht denselben fehler wie mit gk104. den hohen marktanteil von tahiti liegt nur am preis und dem 50% größeren speichers.

Ich weiss jetzt nicht welche SKU angeblich einen 6GB framebuffer haben soll, aber angenommen GP104 hat 40 clusters und GP106 dann 20. Falls die 6GB fuer den zweiten Fall gemeint sind, sehe ich nicht wirklich ein wieso man ploetzlich fuer 1280SPs mehr als 4GB brauchen wuerde.

Troyan
2016-05-03, 12:01:35
6GB reichen doch vollkommen. Die "neuen" Konsolen werden doch weiterhin bei 8GB bleiben. Da eine "GTX1060" sowieso keine 4K Karte ist, wird man kaum Probleme haben.

Das einzige Spiel, das ich kenne, dass in 1440p mehr als 6GB benötigt, ist Black Ops 3.

BlacKi
2016-05-03, 12:12:21
6GB reichen doch vollkommen. Die "neuen" Konsolen werden doch weiterhin bei 8GB bleiben.
spielt keine rolle, damals haben die 2gb der 680 auch gereicht. aber viele leute haben die 7950 gekauft wegen den 3gb, unabhängig davon ob sie sie jemals brauchen würden. wenn amd 8gb anbieten haben sie wieder einen fuss in der tür. gut für amd aber zum nachteil derer die eine 8gb nvidia karte unter 300€ hätten.

wir reden hier von einer neuen generation, da reichen 4gb nichtmehr, 6gb wären ein kompromiss aber mir zu wenig für 2-3 jahre.

Ailuros
2016-05-03, 12:14:01
spielt keine rolle, damals haben die 2gb der 680 auch gereicht. aber viele leute haben die 7950 gekauft wegen den 3gb, unabhängig davon ob sie sie jemals brauchen würden.

Seit welcher Ewigkeit genau (alle 28nm GPUs inkl.) hat AMD mehr standalone GPUs verkauft als die Gruenen? Wuerde es dem Endverbraucher wirklich einen solchen Unterschied machen, haetten alle auf die 3.5GB 970-er gespuckt und sich stattdessen 8GB 390-er tonnenweise besorgt.

Ätznatron
2016-05-03, 12:16:27
spielt keine rolle, damals haben die 2gb der 680 auch gereicht. aber viele leute haben die 7950 gekauft wegen den 3gb, unabhängig davon ob sie sie jemals brauchen würden.

Insgesamt ist es aber doch sehr interessant zu sehen, wie für Enthusiasten mittlerweile 4 GB nahezu völlig obsolet geworden sind und die 6 GB-Karten ganz kurz davor stehen, ebenfalls unten durchzufallen.

Godmode
2016-05-03, 12:22:26
Was du mit bessere SP meinst weiß ich nicht, aber der Takt haut sicher einiges heraus. Auch die Relation aus größeren Registern macht einiges gut (wenn das GP100<->GP104 Verhältnis dahingehend konstant bleibt).
Ob ein Treiber einfach die Ops ändern kann weiß ich nicht, aber ich bezweifel es gerade, wenn es nicht eine per App-Optimierung gibt. Wenn 32 Bit floats reinkommen müssen die ja irgendwo abgeschnibbelt werden. :freak:
Und ob Spiele FP16 soviel nutzen dass man es an der Latenz bemerkt weiß ich ebenfalls nicht. Unsere Gurus sind ja nun weg bzw. Undercover unterwegs. ;)


Mit bessere SPs meine ich eben, das ein Pascal SP einen höheren Durchsatz, als ein Maxwell SP schafft. Eben aufgrund der Änderungen in den Pascal-Clusters. (Regfiles, Caches, etc.).


Mit 4K und VR wäre die Zeit reif für eine neue 8800 GTX.

Schön wärs ja, ich möchte auch endlich überall 60 FPS in 4K.

Gfxbench3.x (Manhattan3.0 und 3.1) sind verdammt ALU bound als benchmarks. Zwischen Rogue GPUs mit FP16 SPs und ohne sehe ich in Echtzeit keinen Millimeter an Leistungs-Unterschied.

Im Gegenvergleich skaliert die Tegra X1 GPU (Maxwell mit 2*FP16 OPs) wie man erwarten wuerde gegen die K1 GPU (Kepler ohne 2*FP16 OPs); zumindest hier muesste man einen Unterschied sehen koennen.



Es ist leichter GP104 mit GM200 (980Ti) zu vergleichen IMHO.

+N% Effizienz pro cluster
+X% Takt
~ = Bandbreite

Du hast 10% weniger SPs im GP104.

Es gibt leider zu viele unbekannte Variablen um wirklich eine akkurate Einschätzung abgeben zu können.

Woher soll der Treiber das wissen? Wenn das gehen sollte, müsste es wohl mühselig über Shaderreplacement laufen. Das wäre dann Spielspezifisch.

Das ist eher eine Aufgabe/Option für den Spieleentwickler, das passende Format zu wählen.

Mein Gedanke war eher, das sie Gameworks für Pascal und FP16 optimieren. Da ich kein Grafikprorammierer bin, weiß ich aber nicht, ob es viele Anwendungsfälle für FP16 gibt.

woodsdog
2016-05-03, 12:23:18
Insgesamt ist es aber doch sehr interessant zu sehen, wie für Enthusiasten mittlerweile 4 GB nahezu völlig obsolet geworden sind und die 6 GB-Karten ganz kurz davor stehen, ebenfalls unten durchzufallen.

yoah. so was geht im grünen lager immer ganz plötzlich.

Ailuros
2016-05-03, 12:26:50
Es geht hier um kommende mainstream SKUs und diese werden wohl nicht gerade von enthusiasts gekauft und sind wohl auch nicht fuer >1080p Aufloesungen geeignet.

Ätznatron
2016-05-03, 12:28:32
Es geht hier um kommende mainstream SKUs und diese werden wohl nicht gerade von enthusiasts gekauft und sind wohl auch nicht fuer >1080p Aufloesungen geeignet.

Kommt auf die Definition von Enthusiast an. :biggrin:

Botcruscher
2016-05-03, 12:44:27
Hat wer den Text in dem 6 Eck entschlüsselt?
Ah steht im Update.

Ailuros
2016-05-03, 12:52:21
Es gibt leider zu viele unbekannte Variablen um wirklich eine akkurate Einschätzung abgeben zu können.

Wenn man im Hintergrund von bis zu +30% fluestert, ist es leichter von oben nach unten spekulativ zurueckzurechnen ;)

Mein Gedanke war eher, das sie Gameworks für Pascal und FP16 optimieren. Da ich kein Grafikprorammierer bin, weiß ich aber nicht, ob es viele Anwendungsfälle für FP16 gibt.

Wuerde man dem BS mancher NV Juenger Glauben schenken muesste so mancher benchmark in GFXbench vollgeladen mit FP16 OPs sein. Mittlerweile sieht es so aus:

TRex:
PixelC = 100,80
Shield = 66,10

Manhattan3.0:
PixelC = 57,70
Shield = 33,90

Manhattan3.1:
PixelC = 40,50
Shield = 23,30

Car Chase:
PixelC = 27,20
Shield = 16,10

Gleiche Frequenz und rein "zufaellig" hat die X1 GPU um 33% mehr SPs als die K1 GPU und auch eine um 35% hoehere Effizienz laut NV. Rechne mal einfach +68% auf die Shield Leistungswerte drauf :tongue:

Ich will ernsthaft bezweifeln dass FP16 irgendwo in heutigen 3D Spielen einen sehenswerten Leistungsvorsprung geben koennte.

Ailuros
2016-05-03, 12:54:24
Kommt auf die Definition von Enthusiast an. :biggrin:

Schoen; wenn Du heute einen GTX960 Besitzer als "Enthusiast" betiteln kannst, dann ist jemand mit einer Titan X dann genau was?

Sunrise
2016-05-03, 12:55:45
Kommt auf die Definition von Enthusiast an. :biggrin:
Nö, die Definition ist das teuerste verfügbare GPU-Produkt (also inkl. Multi-GPU).

So in der Art (aus dem Kopf):
Entry/Low-End
Mainstream
Performance
High-End
Enthusiast

GP104 wird sich eher bei Performance/High-End abspielen, Polaris 10 bei Mainstream/Performance.

Skysnake
2016-05-03, 12:59:48
Wenn die Pascal SPs besser sind als die Maxwell SPs, dann könnte eine hypothetische 1080 deutlich mehr auf GM200 drauflegen, als wir hier erwarten. Wenn NV dem Treiber beibringt, FP32 durch FP16 Ops zu ersetzten - natürlich nur wo es keine Nachteile bringt - dann könnte ich mir durchaus mehr als nur 10-20% über GM200 vorstellen.

Und wer entscheidet, ob es "keine" Nachteile bringt?

Etwa nVidia? :rolleyes:

@Countdown:
Euch ist schon aufgefallen, das auf den Dreiecken Marker sind, die zu einer Codierung auf den Zetteln passt. Und btw. die Dreiecke sind falsch angeordnet.

Ich habe jetzt keine Zeit mich da durch die Permutationen zu wuehlen, aber vielleicht hat ja einer Lust zu schauen, welcher Text da versteckt ist ;)

Ätznatron
2016-05-03, 13:04:24
Schoen; wenn Du heute einen GTX960 Besitzer als "Enthusiast" betiteln kannst, dann ist jemand mit einer Titan X dann genau was?

Man sollte es halt nicht an der Framebuffergröße festmachen. Vor allem nicht bei grünen Fanboys:

Balkenlänge ist das, was da zählt.

Nö, die Definition ist das teuerste verfügbare GPU-Produkt (also inkl. Multi-GPU).

Kann ich so nicht zustimmen, s.o..

Ailuros
2016-05-03, 13:18:40
Man sollte es halt nicht an der Framebuffergröße festmachen. Vor allem nicht bei grünen Fanboys:

Balkenlänge ist das, was da zählt.

Ach und welche ominoese Balkenlaenge erreicht man genau heute mit einer GTX960? Fanboys jeder Farbe haben die daemliche Angewohnheit alles zu Gunsten ihrer Religion so hinzudrehen wie es passt. Ich frage offensichtlich nicht einen fanboy eine ziemlich einfache und legitime Frage. Ergo in welchem Universum genau ist eine ~200 Euro GPU irgendwie selbst annaehernd "enthusiast" Material?

Hübie
2016-05-03, 13:23:20
spielt keine rolle, damals haben die 2gb der 680 auch gereicht. aber viele leute haben die 7950 gekauft wegen den 3gb, unabhängig davon ob sie sie jemals brauchen würden. wenn amd 8gb anbieten haben sie wieder einen fuss in der tür. gut für amd aber zum nachteil derer die eine 8gb nvidia karte unter 300€ hätten.

wir reden hier von einer neuen generation, da reichen 4gb nichtmehr, 6gb wären ein kompromiss aber mir zu wenig für 2-3 jahre.

Wie bitte? Kepler bescherte NVIDIA Marktanteile wie seit G80 nicht mehr. Woher hast du denn diese Illusionen her, sag mal? :|

@Godmode: Ich selber habe auch zu wenig insights wie es in Spielen aussieht. Hier hat man ja noch den Faktor dass sich ständig etwas transformiert. Also bleiben Instruktionen wahrscheinlich nicht sehr lange im Puffer, was für mich bedeutet, große Register bringen nur bedingt einen Vorteil per se. Fetching und Scheduling sind hier wohl maßgebender.

Interessant fand ich damals dass 512 Fermi ALUs bei 2 GHz, 1536 Kepler ALUs bei 1000 MHz (teilweise) überholten...

Ätznatron
2016-05-03, 13:30:47
Ach und welche ominoese Balkenlaenge erreicht man genau heute mit einer GTX960? Fanboys jeder Farbe haben die daemliche Angewohnheit alles zu Gunsten ihrer Religion so hinzudrehen wie es passt. Ich frage offensichtlich nicht einen fanboy eine ziemlich einfache und legitime Frage. Ergo in welchem Universum genau ist eine ~200 Euro GPU irgendwie selbst annaehernd "enthusiast" Material?

Du hast doch die Annahme aufgestellt, nicht ich.

Um es zu präzisieren:

Unabhängig von der Framebuffergröße kauft der grüne Fanboy gerne nach Balkenlänge, egal, wie lange er danach Spass hat mit der Karte, siehe GTX 970... oder was das Ding gekostet hat.

Hübie
2016-05-03, 13:34:33
Es ist einfach so, dass der Mensch ein Gewohnheitstier ist. Und eine R9 290X hat einen sagenhaft miesen Start mit dem miesen Lüfter hingelegt, so dass sich "laut und heiß" bei den Menschen eingebrannt hat.
Soll ich weiter machen?

Ailuros
2016-05-03, 13:36:10
Du hast doch die Annahme aufgestellt, nicht ich.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11019853&postcount=4316

Um es zu präzisieren:

Unabhängig von der Framebuffergröße kauft der grüne Fanboy gerne nach Balkenlänge, egal, wie lange er danach Spass hat mit der Karte, siehe GTX 970... oder was das Ding gekostet hat.

Es gibt nichts darueber zu praezisieren. Fuer einen normalen Verbraucher ohne Scheuklappen ist eine mainstream SKU eine mainstream SKU. Irrenhaus-Faelle interessieren mich nicht.

Ätznatron
2016-05-03, 13:39:49
Es ist einfach so, dass der Mensch ein Gewohnheitstier ist. Und eine R9 290X hat einen sagenhaft miesen Start mit dem miesen Lüfter hingelegt, so dass sich "laut und heiß" bei den Menschen eingebrannt hat.
Soll ich weiter machen?

Wer beurteilte das damals eigentlich, dass es sich so einbrennen konnte?

Die Fachpresse?

@Ailuros

Irrenhaus-Faelle interessieren mich nicht.

Genau da beginnt der Enthusiasmus...für mich.

Ailuros
2016-05-03, 13:51:38
Dagegen gibt es auch nichts einzuwenden. Ich hab aber Dich gefragt und nicht einen beliebigen Spinner :freak:

Mortalvision
2016-05-03, 14:02:11
OK, hatte mit dem nda wohl was durcheinander gebracht. Produkt Präsentation diesen Freitag, hat nix mit nda zu tun...

BlacKi
2016-05-03, 14:22:46
Wie bitte? Kepler bescherte NVIDIA Marktanteile wie seit G80 nicht mehr. Woher hast du denn diese Illusionen her, sag mal? :|

ich hab nicht behauptet das sich tahiti besser verkauft hat, sondern das nv wegen den nur 2gb gk104 karten marktanteil auf der strecke hat liegen lassen. es gab einige hier im forum und ausserhalb die "nur" eine 2 oder 3gb karte gesehen haben. das problem hatte maxwell nie, denn die konkurenz hatte ebenfalls fast nur 4gb karten. den erfolg den die maxwell karten hatten, hätte man auch mit kepler karten haben können, wenn die 2gb nicht gewesen wären.

Ravenhearth
2016-05-03, 14:26:59
Das sehe ich anders. Imho war Maxwell vor allem deswegen so erfolgreich, weil NV im Gegensatz zu AMD einen großen Sprung bei der Effizienz hingelegt hat und Hawaii, so wie die anderen Karten, da einfach nicht mithalten kann, und Maxwell auch einfach neuer war. Kepler wäre imho auch mit mehr VRAM nicht erfolgreicher gewesen. Beweisen lässt sich das eh nicht.

Dural
2016-05-03, 14:36:30
Ihm ist wohl nicht klar das NV einen Marktanteil von ca. 80 zu 20% hat ;) Bei den oberen karten (980ti+Titan) dürfte sich NV sogar in richtung 90% bewegen. :rolleyes:

Und ja Maxwell war vorallem so erfolgreich wegen dem tiefen Verbrauch und weil es einfach was neues war.

Thunder99
2016-05-03, 14:46:47
Es ist einfach so, dass der Mensch ein Gewohnheitstier ist. Und eine R9 290X hat einen sagenhaft miesen Start mit dem miesen Lüfter hingelegt, so dass sich "laut und heiß" bei den Menschen eingebrannt hat.
Soll ich weiter machen?
Dabei ist es eine sehr sehr gute Karte welche man nur bändigen muss. Karte ist in Form der 390(x) immer noch Konkurrenz fähig.

Zum Teaser bzw Countdown wenn es wirklich von AMD kommt wäre es ein sehr guter Marketing Gag, anderseits wenn es von Nvidia kommt wollen sie damit schon vorweg Polaris schlecht dastehen lassen oder so. Bleibt spannend ;)

BlacKi
2016-05-03, 14:50:52
Ihm ist wohl nicht klar das NV einen Marktanteil von ca. 80 zu 20% hat ;)
aber nicht 2012-2013. hätten sie aber haben können. wenn jetzt wieder so ein unterschied kommt, dann ändert sich das wieder, und worauf schiebt man das wieder?

vergleich doch mal 390x vs 980, es liegt am speicher warum die 390x überhaupt neben der 980 in betracht gezogen werden kann.

ich bleib dabei, der speicher ist dreh und angelpunkt wo jetzt noch nvidia anteile verschenken kann.

illidan
2016-05-03, 15:39:53
Mit mehr Speicher würden die eigenen User aber auch seltener auf die eigenen neuen Produkte upgraden.
Ein besseres eingebautes Ablaufdatum gibts nicht (außer einen 970-Beschiss, der nicht auffliegt).

Thunder99
2016-05-03, 16:04:28
So dumm kann aber auf Dauer die Kundschaft nicht sein wenn die Konkurrenz eine bessere Alternative bietet.

Nvidia mit nun 8GB ist aber gut genug aufgestellt. Eine 1070 mit nur 4GB wäre der blanke Hohn

Ravenhearth
2016-05-03, 16:12:48
So dumm kann aber auf Dauer die Kundschaft nicht sein

;D

Zergra
2016-05-03, 16:29:20
Nvidia mit nun 8GB ist aber gut genug aufgestellt. Eine 1070 mit nur 4GB wäre der blanke Hohn

Und es würde noch immer genug NV Fan´s die Karte kaufen ;)

y33H@
2016-05-03, 16:44:21
Charlie will was gefunden haben: http://semiaccurate.com/2016/05/03/thing-go-bumpgate-in-the-night-for-nvidias-gp100-pascal-gpu/

Palpatin
2016-05-03, 16:44:47
Halte es nach wie vor für möglich das GP 104-150 die 1070 ist und diese mit 4 oder 6 gb kommt. 970 release Preis wäre dann möglich.
GP 104-200 könnte als 1080 oder als 1075 kommen.

scully1234
2016-05-03, 16:59:00
Charlie will was gefunden haben: http://semiaccurate.com/2016/05/03/thing-go-bumpgate-in-the-night-for-nvidias-gp100-pascal-gpu/


Je suis Charlie jedes Jahr was neues damit es nicht langweilig wird :smile:

Zergra
2016-05-03, 17:41:59
Glaube eher die 1080 ist der 104-400
Eine Ti kommt dann Ende des Jahres raus.

Troyan
2016-05-03, 17:44:36
Laut Theo Valich soll es ein Livestream am Freitag geben. Auch sollen wirklich zwei GPUs und 5 Varianten kommen: http://vrworld.com/2016/05/03/nvidia-pascal-secret-hidden-directory/

woodsdog
2016-05-03, 17:48:44
paywall links. Daumen hoch.

igg
2016-05-03, 18:01:46
Laut Theo Valich soll es ein Livestream am Freitag geben. Auch sollen wirklich zwei GPUs und 5 Varianten kommen: http://vrworld.com/2016/05/03/nvidia-pascal-secret-hidden-directory/
Wo ist denn das versteckte Verzeichnis?

scully1234
2016-05-03, 18:03:36
scheduled to power GeForce GTX 1060 Ti (6GB GDDR5), 1070 (8GB GDDR5) and 1080 (8GB GDDR5X). GP106 silicon will power the GeForce GTX 1050 (2GB GDDR5) and 1060 (4GB GDDR5).

Und dann am besten noch MXM Platinen fuer den Notebook Sektor...

Kann mal einer sagen woher die Ressourcen kommen dafuer?:uconf2:

Troyan
2016-05-03, 18:04:11
Wo ist denn das versteckte Verzeichnis?

Es ist eher die Frage: Weiß er mehr oder schreibt er nur Quatsch. Wir werden es in den nächsten drei Tagen sehen. :freak:

Sunrise
2016-05-03, 19:18:29
Kann mal einer sagen woher die Ressourcen kommen dafuer?:uconf2:
Woher die Ressourcen kommen? Vielleicht von sehr guten Margen und sehr hohem Marktanteil seit Jahren?

Ist für NV überhaupt kein Thema, weil sie alles wieder mehrfach zu Geld machen was sie da bauen, vor allem da GP104 wohl sehr langlebig sein wird.

Mancko
2016-05-03, 19:50:45
Woher die Ressourcen kommen? Vielleicht von sehr guten Margen und sehr hohem Marktanteil seit Jahren?

Ist für NV überhaupt kein Thema, weil sie alles wieder mehrfach zu Geld machen was sie da bauen, vor allem da GP104 wohl sehr langlebig sein wird.

Zumal Nvidia mittlerweile deutlich mehr R&D als AMD ausgibt und sich damit im Prinzip bis auf Tegra mehr oder minder auf GPUs konzentrieren kann. AMD muss sein R&D mit der CPU Abteilung sharen und das R&D dort wird mehr in Anspruch nehmen als Nvidia's R&D für Tegra. Insofern haben die da mittlerweile einen massiven Vorteil.

Schaffe89
2016-05-03, 20:11:48
D

Interessant. Auf welche Infos beziehst du dich? Bei dir habe ich den Eindruck, dass du von nVidia immer das beste annimmst und bei AMD das schlimmste.

Wieviele Shader wird Nvidia denn verbauen? 2560/3072/2816, irgendwas um diesen Dreh herum.
Da Nvidia das ganze besser auslasten kann und auch noch einen deutlich höheren Takt fahren, da sie den Chip vermutlich auch weniger dicht packen, wird es für AMD recht schwer werden, aber gut das mit den gesicherten 1154mhz wusste ich nicht, das sieht doch schonmal besser aus, wenn auch wohl bei ~150 Watt TDP.

Rampage 2
2016-05-03, 23:37:33
Wieviele Shader wird Nvidia denn verbauen? .../3072/..., irgendwas um diesen Dreh herum.


Ich wünschte mir zwar, dass es 3072 wären, aber dann wäre der Abstand zum GP102 zu niedrig, zumal dieser wahrscheinlich nur kastriert (56 statt 60 SMX) im Consumer-Segment erscheinen wird und vermutlich auch mit niedrigerem Taktpotential... (weil fetter, mehr Recheneinheiten und breiteres SI)

R2

Thunder99
2016-05-03, 23:49:20
Kann man nicht unbedingt sagen, siehe GM204 <-> GM200. Beide packen 1400-1500

BlacKi
2016-05-04, 00:08:51
leo meint pascal kommt am freitag ? :weg:

N0Thing
2016-05-04, 01:28:04
Kann man nicht unbedingt sagen, siehe GM204 <-> GM200. Beide packen 1400-1500

Beide Chips sind aber auch auf einem ausgereiften 28nm Prozess erschienen. Da sind Vergleiche mit Kepler meiner Meinung nach passender.
Hohe Taktraten für GP104 sind natürlich möglich, dann würde ich aber auch Kompromisse bei der Packdichte erwarten.

scully1234
2016-05-04, 09:13:53
Da sind Vergleiche mit Kepler meiner Meinung nach passender.
Hohe Taktraten für GP104 sind natürlich möglich,.

Warum soll ich bei Kepler schauen ,wenn es schon einen eher konservativ getakteten Monsterchip gibt ,der mit ~ 1500 Boost seine Arbeit verrichtet.

GP100 ist ne Tesla Variante ,und auf absolute Stabilitaet getrimmt. Wenn das Geforce Derivat jetzt niedriger taktet, waere das schon eine Ueberraschung.

Complicated
2016-05-04, 09:28:10
Für Gamer soll es ja einen optimierten GP102 geben. Demnach wäre kein Derivat von GP100 zu erwarten als Geforce. Durchaus möglich, dass GP102 die Fläche für mehr Shader oder dichtere Transistoren oder beides nutzt und so seinen Sweetspot mit niedrigeren Taktraten hat.

Hübie
2016-05-04, 09:41:17
Die Hints dafür sind so dünn dass ich gar nicht mehr glaube so einen Chip jemals zu sehen. Dies würde bedeuten, GP100 finanziere sich ausschließlich über den HPC- und eventuell Profimarkt.

scully1234
2016-05-04, 09:41:28
dass GP102 die Fläche für mehr Shader oder dichtere Transistoren oder beides nutzt .

Glaube nicht das man die Packdichte erhoeht(was zusaetzliche Tests nach sich ziehen wuerde), lediglich die FP64 Funktionalitaet trimmt ,und moeglicherweisse??? das HBM SI wegrationalisiert,zu Gunsten von GDDR5X

Disco_STFU
2016-05-04, 09:54:38
So dumm kann aber auf Dauer die Kundschaft nicht sein wenn die Konkurrenz eine bessere Alternative bietet.


I have bad news for you... :rolleyes:

Ailuros
2016-05-04, 10:02:21
Zumal Nvidia mittlerweile deutlich mehr R&D als AMD ausgibt und sich damit im Prinzip bis auf Tegra mehr oder minder auf GPUs konzentrieren kann. AMD muss sein R&D mit der CPU Abteilung sharen und das R&D dort wird mehr in Anspruch nehmen als Nvidia's R&D für Tegra. Insofern haben die da mittlerweile einen massiven Vorteil.

Es liegt ein zweiter Generation Denver unter Entwicklung.

Ailuros
2016-05-04, 10:04:53
Je suis Charlie jedes Jahr was neues damit es nicht langweilig wird :smile:

Er bezieht sich auf GP100; falls er den zusaetzlichen metal spin meinen sollte den der chip braucht, dann hat er auch Recht.

Es ist eher die Frage: Weiß er mehr oder schreibt er nur Quatsch. Wir werden es in den nächsten drei Tagen sehen. :freak:

Theo und Wissen passt nicht in den gleichen Satz :P

Dural
2016-05-04, 10:13:22
Es liegt ein zweiter Generation Denver unter Entwicklung.

Ich hoffe nicht das der noch in Entwicklung ist, sonst wird der Liefertermin ende Jahr ziemlich knapp ;)


Er bezieht sich auf GP100; falls er den zusaetzlichen metal spin meinen sollte den der chip braucht, dann hat er auch Recht.


Sagt wer? NV hat doch ganz klar gesagt das sich GP100 in der Fertigung befindet.

scully1234
2016-05-04, 10:14:28
Er bezieht sich auf GP100; falls er den zusaetzlichen metal spin meinen sollte den der chip braucht, dann hat er auch Recht.



Das klingt in der Ankuendigung Charlie typisch wie immer viel dramatischer :smile:

Ailuros
2016-05-04, 10:22:54
Ich hoffe nicht das der noch in Entwicklung ist, sonst wird der Liefertermin ende Jahr ziemlich knapp ;)

Tegra6 hatte schon vor geraumer Zeit seinen tape out. Denver 2 laesst noch auf sich warten.

Sagt wer? NV hat doch ganz klar gesagt das sich GP100 in der Fertigung befindet.

Ich. Du darfst Dich gerne mal selber mit NV in Kontakt setzen und sie fragen wie beschissen die yields genau dafuer sind, warum sie den chip nicht in anderen zusaetzlichen Maerkten schon liefern und wieso man einen metal spin brauchen koennte. Es war uebrigens schon immer so seit etlichen Generationen bei NV's groessten chips bei jeglichem ersten Schub.

Das klingt in der Ankuendigung Charlie typisch wie immer viel dramatischer :smile:

Irgendwie braucht man auch etwas um wenigstens ein paar unglueckliche Kandidaten fuer die paywall zu finden ;)

Nakai
2016-05-04, 10:26:33
Sagt wer? NV hat doch ganz klar gesagt das sich GP100 in der Fertigung befindet.

Also wer NV irgendwas glaubt ist selber Schuld. Nur so nebenbei, dass P100 keinen vollen GP100 hat und 300W TDP besitzt sollte einem schon die Stirn zum runzeln bringen.

Und klar wird GP100 produziert, aber höchstens in homöpathischen Mengen, damit bestimmte Partner beliefert werden. Ich denke in einem Jahr sehen wir dann GP100-Full.

Hübie
2016-05-04, 10:28:50
GM200 gibt es nur in A1. :P

Ailuros
2016-05-04, 10:35:19
GM200 gibt es nur in A1. :P

Es geht auch nicht um die heutigen chips sondern die die sie fuer Q2 2017 brauchen.

Hübie
2016-05-04, 10:45:16
[...] wieso man einen metal spin brauchen koennte. Es war uebrigens schon immer so seit etlichen Generationen bei NV's groessten chips bei jeglichem ersten Schub.

Ich bezog mich darauf. GF100 brauchte ne neue Iteration, GK110 einen metal spin und GP100 wohl auch. GM200 kam ohne aus.
Ehrlich gesagt wunderte ich mich eh das da überall A1-Dinger vom big Pascal zu sehen waren.

Thunder99
2016-05-04, 10:49:32
I have bad news for you... :rolleyes:
Oh no! :eek: :( :freak:

Wenn einer kostendeckend einen Profi Chip verkaufen kann, dann eher nvidia als AMD bei der derzeitigen Marktlage

Ailuros
2016-05-04, 10:49:48
Ich bezog mich darauf. GF100 brauchte ne neue Iteration, GK110 einen metal spin und GP100 wohl auch. GM200 kam ohne aus.
Ehrlich gesagt wunderte ich mich eh das da überall A1-Dinger vom big Pascal zu sehen waren.

GF100 war der SC k.o. und GM200 war womoeglich eine Aussnahme falls sie auch wirklich nichts Neues aufgelegt haben (reviewers nehmen meistens die Kuehler von chips NUR beim launch ab...). Sonst brauchten sie selbst beim G80 einen metal spin fuer die 8800Ultra sonst haetten sie den versprochenen 1.5GHz hotclock mit A1 nie erreicht u.a.

scully1234
2016-05-04, 10:52:48
Ist es nicht auch moeglich das der Spin bereits gelaufen war, bevor der Chip in ''A2'' Stepping in Massenproduktion ging?

Vielleicht hat Charlie nur was aufgeschnappt, was sowieso angedacht und initiiert war

Hübie
2016-05-04, 10:53:23
Also ich habe eine recht späte GM200-GPU und die ist A1. Hab ja zwei mal WLP gewechselt und konnte den Chip streicheln ...äh angucken. :biggrin:

scully1234
2016-05-04, 10:55:46
Ich auch aber ne recht fruehe:smile:

http://extreme.pcgameshardware.de/attachments/828647d1433007718-3-achsen-rennsimulator-mit-180-grad-rahmenloser-leinwand-dsc00121.jpg

http://extreme.pcgameshardware.de/tagebuecher/323693-3-achsen-rennsimulator-mit-180-grad-rahmenloser-leinwand-11.html#post7431865

Ailuros
2016-05-04, 10:57:40
Also ich habe eine recht späte GM200-GPU und die ist A1. Hab ja zwei mal WLP gewechselt und konnte den Chip streicheln ...äh angucken. :biggrin:

Es gab mal Geruechte ueber eine dual GPU mit GM200; wenn je etwas daran lag haetten sie wohl schwer einen Grund fuer einen jeglichen spin gehabt.

Ist es nicht auch moeglich das der Spin bereits gelaufen war, bevor der Chip in ''A2'' Stepping in Massenproduktion ging?

Vielleicht hat Charlie nur was aufgeschnappt, was sowieso angedacht und initiiert war

Nein. Ich sagte uebrigens Q2 und nicht Q1 17' welches die zeitliche Verspaetung eines metal spins mitberechnet.

Hübie
2016-05-04, 11:00:25
Also in den Labs haben die ziemlich sicher eine dual GM200. Dual GM204 gibt's mittlerweile genau so wie GM204 mit 8 GB. Nur halt nicht über normale retail channel zu normalen Preisen für normale Spiele. :D

scully1234
2016-05-04, 11:08:56
Nein. Ich sagte uebrigens Q2 und nicht Q1 17' welches die zeitliche Verspaetung eines metal spins mitberechnet.

Also gehst du davon aus, das der salvage Part jetzt unangetastet bleibt ,und in A1 vom Band laeuft ,und sie spaeter nochmal nachlegen?

Ailuros
2016-05-04, 11:50:02
Also gehst du davon aus, das der salvage Part jetzt unangetastet bleibt ,und in A1 vom Band laeuft ,und sie spaeter nochmal nachlegen?

Sie produzieren ja momentan nur begrenzte Mengen und wohl nur in der 56 cluster Form. Ich weiss natuerlich nicht wie ihre binning yields aussehen koennten, aber falls sie nur weniger als eine handvoll von chips mit 60 clusters bekommen sollten dann haben sie auch keine andere Wahl als diese momentan zur Seite zu legen, den chip durch einen metal spin jagen und dann auch u.a. chips im vollen Ausbau veroeffentlichen. Bei einem so verdammt komplizierten chip und einem so jungen Prozess wuerde mich alles andere verdammt ueberraschen.

HOT
2016-05-04, 12:27:23
Würd ich voll zustimmen. Und es wird um den GP100 dabei gehen, die Gerüchte um Produktionsprobleme in 16nm gabs ja schon erheblich früher. Die werden jetzt einfach mit einem 30%-Yield produzieren und später dann mit dem B1 in die Massenproduktion gehen.
GP104 wird sicherlich als A1 schon final gehen. Glaub nicht, dass die damit Produktionsprobleme haben.

Wie wärs eigentlich, wenn NV bei den GP10x weg geht von den 640er Shaderclustern (ich weiss, NV nennt das Multiprozessor oder so ähnlich, ich nenns jetzt mal so) des GP100 geht hin zu 768er Clustern? Beim Fermi hat man das ja ähnlich gehandhabt.
Damit könnte NV einfach 2 Cluster im GP106 verbauen und 3 im GP104, was 1536 Shader bei GP106 entsprechen würde und 2304 im GP104. Wenn man GP104 dann auf 1,6 bis 1,7 GHz bringt, könnte man GM200 knapp schlagen mit dem 300mm²-Chip was ziemlich gut wär. Wenn 6 Cluster wieder maximum ist hätte der GP102, sollte man wieder 600mm² in Erwägung ziehen, 4608 Shader, was eine enorme Leistung wäre. Zudem denke ich, dass NV GP106 mit einem 192Bit-Interface ausgestattet hat, damit 3GB GDDR5 verbaut werden können. Bin gespannt, wie das letztendlich aussieht.

fondness
2016-05-04, 12:28:02
GM200 gibt es nur in A1. :P

Wer sagt, dass A1 für die Anzahl der Metal-Spins steht? NV kann die Dinger bennenen wie sie lustig sind.

Dural
2016-05-04, 12:42:19
Maxwell gibt es nur in A1.

Ailuros
2016-05-04, 12:52:57
Wer sagt, dass A1 für die Anzahl der Metal-Spins steht? NV kann die Dinger bennenen wie sie lustig sind.

Macht kein einziger IHV aus Gruenden die Du Dir wohl nicht vorstellen willst.

Complicated
2016-05-04, 13:08:10
Glaube nicht das man die Packdichte erhoeht(was zusaetzliche Tests nach sich ziehen wuerde), lediglich die FP64 Funktionalitaet trimmt ,und moeglicherweisse??? das HBM SI wegrationalisiert,zu Gunsten von GDDR5XOhne HBM? Sehr unwahrscheinlich, dass Nvidia kein HBM2 basierendes Geforce Produkt plant in dieser Performanceklasse, welches gegen Vega positioniert wird. Vor allem würde man viel Diefläche zusätzlich für das SI opfern.

Thunderburne
2016-05-04, 13:24:31
Ohne HBM? Sehr unwahrscheinlich, dass Nvidia kein HBM2 basierendes Geforce Produkt plant in dieser Performanceklasse, welches gegen Vega positioniert wird. Vor allem würde man viel Diefläche zusätzlich für das SI opfern.
Warum nicht FuryX VS.TI ging doch auf für NV.
Zwingend erforderlich ist HBM2 derzeit nicht.
Mit 12GBS GDDR5X und 384Bit würde man auch noch genug Bandbreite liefern können .
Wen das die Herstellungskosten Vorläufig geringer hält würde ich das als Unternehmen wohl auch so machen wen das vom Design her möglich ist.
Eine schöne Ti mit 12GB GDDRX5 Vs. Vega 8GB HBM2 hätte auch was.

Ailuros
2016-05-04, 13:30:29
Warum nicht FuryX VS.TI ging doch auf für NV.
Zwingend erforderlich ist HBM2 derzeit nicht.
Mit 12GBS GDDR5X und 384Bit würde man auch noch genug Bandbreite liefern können .
Wen das die Herstellungskosten Vorläufig geringer hält würde ich das als Unternehmen wohl auch so machen wen das vom Design her möglich ist.

Wenn man schon so weit geht, hat man an NV's Stelle dann wohl auch gleich einen "GP102" parat.

Zergra
2016-05-04, 13:36:00
Ohne HBM? Sehr unwahrscheinlich, dass Nvidia kein HBM2 basierendes Geforce Produkt plant in dieser Performanceklasse, welches gegen Vega positioniert wird. Vor allem würde man viel Diefläche zusätzlich für das SI opfern.
Finde ich nicht, 5X kann HBM2 noch eine Weile hinhalten. Dazu sorgt es auch für einen kleineren und billigeren Chip. Das passt doch sehr gut :frown:

Thunderburne
2016-05-04, 13:38:07
Wenn man schon so weit geht, hat man an NV's Stelle dann wohl auch gleich einen "GP102" parat.
Jap halte ich auch nicht für undenkbar.
Ein Anlauf mit HBM2 könnte man ja noch später machen wenn der 16Nm Prozzes so richtig gut funktioniert.
Ich denke das wir den 14und 16Nm auch erstmal 3-4 Jahre sehen werden.
Aber genug Hypothesen lassen wir uns überraschen.

Thunderburne
2016-05-04, 13:43:30
Finde ich nicht, 5X kann HBM2 noch eine Weile hinhalten. Dazu sorgt es auch für einen kleineren und billigeren Chip. Das passt doch sehr gut :frown:
Am Ende zählt doch nur was hinten rauskommt ob das mit HBM2 oder GDDR5X erziehlt wird ist doch erstmal egal.
Vielleicht wäre so ein 8GB HM2 Produkt derzeit weder für uns noch den den Hersteller Wirtschaftlich.
Haben und Nutzen sind nicht immer das selbe.

Complicated
2016-05-04, 13:54:42
Ich denke da sind nicht alleine die technischen Eckdaten entscheidend. Es wird einfach nicht "uptoDate" wirken mit dem Top-Chip. AMD schon in zweiter Generation voraus beim Speicher? Kein Asynchrous Compute unter DX12? Man hat eine HBM/Interposer-Produktionslinie, die auch ausgelastet werden muss um wirtschftlich zu sein. Ich nenne einfach einige unternehmerische Gründe die dafür sprechen Die-Stacking weiter voran zu treiben, auch wenn es nicht direkt in Performnce umgemünzt wird. Im Gegenteil ist das Ziel ja eigentlich HBM auch in nierdrigeren Performance-Segementen wirtschaftlich zu machen.

Zergra
2016-05-04, 13:58:17
AMD bringt doch HBM2 erst Anfang 2017, das wäre schon ein langer Zeitpunkt. "uptodate" war die 970GTX auch nicht. Sie wurde aber trotzdem gekauft. Das ist mmn. kein großer Kaufaspekt.
Sollte die Karte mit 5X schneller als eine AMD Karte mit HBM2 sein, stört es eh nur noch wenige.

scully1234
2016-05-04, 14:29:21
Ich denke da sind nicht alleine die technischen Eckdaten entscheidend. Es wird einfach nicht "uptoDate" wirken mit dem Top-Chip.

Mit einer Technologie voraus preschen, obwohl sie keinen wirtschaftlichen oder technologischen Vorteil bringt, klingt nicht nach der Art wie Nvidia ihre Karten positioniert.

Den kleinen Mediamarkt Geforce Nerd da draussen, wird sowieso niemand den Unterschied zwischen HBM und GDDR5X begreiflich machen koennen, solange er das nicht unmittelbar am Framecounter sieht

Und GDDR5X ,effizientes Caching,und Texturkompression, bietet aktuell noch genug Ausbaupotential, sodas sich das in dem Segment schon noch ausgeht von der Bandbreite

Hübie
2016-05-04, 14:56:40
Wer sagt, dass A1 für die Anzahl der Metal-Spins steht? NV kann die Dinger bennenen wie sie lustig sind.

Buchstabe Baselayer, Zahl einer der Metallayer spins. Ist bei NV so. Kannst gern jegliche Engineers oder sonst wen da interviewen. Würde das keine Bedeutung haben würde man es nicht drauf drucken.

Complicated
2016-05-04, 15:03:25
Mit einer Technologie voraus preschen, obwohl sie keinen wirtschaftlichen oder technologischen Vorteil bringt, klingt nicht nach der Art wie Nvidia ihre Karten positioniert.Der wirtschaftliche Vorteil ergibt sich durch Erhalt der Marktanteile. Ein neues Produkt muss auch neues bieten können, zumindest dann wenn die Konkurrenz es auch tut.

"Neuste HBM2 Speichertechnik" auf dem Karton im Mediamarkt lässt GDDR5X älter und rückständiger wirken als er es tatsächlich ist. Der Anteil der Mediamarkt-Käufer die Benchmarks studieren ist vernachlässigbar.

Gipsel
2016-05-04, 15:25:53
Buchstabe Baselayer, Zahl einer der Metallayer spins. Ist bei NV so. Kannst gern jegliche Engineers oder sonst wen da interviewen. Würde das keine Bedeutung haben würde man es nicht drauf drucken.Gerüchteweise fangen Einige (nicht nV) bei A0 an zu zählen. Ganz allgemeingültig ist es also nicht ;).

Thunderburne
2016-05-04, 15:27:16
Der wirtschaftliche Vorteil ergibt sich durch Erhalt der Marktanteile. Ein neues Produkt muss auch neues bieten können, zumindest dann wenn die Konkurrenz es auch tut.

"Neuste HBM2 Speichertechnik" auf dem Karton im Mediamarkt lässt GDDR5X älter und rückständiger wirken als er es tatsächlich ist. Der Anteil der Mediamarkt-Käufer die Benchmarks studieren ist vernachlässigbar.
HBM2 ist aber noch etwas weit weg um Einzug im Mediamarkt zu erhalten wird es so schnell auch nicht sein.
Und wer solche Highendprodukte kauft beliest sich und wer das nicht tut und Geld on Mass hat und nur das schnellste will orientiert sich nach NV (Aple)

AffenJack
2016-05-04, 15:36:03
Nein. Ich sagte uebrigens Q2 und nicht Q1 17' welches die zeitliche Verspaetung eines metal spins mitberechnet.

Wieso sollte ein metal spin die Verfügbarkeit eigentlich von Q1 auf Q2 verschieben? Ein Metal spin dauert doch immer nur 3,4 Monate, lass es selbst 6 Monate sein. Da ist immernoch genug Zeit um in Q1 Mengen größere Mengen auszuliefern. Solange man kein Baselayerspin (oder wie man das nennt) braucht sollte sich das doch ausgehen und ich könnte mir den Q1 termin schon inklusive des Spins gerechnet vorstellen.

Rampage 2
2016-05-04, 15:50:59
Ich weiss natuerlich nicht wie ihre binning yields aussehen koennten, aber falls sie nur weniger als eine handvoll von chips mit 60 clusters bekommen sollten dann haben sie auch keine andere Wahl als diese momentan zur Seite zu legen, den chip durch einen metal spin jagen und dann auch u.a. chips im vollen Ausbau veröffentlichen.

Ist die Möglichkeit überhaupt realistisch, dass NV irgendwann einen vollen GP102 (60 SMX, Respin wie GF110) für den Consumer-Segment ("1080 Ti Black", "Titan III Black") rausbringt?

Dann könnte man sich nämlich auch die Frage stellen, ob der jetzige GP104 ebenfalls nur (vorläufig) als kastrierte Variante (z.B. 36 statt 40 SMX) erscheint, um dann von einem Refresh (40 SMX, schnellerer GDDR5X-Speicher) abgelöst zu werden...

R2

Thunder99
2016-05-04, 16:53:37
Nvidia ist alles zuzutrauen ;) Siehe GF104/100

Complicated
2016-05-04, 17:19:39
HBM2 ist aber noch etwas weit weg um Einzug im Mediamarkt zu erhalten wird es so schnell auch nicht sein.
Es gibt schon HBM-Produkte im Mediamarkt.

scully1234
2016-05-04, 17:24:31
Pascal verfolgt architektonisch aber zwei Ansaetze ,so das man ihn nicht mit vergangenen Architekturen vergleichen kann

Bei 60 Shaderclustern HPC entschlackt und konsequent als Pixelschubser konstruiert ,waere das ein unnormales Rendermonster

Ich wuerde sagen man stapelt mit GP102 deutlich tiefer ,mit hoeherem Takt, und hebt sich das 60SMX Szenario fuer Volta auf

Der wirtschaftliche Vorteil ergibt sich durch Erhalt der Marktanteile. .

Und das kann man nicht indem man ein GDDR5X Modell baut was in allen relevanten 0815 Benchmarks die Mediamarktkundschaft ''flasht''?

Ich glaube wenn du ausserhalb der Foren jemand fragst was HBM ist ,werden 80% nur mit der Stirn runzeln

Schau dir die Steam Statistik an, da hat nichtmal jemanden der fragmentierte Speicher interessiert

Complicated
2016-05-04, 17:36:32
Der Anteil der Mediamarkt-Käufer die Benchmarks studieren ist vernachlässigbar.
Und das kann man nicht indem man ein GDDR5X Modell baut was in allen relevanten 0815 Benchmarks die Mediamarktkundschaft ''flasht''?Argumentiert sich jetzt im Kreis. Du kannst diese Sicht des Marketings, welches bei Nvidia ein deutlich höheres Gewicht hat als bei AMD, gerne ignorieren.

IMHO wird es bei der Designentscheidung und zu dem damaligen Zeitpunkt eine Rolle gespielt haben. Es gibt mehr als nur technische Gründe für solche Entscheidungen - weiß gar nicht was es da rum zu lamentieren gibt. Eine Fertigungslinie mit Interposern fährt man nicht eben mal hoch und wieder runter weil GDDR5X auch reicht für 80% der hiesigen Forenuser.

scully1234
2016-05-04, 17:41:13
Eine Fertigungslinie mit Interposern fährt man nicht eben mal hoch und wieder runter weil GDDR5X auch reicht für 80% der hiesigen Forenuser.

Wo siehst du denn bis auf GP100 ne laufende Fertigung mit Interposer?

Botcruscher
2016-05-04, 17:43:04
Eure HBM Diskussion bringt doch nichts. Sobald die Wirtschaftlichkeit gegeben ist, bringt HBM nur Vorteile.

Complicated
2016-05-04, 17:43:18
Wieso braucht es eine weitere?

Agent117
2016-05-04, 17:45:52
Ist die Möglichkeit überhaupt realistisch, dass NV irgendwann einen vollen GP102 (60 SMX, Respin wie GF110) für den Consumer-Segment ("1080 Ti Black", "Titan III Black") rausbringt?

Dann könnte man sich nämlich auch die Frage stellen, ob der jetzige GP104 ebenfalls nur (vorläufig) als kastrierte Variante (z.B. 36 statt 40 SMX) erscheint, um dann von einem Refresh (40 SMX, schnellerer GDDR5X-Speicher) abgelöst zu werden...

R2

Ist es jetzt amtlich dass GP102 auch 60SMX hat wie GP100 oder gar GP100 mit Respin dann in Consumer Form als GP102 läuft? Habe ich was grundlegendes verpasst?

Entweder Pascals SMX sind brutal effizienter, ansonsten braucht NV mit 3840SP nicht gegen Vega zu kommen, außer man möchte zur Abwechslung mal die Performancekrone abgeben.
Wenn man jetzt schon in der Lage ist in 16FF+ einen 600mm² Chip zu bauen warum sollte man das dann spätestens 2017 nicht für einen Consumer Chip mit 5000+ SP nutzen? Einzige Erklärung wäre man braucht es nicht weil Vega zu schwach wird und man das schon wusste. Alles andere ist aus NV typischer Sicht quatsch.

BTW: GP102 als Consumer GP100 bräuchte auch 4 HBM Stacks um auf vernünftige Bandbreiten zu kommen weil der MC zumindest in der Tesla P100 nur 700Mhz mitmacht. Andererseits ist ja vlt auch der mal wieder kaputt, wäre ja nicht das erste Mal bei NV.

scully1234
2016-05-04, 17:45:55
Weil Jonah Alben bereits andeutete das sie Pascal in zwei Umsetzungen bringen

Und wenn da GDDR5X noch ausbaufaehig ist bis 16 GBit ,macht es fuer die Bereiche Geforce nunmal auch Sinn ,den noch solange zu melken, bis HBM finanziell im selben Preisbereich gelandet ist

Unicous
2016-05-04, 17:53:56
Nur mal so zur Info. Xilinx produziert seit Jahren Chips mit Interposer. Wer hier die Produktion hochfahren kann und wer nicht möchte ich dann doch mal explizit ausgeführt haben, anstatt hier immer Stuss von sich zu geben.

Einen Interposer zu fertigen ist pillepalle. Bei Assembly und Packaging hat man die Probleme.

Complicated
2016-05-04, 19:21:09
Also du meinst du latscht zu Xilinx rein und beauftragst ein Interposer Produkt um dann 2 Jahre später zu sagen, lasst mal stecken Leute GDDR5X ist noch billiger die nächsten 6 Monate? Keine Verträge, keine Zielplanungen, keine Kapazitätsgarantien ... Eine Interposer Fertigungslinie beinhaltet ja wohl gerade das Assembly und Packaging.
...wer hier Stuss von sich gibt weil er mal wieder außerhalb des Kontext Tiraden los lässt zeigt sich ja deutlich.

Hübie
2016-05-04, 19:32:36
Gerüchteweise fangen Einige (nicht nV) bei A0 an zu zählen. Ganz allgemeingültig ist es also nicht ;).

Schrieb ja: bei NV ist es so ;) AMD CPUs lehnen sich da an. Hier meine ich auch schon Nullen gesehen zu haben. Loeschzwerg, der alte Sammler (:D), kann da sicher mehr sagen.
Wies keimt denn jetzt schon wieder die HBM2-Diskussion auf? Fangen wir wieder von vorn an?

BlacKi
2016-05-04, 19:38:15
Eure HBM Diskussion bringt doch nichts. Sobald die Wirtschaftlichkeit gegeben ist, bringt HBM nur Vorteile.
so siehts aus. bei den großen chips rentiert sich hbm zwar früher, aber wenn die geschwindigkeits einbußen nicht zu groß werden wird man vl auch bei gp102 bei gddr5x bleiben können, auch wenn ich nicht dran glaube das es so passieren wird.

Mancko
2016-05-04, 20:55:59
Es liegt ein zweiter Generation Denver unter Entwicklung.

Der kostet aber nie und nimmer das R&D was AMD im x86 Bereich aufbringen muss um da Schritt zu halten mit Intel. Das ist nicht vergleichbar.

fondness
2016-05-04, 21:43:54
Der kostet aber nie und nimmer das R&D was AMD im x86 Bereich aufbringen muss um da Schritt zu halten mit Intel. Das ist nicht vergleichbar.

AMD verfügt über eine in Jahrzehnten aufgebaute IP, NV fängt fast bei null an. NVs CPU-Abteilung wird so klein nicht sein, wenn sie zumindest irgendwann einen ernstzunehmende CPU veröffentlichen wollen.

Unicous
2016-05-04, 22:45:53
Also du meinst du latscht zu Xilinx rein und beauftragst ein Interposer Produkt um dann 2 Jahre später zu sagen, lasst mal stecken Leute GDDR5X ist noch billiger die nächsten 6 Monate? Keine Verträge, keine Zielplanungen, keine Kapazitätsgarantien ... Eine Interposer Fertigungslinie beinhaltet ja wohl gerade das Assembly und Packaging.
...wer hier Stuss von sich gibt weil er mal wieder außerhalb des Kontext Tiraden los lässt zeigt sich ja deutlich.

"Tiraden".;D

Solch einen substanzlosen Quatsch den du hier verbreitest kann man doch nicht einfach so stehen lassen. Aber erklär mir erst einmal was Xilinx mit GDDR5X zu tun hat, auf die Erklärung warte ich jetzt schon gespannt..:rolleyes:

Du tust hier so als wäre der Interposer immer noch krasse rocket science, dabei nutzt Xilinx die schon seit 5 Jahren und auch schon in der x-ten Generation. Der Interposer ist nicht einmal ansatzweise das Problem, sondern das Aufbringen von 5 Dies, die genau platziert werden müssen. Wenn du schon klugscheißen willst, dann sei auch dementsprechend präzise. Eine supply-chain die sich auf HBM spezialisiert hat, ist etwas anderes als eine "Interposer-Fertigungslinie" (was auch immer das sein soll :rolleyes:).

So wie es aussieht fährt nämlich gerade TSMC ihre interne "supply chain" (CoWoS) für Nvidia hoch, denn es gibt bislang keine Anhaltspunkte, dass das extern gelöst wird.
Währenddessen krepelt AMD mit Fiji rum und es juckt weder Amkor noch UMC noch die anderen supplier ob AMD mal wieder ein paar hundert Fijis ordert. Das machen sie nebenbei. Worum es bei der supply chain eigentlich geht ist logisch und auch bekannt: time to market. Wie stelle ich sicher, dass die einzelnen Prozesse so in einander greifen, dass man die Chips schnell und kontinuierlich produzieren kann.

Und jetzt warte ich sehnsüchtig auf deine mit Fakten belegten Ausführungen. Du kannst dich übrigens als ersten Anhaltspunkt bei 3dincites.com umschauen, die haben immer nette Zusammenfassungen der einzelnen workshops und Messen.:up:

Hübie
2016-05-04, 23:39:46
Wobei Xilinx nichts selber produziert sondern herstellen lässt. Aber im Grunde hast du Recht. Bei einem Projekt von uns, vor drei Jahren, war es sogar unabdingbar eine Lösung mit Interposer zu benutzen.

Unicous
2016-05-04, 23:45:18
Na bei TSMC lassen sie herstellen. AMD und Nvidia sind ja auch fabless.:wink:

Der Interposer ist wirklich das geringste Problem und wohl auch mit Abstand der kostengünstigste Teil in der Kostenrechnung wenn es um die Dies geht.

N0Thing
2016-05-05, 02:38:05
Vielleicht sollte man noch mal in Ruhe die einzelnen Beiträge lesen, bevor wieder die Keule geschwungen wird und Tippfehler für das persönliche Überlegenheitsgefühl heran gezogen werden müssen.

Leonidas
2016-05-05, 04:24:06
Pascal verfolgt architektonisch aber zwei Ansaetze ,so das man ihn nicht mit vergangenen Architekturen vergleichen kann

Bei 60 Shaderclustern HPC entschlackt und konsequent als Pixelschubser konstruiert ,waere das ein unnormales Rendermonster

Ich wuerde sagen man stapelt mit GP102 deutlich tiefer ,mit hoeherem Takt, und hebt sich das 60SMX Szenario fuer Volta auf




Sofern GP102 nicht *mehr* SM als GP100 bringt, lohnt sich der Chip nicht. Dann kann man dieselbe Performance auch mit GP100 erreichen. Die Wattage kann im Gamer-Einsatz geringer werden, wenn man es schafft, FP64-ALUs richtig abzuschalten.

Wenn, dann muß GP102 etwas deutlic abweichendes zu GP100 sein. Entweder *deutlich* kleiner, damit er wirtschaftlicher ist (und selbst dann ist die Frage, ob nicht ein Chip wirtschaftlicher als zwei sind) - oder größer für einen höheren Performance-Ansatz, den GP100 nicht erreichen kann.

Unicous
2016-05-05, 09:00:11
Vielleicht sollte man noch mal in Ruhe die einzelnen Beiträge lesen, bevor wieder die Keule geschwungen wird und Tippfehler für das persönliche Überlegenheitsgefühl heran gezogen werden müssen.

Hat nichts mit Überlegenheitsgefühl oder Spitzfindigkeiten zu tun auch wenn du es nicht glaubst. Hier geben einige ihr sinnfreies Gebrabbel ab, sprechen in Absoluten und tun auch noch so als wäre das der Weisheit letzter Schluss, dabei fischen sie genauso im Trüben wie die anderen auch. Fehlende Selbstreflexion nennt man das und durch die mangelnde Kritikfähigkeit reagiert man dann pikiert wenn man das anspricht.

Skysnake
2016-05-05, 10:20:54
Er bezieht sich auf GP100; falls er den zusaetzlichen metal spin meinen sollte den der chip braucht, dann hat er auch Recht.

Also hatte ich doch Recht mit meinem unguten Gefühl. :(

Hast du Kenntnisse wo die Probleme liegen?

Ich würde ja auf Power, Clock, NVLink, HBM in genau der Reihenfolge Tippen.

Ailuros
2016-05-05, 11:07:32
Also hatte ich doch Recht mit meinem unguten Gefühl. :(

Hast du Kenntnisse wo die Probleme liegen?

Ich würde ja auf Power, Clock, NVLink, HBM in genau der Reihenfolge Tippen.

Du hast immer Recht selbst wenn es sich um die unschuldigste Kleinigkeit handeln sollte. Charlie bezahlt zwar schlechter als Anandtech fuer Authoren aber Du kannst Dich stets bei SA bewerben :P

Botcruscher
2016-05-05, 11:13:43
War das jetzt ein verklausuliertes nein?

Complicated
2016-05-05, 11:38:15
Du tust hier so als wäre der Interposer immer noch krasse rocket science, dabei nutzt Xilinx die schon seit 5 Jahren und auch schon in der x-ten Generation.Nein das tue ich nicht. Du bist der einzige der so tut als ob ich das schrieb. Ich schrieb "Interposer Fertigungslinie" und habe das in meinem vorherigen Beitrag auch geschrieben. Und von Abhängigkeiten bei Aufträgen. Lern lesen.

Sunrise
2016-05-05, 11:49:26
...Wenn, dann muß GP102 etwas deutlich abweichendes zu GP100 sein. Entweder *deutlich* kleiner, damit er wirtschaftlicher ist (und selbst dann ist die Frage, ob nicht ein Chip wirtschaftlicher als zwei sind) - oder größer für einen höheren Performance-Ansatz, den GP100 nicht erreichen kann.
Wenn GP102 ca. +50% auf GP104 drauflegt (gilt auch für das Speicherinterface von 256bit auf 384bit GDDR5X) dann ist man bei deutlich billiger (ca. 450mm^2) angekommen UND die Leistung sollte bei etwa 4096 SPs auch besser sein. Da hat sich GP100 dann erledigt.

Wenn man den gegen Vega stellt, sollte man genausoviel schneller sein, wie der größte GP104 auf den größten Polaris 10 schneller sein wird (bei etwa gleicher Anzahl SPs).

Insofern ist das keine Frage mehr, GP100 ist kosten- und leistungstechnisch unbrauchbar für Consumer, der bringt NV im professionellen Markt auch weit mehr ein und wird auch nicht ansatzweise in diesen Mengen produziert werden.

AMDs Strategie, bei Vega unbedingt wieder HBM zu benötigen hat den Grund, dass man eben damit auch wieder im professionellen Markt mitspielen will. Es könnte bei AMD theoretisch sogar Vega 10 und Vega 11 geben, der eine hat auch GDDR5X, der andere setzt voll auf HBM2.

fondness
2016-05-05, 12:04:15
Wenn GP102 ca. +50% auf GP104 drauflegt (gilt auch für das Speicherinterface von 256bit auf 384bit GDDR5X) dann ist man bei deutlich billiger (ca. 450mm^2) angekommen UND die Leistung sollte bei etwa 4096 SPs auch besser sein. Da hat sich GP100 dann erledigt.

Wenn man den gegen Vega stellt, sollte man genausoviel schneller sein, wie der größte GP104 auf den größten Polaris 10 schneller sein wird (bei etwa gleicher Anzahl SPs).

Das ist richtig. Nur wie groß soll ein Vega10 laut dir genau werden, wenn Polaris10 bei 2560 SPs und ~230mm² liegt? GP102 muss es womöglich mittelfristig nicht nur mit Vega10 aufnehmen.


Insofern ist das keine Frage mehr, GP100 ist kosten- und leistungstechnisch unbrauchbar für Consumer, der bringt NV im professionellen Markt auch weit mehr ein und wird auch nicht ansatzweise in diesen Mengen produziert werden.

Ich verstehe trotzdem nicht, wo die gigantische Siliziummenge hinfließt. Wenn ein GP102 bei 4096SPs und den von dir angenommenen 450mm² liegt, dann würden alleine die DP-ALUs >150mm² benötigen, das ist doch nicht mehr verhältnismäßig.


AMDs Strategie, bei Vega unbedingt wieder HBM zu benötigen hat den Grund, dass man eben damit auch wieder im professionellen Markt mitspielen will. Es könnte bei AMD theoretisch sogar Vega 10 und Vega 11 geben, der eine hat auch GDDR5X, der andere setzt voll auf HBM2.

Was heißt hier unbedingt? HBM ist GDDR5 in jeder Hinsicht vorzuziehen, außer wenn es um die Kosten geht. Insofern spricht absolut nichts gegen HBM, wenn man glaubt den Chip ausreichend hochpreisig verkaufen zu können.

Troyan
2016-05-05, 12:06:29
Und ich dachte, wir hätten längst gelernt, dass die theoretische Rechenleistung keine Aussagekraft hat. :rolleyes:

Ailuros
2016-05-05, 12:26:51
Das ist richtig. Nur wie groß soll ein Vega10 laut dir genau werden, wenn Polaris10 bei 2560 SPs und ~230mm² liegt? GP102 muss es womöglich mittelfristig nicht nur mit Vega10 aufnehmen.

Wird der ganze Umbau fuer 1:2 DP/SP umsonst sein auf Vega?

Ich verstehe trotzdem nicht, wo die gigantische Siliziummenge hinfließt. Wenn ein GP102 bei 4096SPs und den von dir angenommenen 450mm² liegt, dann würden alleine die DP-ALUs >150mm² benötigen, das ist doch nicht mehr verhältnismäßig.

Gilt auch fuer's obrige: es sind u.a. bei FP64 nicht die eigentlichen Einheiten das Problem sondern die ganzen Datenleitungen.

Bei einem hypothetischen 102 wuerde auch NV Link u.a. entfallen.

Was heißt hier unbedingt? HBM ist GDDR5 in jeder Hinsicht vorzuziehen, außer wenn es um die Kosten geht. Insofern spricht absolut nichts gegen HBM, wenn man glaubt den Chip ausreichend hochpreisig verkaufen zu können.

Nein ist es nicht; sonst haetten alle SKUs egal wie klein schon heute HBM. Wenn eine GPU heute nur bis zu =/>500GB/s braucht kann man locker dafuer GDDR5X einsetzen. Aber wie schon erwaehnt: HBM, 14FF und DX12 koennen wohl jegliche Form von Krebs heilen :rolleyes:

Complicated
2016-05-05, 12:30:44
Aber wie schon erwaehnt: HBM, 14FF und DX12 koennen wohl jegliche Form von Krebs heilen :rolleyes:
Nein, verkaufen sich aber besser als GDDR5, 28nm und DX11. Kein Grund Argumente ins Lächerliche zu ziehen weil man es anders sieht.

Troyan
2016-05-05, 12:32:56
Es gibt keine HBM Karte, die in 16nm gefertigt wurde. Es verkauft sich jedoch eine 28nm Karte mit GDDR5 besser als eine gleichwertige mit HBM.

Was soll dieser Nonsense seit ein paar Seiten? Verkaufen tun sich Karten, die besser sind. Und nicht, weil auf denen anderer Speicher verbaut wird.

Complicated
2016-05-05, 12:33:16
Damit hast du allerdings Recht.
Wenn eine GPU heute nur bis zu =/>500GB/s braucht kann man locker dafuer GDDR5X einsetzen.
Allerdings könnte es im Grenzbereich ab 400-450 GB/s schon zum Technologiewechsel kommen wegen den anderen Vorteilen von HBM bzgl. Fläche und Verbrauch. Und dieser Grenzbereich steht ja vor der Tür.

Complicated
2016-05-05, 12:36:20
Es gibt keine HBM Karte, die in 16nm gefertigt wurde. Exakt. Es wird aber eine geben mit HBM2 von AMD mit Vega. Die Diskussion dreht sich darum, dass ich schrieb, Nvidia wird nicht völlig auf HBM verzichten können im Consumer Markt um nicht technologisch Rückständig zu erscheinen. IMHO wird es eine HBM basierende Geforce geben, selbst wenn es auch mit GDDR5X bei der Bandbreite gereicht hätte. Diese Entscheidungen wurden getroffen bevor man wusste wie die Speicherpreise zum Releasezeitpunkt aussehen.

Troyan
2016-05-05, 12:41:10
Technologischer Rückschritt?! Eine GTX970 mini hat die selbe Bauform wie eine Nano trotz 256bit Speicherinterface mit GDDR5.

Es ist vollkommen belanglos. Und hat auch nichts hier im Thread verloren, da wir keine Ahnung haben, was nVidia mit dem 300mm^2 zwischen GP104 und dem nächsten Consumer-Chip machen wird. Vielleicht ist es GP100. Vielleicht ein veränderter GP102.

Ailuros
2016-05-05, 12:42:01
Nein, verkaufen sich aber besser als GDDR5, 28nm und DX11. Kein Grund Argumente ins Lächerliche zu ziehen weil man es anders sieht.

Ich schreibe so wie mir gerade passt. Falls es Dich stoeren sollte loes Dein eigenes Problem gefaelligst mit Dir selber.

Sonst verkauft sich teurere Technologie nie besser.

fondness
2016-05-05, 12:43:22
Wird der ganze Umbau fuer 1:2 DP/SP umsonst sein auf Vega?

Nein, aber wenn man zB Tonga mit Hawaii vergleicht, kostet das bei AMD offensichtlich nicht so viel. Außer da ändert sich was bei der neuen Gen.


Nein ist es nicht; sonst haetten alle SKUs egal wie klein schon heute HBM.

Eben nicht, bei den kleinen Chips kommt es stark auf die Kosten an. GDDR5 ist aktuell eben noch deutlich günstiger. Ansonsten bringt GDDR5 eigentlich nur Nachteile.

Locuza
2016-05-05, 12:43:57
Exakt. Es wird aber eine geben mit HBM2 von AMD mit Vega. Die Diskussion dreht sich darum, dass ich schrieb, Nvidia wird nicht völlig auf HBM verzichten können im Consumer Markt um nicht technologisch Rückständig zu erscheinen. IMHO wird es eine HBM basierende Geforce geben, selbst wenn es auch mit GDDR5X bei der Bandbreite gereicht hätte. Diese Entscheidungen wurden getroffen bevor man wusste wie die Speicherpreise zum Releasezeitpunkt aussehen.
Einfach nein.

Complicated
2016-05-05, 12:44:23
Ich schreibe so wie mir gerade passt. Falls es Dich stoeren sollte loes Dein eigenes Problem gefaelligst mit Dir selber.
Ich habe nichts gegen das was du schreibst. Nur schreibe ich auch was mir passt dazu. Löse deine Problem mit dir selber.

Ob P100 ein billigeres Produkt ist als es hätte sein können? Es scheint sich zu verkaufen selbst zu absurden Preisen.

Complicated
2016-05-05, 12:44:47
Einfach nein.Nein Was?

Ailuros
2016-05-05, 12:47:56
Nein, aber wenn man zB Tonga mit Hawaii vergleicht, kostet das bei AMD offensichtlich nicht so viel. Außer da ändert sich was bei der neuen Gen.

Der Punkt ist dass es nicht umsonst ist. NV kosten die Einheiten wenn es nur stur zu den SPs kommt eine relativ laecherliche Flaeche mehr.

Eben nicht, bei den kleinen Chips kommt es stark auf die Kosten an. GDDR5 ist aktuell eben noch deutlich günstiger.

Genauso GDDR5X das irgendwo in der Mitte liegt zwischen DDR5 und HBM. Deswegen auch mein Kommentar dass wenn eine GPU heute noch mit +/- 500GB Bandbreite auskommen kann, HBM nicht unbedingt die beste Loesung sein wird.

Complicated
2016-05-05, 12:49:32
Es ist vollkommen belanglos. Und hat auch nichts hier im Thread verloren, da wir keine Ahnung haben, was nVidia mit dem 300mm^2 zwischen GP104 und dem nächsten Consumer-Chip machen wird. Vielleicht ist es GP100. Vielleicht ein veränderter GP102.Entschuldige mal. Der Threadtitel lautet:
3D-Memory HBM, NVLINK, Mixed Precision

Das ist ja wohl eher das Thema als Pascal - dafür gibt es andere Threads.

Locuza
2016-05-05, 12:54:01
Nein Was?
Nein zu deiner Meinung. :tongue:

Einfach nur Consumer Werbung mit HBM ist bei weitem nicht Grund genug, um ein anderes Speicher-Interface und andere Preisstrukturen zu wählen.
Die Leute agieren sicherlich wesentlich rationaler als das.

Complicated
2016-05-05, 12:56:58
Genauso GDDR5X das irgendwo in der Mitte liegt zwischen DDR5 und HBM. Deswegen auch mein Kommentar dass wenn eine GPU heute noch mit +/- 500GB Bandbreite auskommen kann, HBM nicht unbedingt die beste Loesung sein wird.
Nur wenn es andere Gründe als Bandbreite, wie Stromverbrauch und Diefläche gibt, dann hängt es einzig und alleine davon ab, wie schnell eine Interposer-Fertigungslinie Massenfertigung liefern kann zu günstigen Preisen. HBM bedeutet kleinere Dies, Modulare Interposer Konzepte und weniger Stromverbrauch. Dem stehen derzeit nur die Kosten im Weg.

Wer die Kosten im Lowend drücken will, der muss das Die-Stacking in den Griff bekommen und Interposerprodukte fertigen, egal ob mit HBM oder HMC oder NextGen Memory.

Was bei der Kostenfrage immer wieder ausser Acht gelassen wird, sind die Endkosten des Produktes. Die GPU-OEMS kaufen deutlich teurer bei Nvidia/AMD ein, weil ausser den höheren Kosten auch der Speicher mit dabei ist. Doch sie sparen auch einiges an Kosten ein, weil sämtliche Schritte um Speicher einzukaufen, zu validieren und auf einem deutlich Komplexeren PCB zu verbauen weg fallen beim Verzicht auf GDDR5/X.
Somit egalisiert sich einiges der Kosten bis zum Endkunden.

Ailuros
2016-05-05, 12:59:41
Einfach nur Consumer Werbung mit HBM ist bei weitem nicht Grund genug, um ein anderes Speicher-Interface und andere Preisstrukturen zu wählen.
Die Leute agieren sicherlich wesentlich rationaler als das.

Das ist die eine Seite; die andere Seite waere dass wenn ein chip nicht so HPC orientiert ist wie die grossen chips mit 4-5 TFLOP FP64, sind sehr extravagante Bandbreiten von =/>700GB/sec auch wohl noch nicht eine Notwendigkeit. Dafuer muessten 3D Spiele schlagartig um einiges Bandbreiten-hungriger werden.

Complicated
2016-05-05, 13:00:02
Einfach nur Consumer Werbung mit HBM ist bei weitem nicht Grund genug, Da sind wir uns einig und das schrieb ich auch nicht. Siehe eben meine Antwort zu Ailuros. Nur ist es eben ein Faktor der ebenfalls eine Rolle spielt wenn Entscheidungen getroffen werden.

Blediator16
2016-05-05, 13:09:57
HBM alleine wird für AMD einen Scheissdreck tun, wenn sie nicht durch HBM riesige Vorteile bekommen. Das geilste ist natürlich Werbung und AMD in einem Satz zu nennen :D

Locuza
2016-05-05, 13:10:46
Nur ist es eben ein Faktor der ebenfalls eine Rolle spielt wenn Entscheidungen getroffen werden.
Ein sehr vernachlässigbarer Faktor in meinen Augen.

Die Endfrage ist schlichtweg wo landen wir bei den Kosten und der Perf/Watt?
GDDR5 tut im oberen Bereich weh, sprich wenn der Standard anfängt mies zu skalieren. Viele Leitungen, höhere Boardkosten, höhere Komplexität, höherer Stromverbrauch und mehr die-area für das Interface.
Ab Punkt X ist HBM die bessere Lösung.
Mit GDDR5X hat man aber den Bereich stark erweitert.
Die Frage ist aber natürlich erneut die selbe.
Wenn Nvidia meint Target X ist besser mit GDDR5X zu erreichen, dann werden sie das auch verwenden, wenn nicht, dann eben HBM.

HBM alleine wird für AMD einen Scheissdreck tun, wenn sie nicht durch HBM riesige Vorteile bekommen. Das geilste ist natürlich Werbung und AMD in einem Satz zu nennen :D
Ja, da stimme ich für beide Hersteller zu.
HBM oder GDDR5X wird im Endeffekt nicht interessieren, wenn damit nichts gewonnen wird gegenüber anderen Lösungen.

Sunrise
2016-05-05, 13:15:40
Das ist richtig. Nur wie groß soll ein Vega10 laut dir genau werden, wenn Polaris10 bei 2560 SPs und ~230mm² liegt? GP102 muss es womöglich mittelfristig nicht nur mit Vega10 aufnehmen.
Deutlich mehr als 450mm^2 würden mich stark überraschen. Etwa Hawaii-Diesize.

...Ich verstehe trotzdem nicht, wo die gigantische Siliziummenge hinfließt. Wenn ein GP102 bei 4096SPs und den von dir angenommenen 450mm² liegt, dann würden alleine die DP-ALUs >150mm² benötigen, das ist doch nicht mehr verhältnismäßig.
GP100 schätze ich als extrem ineffizientes (Area) Design ein, wenn man es z.B. mit GM200 vergleicht. Bei NVLink, der viel größeren Caches, u.a. der zusätzliche Aufwand für sehr hohe FP64, da wandern ziemlich viele Transistoren in Dinge, die ein Gamer-Chip aktuell nicht brauchen wird. Zusätzlich hat man hier sicher nicht zu dicht gepackt, weil man den Chip auf 300W sustained ausgelegt hat, was ziemlich heftig für einen Gamerchip wäre (Auslieferungstakte). Die Caches kaschieren das etwas, weil die sich besonders dicht packen lassen. Aber generell ist das eine Verdrahtungsmonsterlogik und Aufwand, den ein Gamerchip nicht benötigt.

Was heißt hier unbedingt? HBM ist GDDR5 in jeder Hinsicht vorzuziehen, außer wenn es um die Kosten geht. Insofern spricht absolut nichts gegen HBM, wenn man glaubt den Chip ausreichend hochpreisig verkaufen zu können.
Unbedingt, weil die Bedingungen in bestimmten Szenarien klar für HBM sprechen, aber für reine Consumer-Chips mit Aufkommen von GDDR5X aktuell keinesfalls.

fondness
2016-05-05, 13:22:40
Deutlich mehr als 450mm^2 würden mich stark überraschen. Etwa Hawaii-Diesize.

Also erwartest du, dass NV beim Sprung von 2560SPs auf 4096 SPs mit +50% Die-Size auskommt (~300mm²->450mm²), AMD aber dafür trotz HBM fast eine Verdoppelung benötigt (230mm² ->450mm²). Logik? DP scheint laut aktuellen Chips keine auch nur annähernd ausreichende Begründung zu sein. Aber wir werden sehen. Es würde mich auch stark wundern, wenn beide Vega-Chips 1/2-DP hätte, bzw. ist über den zweiten noch so gut wie gar nichts bekannt außer das er existiert. Bei GP102 weiß man wohl noch nicht mal das.


GP100 schätze ich als extrem ineffizientes (Area) Design ein, wenn man es z.B. mit GM200 vergleicht. Bei NVLink, der viel größeren Caches, u.a. der zusätzliche Aufwand für sehr hohe FP64, da wandern ziemlich viele Transistoren in Dinge, die ein Gamer-Chip aktuell nicht brauchen wird. Zusätzlich hat man hier sicher nicht zu dicht gepackt, weil man den Chip auf 300W sustained ausgelegt hat, was ziemlich heftig für einen Gamerchip wäre (Auslieferungstakte). Die Caches kaschieren das etwas, weil die sich besonders dicht packen lassen. Aber generell ist das eine Verdrahtungsmonsterlogik und Aufwand, den ein Gamerchip nicht benötigt.


Mal sehen, ob das alles wirklich nur GP100 Spezifika sind.


Unbedingt, weil die Bedingungen in bestimmten Szenarien klar für HBM sprechen, aber für reine Consumer-Chips mit Aufkommen von GDDR5X aktuell keinesfalls.

Das kommt darauf an, was einem wichtiger ist, die niedrigeren Kosten von GDDR5(X) oder die bessere Performance von HBM. Dazu kommt, dass der Preis keine Konstante ist, sondern über die Lebenszeit der Chips variiert.

Locuza
2016-05-05, 13:27:27
Bei AMD wird der Konsument sehr wahrscheinlich die 4 GMI-Links bezahlen müssen und eben die genannte DP-Rate.

GP104 sollte sich darunter anordnen, GP100 scheint Enterprise exklusiv zu sein.
Was stellt Nvidia also für Gamer über den GP104 bereit?
Eine schwache DP-Rate, keine NvLinks und dann je nachdem HBM2 oder besser GDDR5X könnte für Nvidia eine kostengünstige Möglichkeit sein die Margen weiterhin hoch zu halten und sich gegen Vega10 zu wappnen, bei niedrigeren Produktionskosten für den Gamer-Markt.
Mal sehen wie die Parteien ihre Pferde bewegen und vor allem wann.

dildo4u
2016-05-05, 13:58:54
3DMark 2013 Werte der 1080,8900 punkte sie Boostet mit 1.8Ghz.


http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks


Default 980 Ti bringt 7800 im 2013 Extreme Test.

http://www.guru3d.com/articles-pages/amd-radeon-r9-fury-x-review,25.html

Godmode
2016-05-05, 14:01:53
3DMark Werte der 1080 sie Boostet mit 1.8Ghz.


http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks

1,8 GHz Boost, WTF? Muss ich meinen GM200 doch schon früher in Rente schicken?

Troyan
2016-05-05, 14:03:18
1,8 GHz Boost, WTF? Muss ich meinen GM200 doch schon früher in Rente schicken?

Warum überrascht? P100 läuft bis fast auf 1500MHz mit 15,3 Milliarden Transistoren. :freak:

dildo4u
2016-05-05, 14:03:19
Wenn die Workstation Karte mit 1.5Ghz läuft nicht verwunderlich.

Godmode
2016-05-05, 14:07:23
Warum überrascht? P100 läuft bis fast auf 1500MHz mit 15,3 Milliarden Transistoren. :freak:

Ich hätte eventuell 1,6 GHz Boost erwartet, aber nicht 1,8. Mit OCing und guter Kühlung werden dann wohl 2,0 GHz möglich sein.

dildo4u
2016-05-05, 14:10:10
Ich hätte eventuell 1,6 GHz Boost erwartet, aber nicht 1,8. Mit OCing und guter Kühlung werden dann wohl 2,0 GHz möglich sein.
Noch kann keiner sagen ob das mit oder ohne OC ist.

marc-05
2016-05-05, 14:23:02
Da hat die neue 1080´er aber keinen all zu großen Vorsprung gegenüber einer GTX 980 TI .

fondness
2016-05-05, 14:23:25
3DMark 2013 Werte der 1080,8900 punkte sie Boostet mit 1.8Ghz.


http://videocardz.com/59558/nvidia-geforce-gtx-1080-3dmark-benchmarks


Default 980 Ti bringt 7800 im 2013 Extreme Test.

http://www.guru3d.com/articles-pages/amd-radeon-r9-fury-x-review,25.html

Hm, die Leistung ist für 1,8Ghz Boost aber überschaubar. Das schafft eine 980Ti Custom auch mit ~1,35Ghz.

von Richthofen
2016-05-05, 14:25:10
Default 980 Ti bringt 7800 im 2013 Extreme Test.

http://www.guru3d.com/articles-pages/amd-radeon-r9-fury-x-review,25.html

Mit Standard-OC aber wie von videocartz angegeben eher mit rund 8700.
http://www.legitreviews.com/nvidia-geforce-gtx-980-ti-6gb-video-card-review_165406/10

Die Taktraten sind ja aberwitzig.

Troyan
2016-05-05, 14:36:16
Das ist der Gesamtscore. Der Grafikscore liegt bei 10k zu 8k. Und die GTX980TI rennt hier auch mit den ~1200MHz.

Im 3DMark11 ist die angebliche 1080 dagegen 37% schneller als das Referenzmodell mit 1200Mhz.

fondness
2016-05-05, 14:40:05
Das ist der Gesamtscore. Der Grafikscore liegt bei 10k zu 8k. Und die GTX980TI rennt hier auch mit den ~1200MHz.

Im 3DMark11 ist die angebliche 1080 dagegen 37% schneller als das Referenzmodell mit 1200Mhz.

Das passt nicht zusammen, die 980Ti oben von von Richthofen verlinkt mit 1311Mhz Boost liegt bei 9201 Punkte Graphic-Score FireStrike Extreme. Der angebliche GP104-400 liegt bei 10102 Punkten bei 1.860GHz(!) Boost.

GP104 benötigt also 41.8% mehr Takt für 9,7% mehr Leistung. Bei kolportierten 2560 SPs vs. den 2816 SPs bei der 980Ti dürfte die pro SP/Takt-Leistung maximal stagnieren, eher sogar sinken. Oder - IMO wahrscheinlicher - es sind weniger als 2560 SPs.

Dural
2016-05-05, 14:46:26
war doch von anfang an klar das takt zu takt gp104 langsamer als gm200 ist.

Troyan
2016-05-05, 14:46:52
Youtube aus Dezember: https://www.youtube.com/watch?v=LpkKRzLQid8
PCGH: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Test-1193883/

Mit 10.000 Punkten wäre man weiterhin (deutlich) schneller als übertaktete GM200 Karten.

war doch von anfang an klar das takt zu takt gp104 langsamer als gm200 ist.

3DMark ist veraltet. Man sieht, wenn die Werte stimmen, auch nur den Vorsprung für die Anwendung.

Dural
2016-05-05, 14:54:57
ja, zudem mit 1800mhz die 300gb/s eventuell schon knapp werden können.

die leistung ist dort wo man es halt erwarten konnte.

aber boost mit 1800mhz ist schon krass. da sind meine mehrfach genannten 2ghz ja so wie so ein klags.

R.I.P.
2016-05-05, 15:11:15
http://www.3dmark.com/3dm11/11061015

All Kudos to Fottemberg. Hihi, 7,5 Gb Ram?

prinz_valium
2016-05-05, 15:19:32
wow 16nm ff scheint ja ein wirklich guter Prozess zu sein
solche taktraten bei gpus gab es noch nie.
zu gtx480 Zeiten, als die shader noch doppelt so schnel waren, wie die cores, war man gerade mal bei 1600mhz

Dural
2016-05-05, 15:19:40
es müssten wenn schon 7gb sein ;)

Complicated
2016-05-05, 15:33:52
Die Endfrage ist schlichtweg wo landen wir bei den Kosten und der Perf/Watt?
GDDR5 tut im oberen Bereich weh, sprich wenn der Standard anfängt mies zu skalieren. Viele Leitungen, höhere Boardkosten, höhere Komplexität, höherer Stromverbrauch und mehr die-area für das Interface.
Ab Punkt X ist HBM die bessere Lösung.
Mit GDDR5X hat man aber den Bereich stark erweitert.
Die Frage ist aber natürlich erneut die selbe.
Wenn Nvidia meint Target X ist besser mit GDDR5X zu erreichen, dann werden sie das auch verwenden, wenn nicht, dann eben HBM.
http://www.3dcenter.org/news/speicherinterface-entwickler-esilicon-hat-mehrere-hbm2-chipdesigns-arbeit
Allerdings sagt diese Folie auch aus, das noch einiges mehr bei eSilicon am laufen ist: Sogar ein 28nm-Design mit vier HBM2-Stacks soll in der Mache sein – und ein 14nm-Design mit nur einem HBM2-Stack und dementsprechend kleinem Speicherinterface (1024 Bit für "nur" 256 GB/sec Speicherbandbreite). Dessen für HBM vergleichsweise niedrige Speicherbandbreite kann man problemlos auch mit GDDR5/X erreichen, insofern verwundert angesichts der (angeblich) hohen Kosten von HBM dieses Design etwas. Weitere Folien werden dann etwas genauer, was die Terminplanungen betrifft: Ein 14nm HBM2-Design mit Tape-Out im Mai 2016 soll im September 2016 spruchreif werden, ein 16nm HBM2-Design mit Tape-Out im Juli 2016 dann im Dezember 2016.Das bedeutet, dass eben die kleinen Chips mit einzelnen HBM2-Stacks schon im Anmarsch sind.

http://www.3dcenter.org/dateien/abbildungen/eSilicon-HBM-Presentation-Slide27.jpg

scully1234
2016-05-05, 15:34:05
1,8 GHz Boost, WTF? Muss ich meinen GM200 doch schon früher in Rente schicken?

Das hat mich jetzt nicht wirklich uebrrascht nachdem Big Daddy schon 1,5GHZ schafft:smile:

Hübie
2016-05-05, 15:46:36
es müssten wenn schon 7gb sein ;)

Nö. Die SM sind geschrumpft und wie die slices einer ROPS und des L2$ weißt du doch gar nicht. :P
Fermi schaffte auch 1.8-2 GHz auf der Shaderdomain.

Troyan
2016-05-05, 15:53:12
Wer Samstag morgens um 3 Uhr nichts vorhat: http://www.geforce.com/whats-new/articles/nvidia-livestream-may-6th-at-6pm-pst

BlacKi
2016-05-05, 15:58:46
Wer Samstag morgens um 3 Uhr nichts vorhat: http://www.geforce.com/whats-new/articles/nvidia-livestream-may-6th-at-6pm-pst
ich glaub ich hab da nichts vor^^

70-80% schneller als die 980 referenz.

Troyan
2016-05-05, 16:34:00
Mit 1860Mhz wären es bei 2560 Recheneinheiten 80% mehr Rechenleistung. Im FireStrike Extreme sind es zur GTX980 mit 1286Mhz 60 bzw. 67% mehr Leistung bei 40% mehr Bandbreite. Im Test 2 jedoch sind es 37% mehr Leistung zur GTX980TI mit 1180-1200MHz.

Die "Spieleleistung" hängt dann wohl auch davon ab, wie hoch der Takt ausfallen wird. Bliebe er bei >1800MHz dann sind 80%+ zur GTX980 locker drin, da die Referenz-GTX980 irgendwo zwischen 1100Mhz und 1200MHz je Spiel liegt.

Thunderburne
2016-05-05, 17:30:51
Und wir haben vor ein Paar Tagen noch über OC bei 1800-2000MHZ gesprochen.
Geile Sache wird auf jeden Fall ein schönes neues Spielzeug.

ChaosTM
2016-05-05, 17:38:13
Mal abwarten wie sie in 4K performt.. +30% zur 980ti und ich denke drüber nach.

Nakai
2016-05-05, 18:12:05
Mal abwarten wie sie in 4K performt.. +30% zur 980ti und ich denke drüber nach.

Naja, es ist auch 6GB vs 8GB dann.

Ansonsten sind die Werte zu erwarten gewesen.
GTX980Ti+OC ~ GTX1080

Die GTX1080 wird etwas mehr Speicher haben und hier und da wohl noch einen Vorteil haben. Ich bin gespannt, wie gut sich eine GTX1080 übertakten lässt. 1800Mhz ist schon eine Hausnummer, ich will das Limit sehen. :freak:

BlacKi
2016-05-05, 18:27:18
2ghz sweetspot und 2,3ghz max?^^

Nakai
2016-05-05, 18:47:01
2ghz sweetspot und 2,3ghz max?^^

Abwarten.

Es kommt drauf an, wie NV die Packdichte bzgl der Taktbarkeit setzt.
Ansonsten glaube ich nicht an einer GP100-Packdichte, da man wohl weniger Cache und Register hat. Dafür hat GP100 NVLink, was definitiv ordentlich Platz fressen wird. Ansonsten geht NV mit dieser Gen stark auf Takt und AMD wird den Fokus eher auf die Packdichte setzen.

1,8 Ghz habe ich tatsächlich nicht erwartet. Die TDP wäre interessant, vor allem da GP100 schon 300W als NOT-Full hat. Bei 20/40 SMs also 2560 SPs und dem hohen Takt, wird man knapp oberhalb einer GTX980Ti-OC liegen. NV wird aber definitiv gegenüber der Stock vergleichen wollen, damit der Sprung schöner aussieht. Wenn man GP104 keine so gute Übertaktbarkeit bietet, was derzeit von Finfet erwartet wird, wird der Sprung gegenüber OC-Modellen deutlich kleiner ausfallen. 6GB vs 8GB ist ganz nett und auch notwendig.

illidan
2016-05-05, 18:49:15
Notwendig, um nicht in 1,5 Jahren schon zu fluchen, aber für die Balkenlänge momentan eigentlich selbst in 4k nicht.

Der_Korken
2016-05-05, 18:49:58
Ich wundere mich irgendwie, wo Nvidia das alles hernehmen soll. Bei AMD wird extremst konservativ geschätzt mit dem Argument, dass Finfet keine Takterhöhungen zulässt, wenn man schon Packdichte und Effizienz ausnutzt. Aber hier sollen plötzlich 1,8Ghz Standardtakt drin sein, also +50% (!) zum Vorgänger. Ich glaube sowas gab es noch nie. Entweder stimmen die 300mm² nicht, oder es sind nur 1920/2048 Shader statt 2560 oder das Teil verbraucht bereits deutlich über 200W und ist somit schon sowas wie ein "GP102". Ansonsten wäre Polaris bereits jetzt der totale Fail, weil dort gerade mal Fläche und Verbrauch halbiert werden und sich ansonsten nichts tut. Es sei denn, die Leistungsprognose auf Höhe der 390 ist total falsch und das Teil ist in Wirklichkeit viel schneller.

scully1234
2016-05-05, 18:53:49
Wenn man GP104 keine so gute Übertaktbarkeit bietet, was derzeit von Finfet erwartet wird, wird der Sprung gegenüber OC-Modellen deutlich kleiner ausfallen..

Das ist eben die Frage schielt man rueber zu Intel so ist das zusaetzliche Taktpotential eigentlich nicht signifikant gesunken

Nakai
2016-05-05, 18:54:41
Ich wundere mich irgendwie, wo Nvidia das alles hernehmen soll. Bei AMD wird extremst konservativ geschätzt mit dem Argument, dass Finfet keine Takterhöhungen zulässt, wenn man schon Packdichte und Effizienz ausnutzt. Aber hier sollen plötzlich 1,8Ghz Standardtakt drin sein, also +50% (!) zum Vorgänger. Ich glaube sowas gab es noch nie. Entweder stimmen die 300mm² nicht, oder es sind nur 1920/2048 Shader statt 2560 oder das Teil verbraucht bereits deutlich über 200W und ist somit schon sowas wie ein "GP102". Ansonsten wäre Polaris bereits jetzt der totale Fail, weil dort gerade mal Fläche und Verbrauch halbiert wird und sich ansonsten nichts tut. Es sei denn die Leistungsprognose auf Höhe der 390 ist total falsch und das Teil ist in Wirklichkeit viel schneller.

Ich glaube die Packdichte wird schon ein Stück unterhalb der 25Mio/mm2 gegenüber einem GP100 liegen. Ich würde da maximal 2560SPs schätzen.
Die TDP sollte auch eher um die 200W dann liegen. Ansonsten wenn die 2560SPs bei 230mm² bei AMD stimmen und NV eine ähnliche Anzahl bei 330mm² hat, wird es klar, worauf NV optimiert hat.

Polaris wird eher auf Stromverbrauch/Effizienz gehen und die Packdichte hochschrauben, als eine hohe Taktbarkeit zu forcieren.

€:
Das ist eben die Frage schielt man rueber zu Intel so ist das zusaetzliche Taktpotential eigentlich nicht signifikant gesunken

Ich bin nur ein Laie, aber so wie es derzeit aussieht, tauscht man Packdichte gegenüber Taktbarkeit ein. Je nach architekturellen Begebenheiten macht es wohl bei NV mehr Sinn, den Takt hochzuschrauben und eher eine niedrigere Packdichte anzustreben.

Troyan
2016-05-05, 18:56:57
Die TDP liegt bestimmt nicht bei 200W mit 8 Milliarden Transistoren, wenn P100 bei 300W mit 15,3 Milliarden liegt.

Der_Korken
2016-05-05, 19:00:16
Die TDP liegt bestimmt nicht bei 200W mit 8 Milliarden Transistoren, wenn P100 bei 300W mit 15,3 Milliarden liegt.

Warum nicht? Wenn der Chip 20% höher taktet und dazu mehr Spannung braucht, steigt auch der Verbrauch entsprechend an.

gedi
2016-05-05, 19:02:41
In etwa so schnell wie eine 980Ti@1.5G. War imo so zu erwarten.

dildo4u
2016-05-05, 19:05:18
Warum nicht? Wenn der Chip 20% höher taktet und dazu mehr Spannung braucht, steigt auch der Verbrauch entsprechend an.
Die Referenz Karten sollen mit einem 8 Ppin kommen,also 175 Watt für's Board.

Zergra
2016-05-05, 19:06:12
Vorallem wird die Karte ja auch nicht als Ti Verkauft, man sollte ja auch bedenken das der Chip dann doch etwas kleiner ist :-D

Troyan
2016-05-05, 19:07:07
Warum nicht? Wenn der Chip 20% höher taktet und dazu mehr Spannung braucht, steigt auch der Verbrauch entsprechend an.

Er hat nur die Hälfte an Transistoren und kein NVLINK.
Eine GTX980 mit 66% der Transistoren von GM200 verbraucht mit ~1380MHz rund 215W (Gigabyte G1) und damit 10W weniger als eine Referenz-GTX980TI.

illidan
2016-05-05, 19:09:53
Kommt in etwa hin, wobei du bei der Ti ruhig die 250W für powervirusartige Spiele veranschlagen darfst.

Troyan
2016-05-05, 19:11:18
Es sind 225W: http://www.hardware.fr/articles/935-3/consommation-efficacite-energetique.html

illidan
2016-05-05, 19:21:15
Es sind 225W: http://www.hardware.fr/articles/935-3/consommation-efficacite-energetique.html
Mach mal Talos Priciple 4 oder 5k an, MSAA aus, maximale Details und geh im Demo-Level etwas unter Wasser, da kann man sicherlich an die 250W provozieren.
Sonst musst du für die 980 mit 1380Mhz auch weniger als 215W veranschlagen, denn das verbraucht die auch nicht durchgehend.

Troyan
2016-05-05, 19:23:14
Es sind immer 225W beim Referenzdesign. Das Temperaturtarget in Verbindung mit der Lüfterkurve riegelt knallhart ab.

fondness
2016-05-05, 19:24:28
Bilder dürften gestimmt haben:
http://videocardz.com/59583/nvidia-geforce-gtx-1080-cooler-confirmed

illidan
2016-05-05, 19:25:49
Es sind immer 225W beim Referenzdesign. Das Temperaturtarget in Verbindung mit der Lüfterkurve riegelt knallhart ab.
Toll. Das geschieht aber nicht durch Magie, sondern durch Takt- und Spannungsverringerung, was bei den nicht auf Effizienz getrimmten Gigabyte-Karten nicht der Fall ist. Was soll dein kruder Vergleich also bezwecken?
Abgesehen davon dürften bei den OC-Karten mehr Phasen zum Einsatz kommen, was der Effizienz auch nicht hilft.

Der_Korken
2016-05-05, 19:39:12
Die Referenz Karten sollen mit einem 8 Ppin kommen,also 175 Watt für's Board.

Das war mir nicht bekannt.

Er hat nur die Hälfte an Transistoren und kein NVLINK.
Eine GTX980 mit 66% der Transistoren von GM200 verbraucht mit ~1380MHz rund 215W (Gigabyte G1) und damit 10W weniger als eine Referenz-GTX980TI.

Wenn man die 300W anhand der Transistoren runterechnet, sind 300W *(8/15,3) = 157W. Dazu noch 20% mehr Takt, macht 188W. Höhere Spannungen und sparsamen HBM noch nicht berücksichtigt. Natürlich geht die Rechnung so nicht auf, aber es sollte zeigen, dass 200W nicht utopisch viel sind bei den aktuell geschätzten Daten.

Dein Beispiel bestätigt das doch: Durch den Mehrtakt hat die G1 980 mit 66% Transistoren trotzdem ~85-90% des Verbrauchs von GM204.

fondness
2016-05-05, 19:50:34
Mit 8 Pin + PCIe sind 225W möglich. Und die 8 Pin sind im übrigen auch nur Speku.

Rampage 2
2016-05-05, 20:20:38
Sofern GP102 nicht *mehr* SM als GP100 bringt, lohnt sich der Chip nicht. Dann kann man dieselbe Performance auch mit GP100 erreichen.

Wenn, dann muß GP102 etwas deutlich abweichendes zu GP100 sein.

Ich dachte, GP100 und GP102 sind derselbe Chip? :|

Also sind 4096SPs + 16GB HBM2-RAM nicht unrealistisch, oder wie? Wäre es dann auch realistischer, dass der GP104-Topdog doch noch mit 3072SPs (evtl. auch erst später als "Black" mit schnellerem GDDR5X-Speicher) kommt?

Passen denn (rein theoretisch) 3072SPs + 256Bit SI in einen 300-350mm großen Chip?

R2

Blediator16
2016-05-05, 20:21:50
Es gibt doch noch keinen GP102? Zumindest noch nichts in die Richung bekannt.

Der_Korken
2016-05-05, 20:27:31
Passen denn (rein theoretisch) 3072SPs + 256Bit SI in einen 300-350mm großen Chip?

Theoretisch ist das sicher denkbar. Dazu müsste man nur den GM200 um den Faktor 2 shrinken und würde dann knapp über 300mm² rauskommen. Allerdings wären die Taktraten von 1,8Ghz dann utopisch, wenn man zusätzlich auch den Verbrauch senken will. Zumal 256bit SI ziemlich knapp werden dürften, um einen Chip zu versorgen, der 50% mehr Rohleistung als eine Titan X hat.

Zergra
2016-05-05, 20:34:52
Naja ob gp 100 überhaupt die die consumer erscheinen wird ist erstmal die Frage. Möglicherweise wird dieser erst im Refresh als 1180ti erscheinen. Ich tippe darauf das Ende des Jahres ein gp102 als enthusiasten Chip erscheint. Für eine GP100 ist meiner Meinung nach die Fertigung einfach noch zu schlecht.

scully1234
2016-05-05, 20:49:52
Ich denke das ist doch mittlerweile klar geworden ,das es GP100 nicht in den Consumermarkt schafft

@Jonah Alben
Der erste Chip GP100 sei allerdings direkt auf HPC und Deep Learning zugeschnitten worden.....

Alben zufolge sei Double Precision nur für ganz bestimmte Märkte interessant, man habe deswegen zwei Umsetzungen (http://www.heise.de/newsticker/meldung/GTC-2016-Nvidia-Chefarchitekt-deutet-hohe-Gaming-Performance-von-Pascal-an-3163999.html)



Also egal was da bei GP102 letztendlich bei rum kommt, es wird kein Klon von GP100 werden

horn 12
2016-05-05, 21:05:14
Nun bissi ernüchterend 2560 oder gar nur 2304 Shader und vielleicht maximal GXT 980TI @ 1500 bis 1600 Mhz Leistung.
Und dafür wollen NV für Referenz stolze 699 bis 749 bis 779 Dollar

NV lässt sich nun GDDR5-X und die 2GB Mehrspeicher "goldig" bezahlen
GTX 1070 also maximal auf GTX 980TI Stock Performance, eher darunter und Gegenspieler für Fury Preislich.

woodsdog
2016-05-05, 21:28:22
Ist doch perfekt.

+30% mit OC auf die 1400-1500MHz Ti's und 2GB mehr speicher lassen die Leute wieder kaufen. (kann man hier ja direkt wieder lesen).
In 6-8 Monaten das spiel noch mal von vorn mit dem Topdog.
So kann man das Edel-Image behalten und dieser Eindruck färbt direkt wieder auf die komplette Serie ab.

Alles Richtig gemacht seitens NV.



Auf AMD Seite haben wir 2 Chips die Höchstens "nice" sind. gefühlt aber eher "meh".
Weniger Verbrauch und so ist toll... aber eigentlich ist nur Leistung GEIL!