PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26

Nakai
2016-04-08, 19:08:21
Laut Hardware.fr ist der Chip auf dem DrivePX2 GP106 und unter 200mm². Da passt kein 256b GDDR5 SI rein, imo.

€: Oder wie Ail sagt, GDDR5x für GP104 und GDDR5 für GP106.

Ansonsten passen ~300mm² sehr gut zu 2560 SPs und GP104.
Und die sub 200mm² zu GP106 mit eher 1280 SPs.

Die SP-Zahlen sprechen eher wieder für 128SPs-SMs. Die kleinen SMs wird nur GP100 gehabt haben.

Troyan
2016-04-08, 19:09:44
Also der verbaute Chip auf dem gezeigten Modul ist kaum unter 200mm^2.

/edit: Okay, das Ausstellungsstück ist ein anderes als auf der Keynote. Das sieht +- GM206 Niveau aus.

Schrotti
2016-04-08, 19:11:21
Mir ist das alles egal.

Wichtig ist für mich, was am Ende dabei rum kommt.

30-40% über Titan X würden mir ja für 4k Gaming reichen.

AnarchX
2016-04-08, 19:11:22
Also der verbaute Chip auf dem gezeigten Modul ist kaum unter 200mm^2.

Damien schätzt wohl 205mm²: http://www.hardware.fr/news/14589/gtc-200-mm-petit-gpu-pascal.html

Da dürfte diese wohl auch nicht so weit nach dem Sommer launchen.

Nakai
2016-04-08, 19:11:30
Also der verbaute Chip auf dem gezeigten Modul ist kaum unter 200mm^2.

Tatsache, ich könnte schwören, dass da was mit 180mm² vorher bei Hardware.fr stand...mhh.

http://www.hardware.fr/news/14589/gtc-200-mm-petit-gpu-pascal.html

€:
Damien schätzt wohl 205mm²: http://www.hardware.fr/news/14589/gtc-200-mm-petit-gpu-pascal.html

Und dann 128Bit SI? Ich hab keine Ahnung.

8 TFLOPs an FP32 muss damit hingelegt werden. Also 2 Tegras + 2 Pascals.

Bei 1,25~1,5 Ghz Coretakt und den Tegras sollten es etwa 1280~1536 SPs für GP106 werden.

Troyan
2016-04-08, 19:15:38
Wie oben erwähnt: Es sind zwei verschiedene Chips. In der Keynote ist die kürzeste Seite nur "minimal" kleiner als die längste.

In der Vitrine ist die kürzeste Seite wohl locker nur halb so lang.

Ailuros
2016-04-08, 19:16:40
GK104 ist 298mm2 gross; wie gross war nochmal im Vergleich GK106? Ist zwar ein bloedes Beispiel aber die 6-er cores sind stets verdammt nahe an die area zu den 4-er cores.

AnarchX
2016-04-08, 19:25:46
GK104 ist 298mm2 gross; wie gross war nochmal im Vergleich GK106? Ist zwar ein bloedes Beispiel aber die 6-er cores sind stets verdammt nahe an die area zu den 4-er cores.
Bei GM2xx nur bedingt. ;)

Da scheint man doch ein nettes Line-up zu haben:
GP102 - 3840SPs - 2048-Bit HBM2 -450mm²
GP104 - 2560SPs - 256-Bit GDDR5X - 300mm²
GP106 - 1280SPs - 128-Bit GDDR5X - 200mm²
GP107 - 640-768SPs - 64-Bit GDDR5X - 100-120mm²

Hübie
2016-04-08, 19:27:33
221 mm^2, also 75% vom GK104.

@AnarchX: Für die kleinen wird es wohl kein GDDR5X geben. Wäre unlogisch.

Sunrise
2016-04-08, 19:29:43
Wie gesagt, man braucht bei GP102 nicht unbedingt HBM, wenn dieser von allem ggü. GP104 mit 256bit Interface +50% mehr hat. Und dass man sich am GK104 orientieren wird war auch kein Geheimnis, schreibe ich ja zum gefühlt dutzendsten Mal, weil das einfach ein gutes Mittel bei neuen Prozessen ist und der Yield hier über die Zeit auch schneller besser wird.

Bei AMD rechne ich aber mit etwas weniger.

Ailuros
2016-04-08, 19:32:02
Bei GM2xx nur bedingt. ;)

War nicht beim startup von 28nm ;)

Da scheint man doch ein nettes Line-up zu haben:
GP102 - 3840SPs - 2048-Bit HBM2 -450mm²
GP104 - 2560SPs - 256-Bit GDDR5X - 300mm²
GP106 - 1280SPs - 128-Bit GDDR5X - 200mm²
GP107 - 640-768SPs - 64-Bit GDDR5X - 100-120mm²

Mir sind nach wie vor 384bit/12Gbps GDDR5x 12GB genug fuer einen hypothetischen GP102. Sonst da ich nicht an Zufaelle glaube: 29x fuer 104 und wohl 20x fuer 106. Gibt es irgend eine Indizie fuer einen 107-er Winzling in Zauba oder sonstwo? Ich hab das Gefuehl dass der fuer Anfang 17' angeschlagen ist, bis yields noch um einiges steigen? Und ja Huebie hat recht; kein GDDR5x ab 106 und kleiner.

AnarchX
2016-04-08, 19:32:37
@AnarchX: Für die kleinen wird es wohl kein GDDR5X geben. Wäre unlogisch.
Wenn entsprechend verfügbar, macht GDDR5X eigentlich überall Sinn. Natürlich kann der Erstlaunch noch mit GDDR5 erfolgen, aber spätestens 2016 könnte man da auch GDDR5X einsetzen. So würde man da an einem 64-Bit Interface 4GiB mit 80GB/s haben, bei nur zwei Chips.

Troyan
2016-04-08, 19:33:46
Bei GM2xx nur bedingt. ;)

Da scheint man doch ein nettes Line-up zu haben:
GP102 - 3840SPs - 2048-Bit HBM2 -450mm²
GP104 - 2560SPs - 256-Bit GDDR5X - 300mm²
GP106 - 1280SPs - 128-Bit GDDR5X - 200mm²
GP107 - 640-768SPs - 64-Bit GDDR5X - 100-120mm²

Wenn die beiden Chips wirklich GP104 und GP106 sind, dann liegt zwischen beiden keine Verdopplung der Einheiten.

Entweder hat GP106 mehr (z.B. 1536) oder GP104 hat weniger (2048).

Ailuros
2016-04-08, 19:38:45
Wenn entsprechend verfügbar, macht GDDR5X eigentlich überall Sinn. Natürlich kann der Erstlaunch noch mit GDDR5 erfolgen, aber spätestens 2016 könnte man da auch GDDR5X einsetzen. So würde man da an einem 64-Bit Interface 4GiB mit 80GB/s haben, bei nur zwei Chips.

Wenn ein 106 hypothetisch einen 256bit bus hat und dieser mit 5X ankommen sollte, dann wird der Leistungsunterschied zu laecherlich klein zum 104 sein.

Dural
2016-04-08, 19:48:26
Was ist mit den 96sp sm aus dem china link?
Möglich oder quwatsch?

Troyan
2016-04-08, 19:56:40
Hardwareluxx hat sogar ein Bild, wo man beide unterschiedlichen Chips sieht - Ha:
http://www.hardwareluxx.de/media/jphoto/news-galerien/nvidia-gtc-2016-drive-px-2/nviida-gtc2016-drive-px2-5-840x560.jpg
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/38729-gtc-2016-drive-px-2-modul-mit-pascal-gpu-und-samsung-gddr5-speicher.html

Ist mir zuerst gar nicht aufgefallen.

Ailuros
2016-04-08, 20:02:40
Es wird wohl KEIN einziges Bild geben wo das Ding nicht schraeg aufgenommen wurde und das wohl nicht ohne Absicht....:eek:

Troyan
2016-04-08, 20:04:45
Aber man erkennt deutlich, dass der linke Chip kleiner als GM206 ist und der rechte deutlich kleiner als GM204 (wohl auf GK104 Niveau).

Ailuros
2016-04-08, 20:09:43
Aber man erkennt deutlich, dass der linke Chip kleiner als GM206 ist und der rechte deutlich kleiner als GM204 (wohl auf GK104 Niveau).

Ich kann Dir leider nicht damit nicht folgen weil das Modul schraeg zur Camera platziert ist und auch noch von einem merkwuerdigen Winkel aufgenommen wurde. Ich weiss es klingt bloed, aber ich wage in solchen Faellen keine Schaetzung weil ich jedes Mal damit auf die Nase gefallen bin.

Setz Dich mal schraeg nach rechts und schau Dir das Bild aus diesem Winkel nochmal an....

Hübie
2016-04-08, 20:14:19
Wo bitte ist dieser kleiner? :|

Ailuros
2016-04-08, 20:17:30
Wo bitte ist dieser kleiner? :|

Mach ein paar anstrengende Yoga-Uebungen und wenn Du den perfekten Knoten erreichst sieht dann der eine schon kleiner aus :freak:

CyLord
2016-04-08, 20:22:20
Der linke Kern hat auch seitlich weniger Speicherbausteine.

Nakai
2016-04-08, 20:24:08
Nein, da ist keiner kleiner. Die Platine ist praktisch identisch, was nicht sein kann.

Wenn das wirklich GP106 ist, und die Platine so ziemlich final ist, wie sieht das dann mit dem Stromverbrauch aus? Finfet bringt einfach weniger Stromverbrauchsverbesserung als erwartet bzw. es ist ein Trade-Off.


mfg

Troyan
2016-04-08, 20:35:37
Der linke Chip ist Hardware.fr 200mm^2 Chip. Der rechte ist identisch zu Chiphell und der Präsentation auf der Keynote.

Dural
2016-04-08, 21:05:09
Die zwei sind genau gleich gross

Schrotti
2016-04-08, 21:39:46
Sehe ich genauso.

Sunrise
2016-04-08, 22:23:34
Hardwareluxx hat sogar ein Bild, wo man beide unterschiedlichen Chips sieht - Ha:
Die sehen exakt gleich groß aus.

foenfrisur
2016-04-08, 22:46:22
natürlich sind die gleich groß....
der aufbau ist exakt der gleiche

http://www.pawek.de/optische%20t%E4uschung.jpg

mfg

Leonidas
2016-04-09, 11:08:28
Chiphell-Meldung mit (angeblichem) GP104-Dieshot:
https://www.chiphell.com/thread-1563086-1-1.html

Da die Webseite derzeit sehr schlecht erreichbar ist, nachfolgend eine Spiegelung des dort gezeigten Dieshots:

AnarchX
2016-04-09, 11:15:22
Chiphell-Meldung mit (angeblichem) GP104-Dieshot:
https://www.chiphell.com/thread-1563086-1-1.html

Da die Webseite derzeit sehr schlecht erreichbar ist, nachfolgend eine Spiegelung des dort gezeigten Dieshots:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10996748#post10996748 Der Leak wurde mittlerweile bei Chiphell gelöscht.

Beim GP106 auf dem PX2-Board stellt sich vielleicht auch die Frage, ob er überhaupt bei TSMC hergestellt wird. In den üblichen Zauba-Kanälen ist der Chip nicht aufgetaucht. Vielleicht ist es ein 14FF Chip von Samsung. Bei Luxx ist Taiwan zu erkennen.

Troyan
2016-04-09, 11:30:33
Werden wirklich leaks bei Chiphell gelöscht? Klingt dann ziemlich nach fake...

N0Thing
2016-04-09, 11:43:09
Ist das so? Sonst ist es in der Regel bei anderen Seiten ja immer umgekehrt. Wird etwas gelöscht, war es echtes Material was nicht nach draußen gelangen sollte.

fondness
2016-04-09, 11:44:01
Sieht eher so aus, als hätte Nvidia um Löschung gebeten.

AnarchX
2016-04-09, 11:44:15
Werden wirklich leaks bei Chiphell gelöscht? Klingt dann ziemlich nach fake...
Der Leaker hat seine Posts editiert. War wohl dann doch nicht so durchdacht der Leak, zumal das PCB über die Markierungen neben dem Chip vielleicht rückverfolgbar sein könnte.

Sunrise
2016-04-09, 11:52:35
Chiphell-Meldung mit (angeblichem) GP104-Dieshot:
https://www.chiphell.com/thread-1563086-1-1.html

Da die Webseite derzeit sehr schlecht erreichbar ist, nachfolgend eine Spiegelung des dort gezeigten Dieshots:
Sieht ziemlich authentisch aus. Zudem GK104-Diesize, was es noch glaubwürdiger macht.

Radeonfreak
2016-04-09, 12:02:01
Aber nur GDDR5 mit 256GB/s wär aber schwach...:|

HOT
2016-04-09, 12:07:41
Ist aber nicht anders zu erwarten. Als die Chips entwickelt wurden, war GDDR5X einfach noch in einem zu frühen Stadium um damit arbeiten zu können. Vllt. schafft GP102 dann GDDR5X, der Chip scheint ja später dran zu sein als GP106/4.
300mm² für GP104 späche meiner Ansicht nach aber eher für 2k Shader, nicht für 2,5k. Kommt dann halt über den Takt mit 8Gb/s RAM.

Dural
2016-04-09, 12:07:44
Da kann man davon ausgehen das die 1070 noch kein gddr5x haben wird. Und in der vergangenheit hatte das modell oberhalb den selben speicher drauf. Also da wäre ich schon etwas entäuscht wenn die 1080 nur 256bit gddr5 hätte.

Edit:
Nur 256gb/s :(

hasebaer
2016-04-09, 12:13:50
Aber nur GDDR5 mit 256GB/s wär aber schwach...:|

In Verbindung mit 4mb Cache wohl ausreichend bis WQHD. Der Refresh kommt dann mit GDDR5X.

Nakai
2016-04-09, 12:15:07
Ja, das wird GP104-Salvage gewesen sein. Kurz, GTX 970-Nachfolger. Vll mit 7GB GDDR5-Speicher statt den vollen 8. ;D

Aufgrund der niedrigen Bandbreite sollte man von sub GM200 ausgehen. Also zwischen GM204 und GM200. GTX980-Besitzer brauchen nicht auf GP104 upgraden. Die sollten auf GP102 warten.


In Verbindung mit 4mb Cache wohl ausreichend bis WQHD. Der Refresh kommt dann mit GDDR5X.

Naja, GP100 hat nur 4 MB, wieso sollte GP104 dann auch 4 bekommen?

HOT
2016-04-09, 12:17:33
Auch NV hat die Kosten im Blick bei dem Chip, genau wie AMD. Polaris10 und GP104 könnten gut vergleichbar sein, da ähnlicher RAM.
In Verbindung mit 4mb Cache wohl ausreichend bis WQHD. Der Refresh kommt dann mit GDDR5X.
Die haben einfach keinen passenden Controller. Ich glaub auch nicht, dass man da noch groß refreshen wird, offenbar hat sich die Strategie da einfach geändert. Die werden schon was geht für die Hersteller freigeben, da ist schlicht kein Platz für ein Refresh mit dem gleichen Chip. Sieht man ja auch bei Maxwell. Da hätte man zwar die Referenzdesigns verbessern können, das hätte aber auf die Herstellerdesigns keinen Einfluss gehabt.

GP102 wird 500mm² haben und genau wie GP100 3840 Shader bringen, das wird schlicht das Maximum sein, was mit der Pascal-Architektur machbar ist.

GP108 -> 320 Shader
GP107 -> 640 Shader
GP106 -> 1280 Shader 128Bit 8Gbps
GP104 -> 1920 Shader 256Bit 8Gbps
GP102 -> 3840 Shader 384Bit 12Gbps

Nakai
2016-04-09, 12:47:23
GP108 -> 320 Shader
GP107 -> 640 Shader
GP106 -> 1280 Shader 128Bit 8Gbps
GP104 -> 1920 Shader 256Bit 8Gbps
GP102 -> 3840 Shader 384Bit 12Gbps

Die SMs von Pascal-Gaming werden eher 128 SPs haben, als 64. Was ich denke:

GP107 -> 768 SPs 128Bit GDDR5
GP106 -> 1280 SPs oder 1536 SPs 256Bit GDDR5
GP104 -> 2560 SPs 256Bit GDDR5/X
GP102 -> 3840 SPs 384 GDDR5/X oder 2 HBM2-Stacks

HOT
2016-04-09, 12:49:54
Passt ja rechnerisch nicht. Wenn GP104 nicht mal 1/3 größer ist als GP106 und auch noch ein doppelt so großes Speicherinterface mitbringt, dann kann der unmöglich doppelt so viele Shader mitbringen. 1920 wird schon stimmen. Vorgabe für den Chip war halt die 300mm² aus Kostengründen nicht zu übersteigen. Die Leistung holt man sich schlicht über den Takt. Wenn der bis 1,7+ MHz geht, was ja angesichts des hohen GP100-Takts sehr wahrscheinlich ist, ist doch alles in Butter. So wie es aussieht ist GP104 100mm² kleiner als GM204. Da ist einfach ein Riesenspring nicht zu erwarten. Man wird über den Takt und den verbauten Speicher in DX11 knapp unterm GM200 landen und fertig.
2HBM2 Stacks würde den 384Bit 12Gbps ja entsprechen und wären entsprechend auch möglich, das stimmt.

AffenJack
2016-04-09, 13:08:08
Die SMs von Pascal-Gaming werden eher 128 SPs haben, als 64. Was ich denke:


Glaube ich nicht. Die Anzahl der SMs wird sich nicht ändern, das wird einfach eine der Änderungen zu Pascal sein. DP wir rausfliegen und es könnte sein, dass das Registerfile wieder auf die Maxwellgröße verkleinert wird. Erscheint mir auf jeden Fall wahrscheinlicher als andere SM Größen.

Nakai
2016-04-09, 13:10:49
Passt ja rechnerisch nicht. Wenn GP104 nur 1/3 größer ist als GP106 und auch noch ein doppelt so großes Speicherinterface mitbringt, dann kann der unmöglich doppelt so viele Shader mitbringen. 1920 wird schon stimmen. Vorgabe für den Chip war halt die 300mm² aus Kostengründen nicht zu übersteigen. Die Leistung holt man sich schlicht über den Takt. Wenn der bis 1,7+ MHz geht, was ja angesichts des hohen GP100-Takts sehr wahrscheinlich ist, ist doch alles in Butter.
2HBM2 Stacks würde den 384Bit 12Gbps ja entsprechen und wären entsprechend auch möglich, das stimmt.

GP106 ist auf einem MXM-B Modul. Die haben generell nur ein 256Bit SI. Ich gehe daher davon aus, dass GP106 auch ein 256Bit SI hat.
Also 1920 SPs wären wieder völlig underwhelming, was ich mir nicht vorstellen kann. Finfet und Pascal werden mit jedem Tag mieser. Selbst wenn ich mit Finfet von einer Packdichte von 20 Mio Transen/mm2 ausgehe, was wirklich echt mies ist, wird man über der GM204-Transistorenzahl liegen. GP104 wird mehr SPs haben als GM204. Falls nicht...:freak:

Und der Takt von GP100 würde ich nicht für voll nehmen. Das Ding hat eine TDP von 300W und kommt nicht als normale Karte auf den MArkt. Ist nicht vergleichbar.

AffenJack
2016-04-09, 13:16:36
GP106 ist auf einem MXM-B Modul. Die haben generell nur ein 256Bit SI. Ich gehe daher davon aus, dass GP106 auch ein 256Bit SI hat.


Das Ding auf dem PX2 hat ein 128Bit Interface. Man hat nur 80Gb/s an Bandbreite pro GPU, daher 128Bit bei 5Gbps GDDR5. Was auch immer da ausgestellt ist, wieso es 8 Speicherchips hat, keine Ahnung. Aber das was am Ende drauf sein wird ist wohl nen GP106 mit 128Bit. Ob das das maximum der GPU ist, ist allerdings ne andere Frage.

Undertaker
2016-04-09, 13:23:13
Die SMs von Pascal-Gaming werden eher 128 SPs haben, als 64. Was ich denke:

GP107 -> 768 SPs 128Bit GDDR5
GP106 -> 1280 SPs oder 1536 SPs 256Bit GDDR5
GP104 -> 2560 SPs 256Bit GDDR5/X
GP102 -> 3840 SPs 384 GDDR5/X oder 2 HBM2-Stacks

Wenn GP106 ein 256 Bit SI bekommt, dann imo auch mit 1536 SPs – ansonsten lohnt sich das nicht, da schon GM206 nicht zu sehr an der Bandbreite hing. Der Rest sieht imo ganz stimmig aus. Für GP108 würde ich 512 SPs und ein 64 Bit SI ansetzen.

Hübie
2016-04-09, 13:57:30
Warum will ich als Unternehmer weniger im neuen Produkt bringen als im alten? :| 400->300 mm^2 sind nur 25% kleiner und dann sollen da bei möglichen 1,7-fachen Transistor-Count weniger ALUs bei heraus kommen? Ich glaube nicht, Tim. HOT-Prognosen sind so beständig wie Butter in einer Mikrowelle. :D

Godmode
2016-04-09, 14:49:08
GP102 -> 3840 SPs 384 GDDR5/X oder 2 HBM2-Stacks

Ich bin mal gespannt, ob die Pascal SPs schneller sind, als die Maxwell SPs. Wenn die Pascal SPs gleich schnell wie die Maxwell SPs sind, dann wird Pascal deutlich weniger Leistungsplus bringen, als ich mir gewünscht hätte:

GP102:
3840 * 2 * 1,500 = 11,5 TFlop/s FP32
(384 * 12) / 8 = 576 GB/s
576 / 11,5 = 50,08 GB / TFlop FP32

GM200:
3072 * 2 * 1,075 = 6,6 TFlop/s FP32
(384 * 7) / 8 = 336 GB/s
336 / 6,6 = 50,90 GB / TFlop FP32

11,5 / 6,6 = 174%

Mit 12 Gbps GDDR5X hätte man zumindest das selbe Verhältnis aus Speicherbandbreite zu Rechenleistung, wie schon bei GM200.

Hübie
2016-04-09, 14:53:01
Rechne das doch einfach mal taktnormiert. 3072 sind Faktor 0.8 von 3840 ;)

ShinyMcShine
2016-04-09, 15:11:02
Also ich kann mich mit dem Gedanken an einen GP104 mit "nur" GDDR5 und deswegen lediglich 256 GB/s Bandbreite irgendwie nicht anfreunden. Bei einer Rechenleistung von nehmen wir mal an 8 TFlop/s (2560 * 2 * 1600) verhungert der doch... :frown: Selbst mit 1,4 GHz Takt und daraus resultierenden 7 TFlop/s ist mir das eindeutig zu bandbreitenlimitiert... In höheren Auflösungen hat der GP104 doch dann keine Chance gegen GM200. :freak:

Hübie
2016-04-09, 15:26:21
Ein gutes Pferd springt nur so hoch wie es muss. Im Schnitt hatte man ja stets die neue Performanceklasse auf der alten Highendklasse gelegt. Ich gehe von 125 Watt für die Leistung der GTX 980 aus. Kann man ja nun zurück rechnen was da drin verbaut sein wird. Eine vector-ALU wird ja nicht magisch schneller. ;)

HOT
2016-04-09, 17:41:06
Warum will ich als Unternehmer weniger im neuen Produkt bringen als im alten? :| 400->300 mm^2 sind nur 25% kleiner und dann sollen da bei möglichen 1,7-fachen Transistor-Count weniger ALUs bei heraus kommen? Ich glaube nicht, Tim. HOT-Prognosen sind so beständig wie Butter in einer Mikrowelle. :D
Hey, wer viel spekuliert liegt oft daneben ;). Da bin ich aber bei weitem nicht der einzige :D.
Und ich glaube du liegst da falsch. GP104 hat offenbar nur 300mm². Damit sind keine allzugroßen Sprünge ggü. 400mm² GM204 drin, so einfach ist das. Unternehmen kalkulieren. Und die Pascal-Neuerungen werden einfach ordentlich Transistoren brauchen, es war ja von 7,1 Milliarden die Rede, dass sind x1,4.

Hübie
2016-04-09, 17:44:28
Deshalb heißt es ja spekulieren ;) Klar lieg ich oft daneben. So wird man doch immer noch, nach all den Jahren, überrascht.

kdvd
2016-04-09, 17:47:12
Naja, GP100 hat nur 4 MB, wieso sollte GP104 dann auch 4 bekommen?

Mag sein das es auch nur 3MB werden. ;)

Nakai
2016-04-09, 17:49:11
Mag sein das es auch nur 3MB werden. ;)

Bei einem 256Bit SI? Wenn sie pro MC natürlich eine ungerade Anzahl an Cache verbauen, dann ja...aber wer macht das?

Sagen wir es so, 2 MB oder 4 MB.

kdvd
2016-04-09, 17:50:57
Stimmt, aber gut ich geh in dem Fall nicht von 2 MB aus.

=Floi=
2016-04-09, 18:07:37
Ich bin mal gespannt, ob die Pascal SPs schneller sind, als die Maxwell SPs. Wenn die Pascal SPs gleich schnell wie die Maxwell SPs sind, dann wird Pascal deutlich weniger Leistungsplus bringen, als ich mir gewünscht hätte:

GP102:
3840 * 2 * 1,500 = 11,5 TFlop/s FP32
(384 * 12) / 8 = 576 GB/s
576 / 11,5 = 50,08 GB / TFlop FP32

GM200:
3072 * 2 * 1,075 = 6,6 TFlop/s FP32
(384 * 7) / 8 = 336 GB/s
336 / 6,6 = 50,90 GB / TFlop FP32

11,5 / 6,6 = 174%


GK110 2880X1220 = 7TFlops/s FP32
wenn man sie denn auf den boden bringen könnte (eine reale anwendung oder ein benchmark sind mir nämlich nicht bekannt.)


es ist schon traurig, wie wenig steigerungen es bei der puren rechenleistung gab.

iuno
2016-04-09, 18:40:26
Diese Vergleiche immer... die 1220 sind wohl deiner Fantasie entsprungen? GK110 boostete auf der Titan nicht mal auf 900 MHz, bei der 780 gerade so und mit der Ti/Black etwas drueber. Fuer GM200 wurde in deinem Zitat auch ein normaler Referenzwert angegeben. Die Black kommt dann gerade mal auf 6 TFLOPs und das ganz am Ende des Kepler Lebenszyklus.
Vor allem aber kamen immer neue Features dazu, aber auch die reine Rechenleistung stieg durchaus ordentlich an. Mach doch den Vergleich doch nochmal mit halber oder doppelter Praezision.
Und mit Computing bekommt man die Leistung selbstverstaendlich auf die Strasse.

Nakai
2016-04-09, 18:44:22
es ist schon traurig, wie wenig steigerungen es bei der puren rechenleistung gab.

Willkommen bei Finfet. Der Takt ist noch nicht raus wohlgemerkt. Also bei 1,5 Ghz Base wird Pascal schon ganz nett. NV wird eher auf Takt gehen, als auf etwas Anderes.

sulak
2016-04-09, 18:52:51
Und Vollausbau bei GP102 könnte auch in weiter Ferne liegen. GM200 gibt es nur als Titan im Vollausbau, alle 980TI sind mit 2 deaktivierten Clustern unterwegs. Dazu KEIN 300W TDP, sondern 225W-250W.

980TI: 2816 * 2 * 1,075 = 6,05 TFlop/s FP32

1080TI: 3584 * 2 * 1,300 = 9,318 TFlop/s FP32

scully1234
2016-04-10, 08:07:51
the sources are confident that Nvidia’s higher-end GPUs could see strong performance this year. Other than that, they expect worldwide GPU shipments for the whole year to remain mostly flat. (http://fudzilla.com/news/graphics/40416-nvidia-geforce-pascal-gpus-launching-at-computex-2016)

hat man sich doch letztendlich fuer Takt statt Öko entschieden....

horn 12
2016-04-10, 08:34:50
Nun, da man sich wohl kaum absetzen hätte können, wurde wohl an der Taktschraube gedreht!
Wohl gut möglich das Pascal GP104 mit 1300, 1400 Boost daherkommt.
Referenz Design legen da aber nicht mehr allzuviel drauf, 1450, Boost 1550 wird wohl das Max werden und vielleicht 15% über einer GTX 980TI @Stock.

scully1234
2016-04-10, 09:36:47
aber nicht mehr allzuviel drauf, 1450, Boost 1550 wird wohl das Max werden .


Keine Ahnung aber wenn bereits ein 610 mm² Tesla DIE der auf hoechste Stabilität ausgelegt ist,und daher eher konservativ im Takt, bereits mit 1500 boosted, erwarte ich da vom kleineren Geforce ,erst einmal nicht weniger als das.

Jetzt kommts halt drauf an ,wie man sich bei TSMC zusammen mit Nvidia entschieden hat, bei der Auslegung des Prozesses

horn 12
2016-04-10, 09:44:57
Dieser ist wohl auf 300 Watt ausgelegt und man will wohl mit Geforce Pascal 104 nicht an der 200Watt Marke nagen!
Zudem hat Nakai schon gesagt man sollte sich nicht zuviel erwarten.
GTX 980TI wird abgelöst, aber auch nur weil mehr Speicher verbaut, stromsparender und vielleicht etwas mehr Performance mitnimmt.

The_Invisible
2016-04-10, 09:48:13
Also ich kann mich mit dem Gedanken an einen GP104 mit "nur" GDDR5 und deswegen lediglich 256 GB/s Bandbreite irgendwie nicht anfreunden. Bei einer Rechenleistung von nehmen wir mal an 8 TFlop/s (2560 * 2 * 1600) verhungert der doch... :frown: Selbst mit 1,4 GHz Takt und daraus resultierenden 7 TFlop/s ist mir das eindeutig zu bandbreitenlimitiert... In höheren Auflösungen hat der GP104 doch dann keine Chance gegen GM200. :freak:

Vielleicht haben Sie ja wieder was an der Komprimierung/Optimierung des Speicherdurchsatzes gedreht, da kann man dann schon etliche GB rausholen. Selbst eine uralte gtx 580 hatte ja schon knapp 200gb/s. Für mich würden aber schon =>980Ti Leistung mit 8GB und <400EUR reichen. :D

scully1234
2016-04-10, 09:50:28
Dieser ist wohl auf 300 Watt ausgelegt und man will wohl mit Geforce Pascal 104 nicht an der 200Watt Marke nagen!


Der hat auch ein ''paar'' mehr Transistoren ,und GPGPU Ballast zu verwalten

Alles Sachen ,die den kleinen wegen der zweigleisigen Auslegung ,gar nicht tangieren

Dural
2016-04-10, 09:51:22
Man kann das erwarten wie es bis jetzt immer war, der gp104 wird gm200 ersetzten und gp102/gp100 50% drauf legen.

Und das gejammer um finfet kann ich überhaupt nicht nach voll ziehen. Wir haben gut eine verdopplung der transistoren und dies mit deutlich mehr takt.

Nur so als erinnerung, auf den ersten blick konnte 28nm damals gegenüber 40nm nicht so punkten.

Troyan
2016-04-10, 10:15:40
Nur so als erinnerung, auf den ersten blick konnte 28nm damals gegenüber 40nm nicht so punkten.

:confused:

GTX680 war fast doppelt so schnell als die GTX560TI bei 20% kleinerem Die und ähnlichem Stromverbrauch: http://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/12/

Grabhopser
2016-04-10, 10:32:10
Gegenüber der 460 sind es sogar 250% und jetzt ?

Äpfel/Birnen ??

Es ging um GF110 gegen GK104, alter Topdog vs erstes 28nm Produkt...

Nakai
2016-04-10, 10:40:47
Glaube ich nicht. Die Anzahl der SMs wird sich nicht ändern, das wird einfach eine der Änderungen zu Pascal sein. DP wir rausfliegen und es könnte sein, dass das Registerfile wieder auf die Maxwellgröße verkleinert wird. Erscheint mir auf jeden Fall wahrscheinlicher als andere SM Größen.

Warten wir ab. Die GP100 SMs sind auch nur Maxwell SMs mit mehr Register und gesplitteten Caches und pro Scheduler eigene FP64Units. War notwendig. Du Gaming Derivate brauchen das nicht.

scully1234
2016-04-10, 10:43:02
Es ging um GF110 gegen GK104, alter Topdog vs erstes 28nm Produkt...


Und auch da fehlt in der Betrachtung der Shrink und Umstellung auf FinFET: 28nm auf 16nm vs 40nm auf 28nm, also wenn du schon Äpfel und Birnen nennst ,dann bei dem Aspekt ebenso

Locuza
2016-04-10, 10:55:39
Warten wir ab. Die GP100 SMs sind auch nur Maxwell SMs mit mehr Register und gesplitteten Caches und pro Scheduler eigene FP64Units. War notwendig. Du Gaming Derivate brauchen das nicht.
AMD fährt mit GCN schon seit 2012 so und auch die Gaming-Welt bewegt sich immer mehr Richtung Compute.
Ich denke nicht, dass Nvidia gesonderte Shader-Cluster für Profi/Consumer fahren wird.

Hust*
Warten wir ab. :redface:

Godmode
2016-04-10, 10:59:35
Ich bin schon gespannt, ob die Pascal Karten fürs Mining gut geeignet sein werden. Bei Maxwell sind ja nur die 750 bzw. 950 wirtschaftlich, da die anderen Karten alle deutlich zu teuer sind und trotzdem weniger leisten als entsprechende AMD Karten.

scully1234
2016-04-10, 10:59:47
@Locuza
Eigentlich hat das der Architekt schon indirekt gegenueber CT bestaetigt

Godmode
2016-04-10, 11:02:12
Eigentlich hat das der Architekt schon indirekt gegenueber CT bestaetigt

Alles andere wäre massive Transistorverschwendung. Es müssen außerdem auch die 3 verschiedenen Compute Capabilities vom Cuda Treiber bedient werden, und das deutet ganz stark auf unterschiedliche SMs, verglichen mit GP100 hin.

Troyan
2016-04-10, 11:04:49
Gegenüber der 460 sind es sogar 250% und jetzt ?

Äpfel/Birnen ??

Es ging um GF110 gegen GK104, alter Topdog vs erstes 28nm Produkt...

Es ging um den Vorteil von 28nm gegenüber 40nm.

Wenn GP104 gegenüber GM204 ca. 90% schneller wäre, dann wäre dies ca. 50% zur GTX980TI.

Botcruscher
2016-04-10, 11:19:09
Es ging um GF110 gegen GK104, alter Topdog vs erstes 28nm Produkt...
Zwischen 580 und 680 liegen in den ersten Test ~4010% bei gut weniger Verbrauch. Für einen 300mm² Chip jetzt nicht zu schlecht.

Grabhopser
2016-04-10, 11:20:42
Es ging um den Vorteil von 28nm gegenüber 40nm.



Bei Dural aber offensichtlich nicht, "auf den ersten blick" :wink: .


Wenn GP104 gegenüber GM204 ca. 90% schneller wäre, dann wäre dies ca. 50% zur GTX980TI.


Dann müsste GP104 aber ähnlich groß sein. Das FF Argument schenk ich dir, deswegen nur ähnlich :D.

Dural
2016-04-10, 11:41:01
Der asien leak sprach ja auch was von 96sp pro smx. Ich hab schon gefragt ob dies möglich und sinnvoll ist.

AnarchX
2016-04-10, 11:50:14
Das wäre dann wieder ein Schritt in Richtung Kepler.
Vielleicht gibt es da intern bei Nvidia noch Verfechter des superskalaren Ansatzes, GK210 mit den entsprechend vergrößerten Register-Files konnte wohl da eine deutlich bessere Auslastung erzielen. Und wenn man nun die GP100-Basis nehmen würde, wäre das ja nichts anderes.

32 SM mit je 3x 32SPs. Vielleicht auch eine Erklärung warum bei Drive PX2 die DL TOPS einen Faktor 3 gegenüber den FP32-FLOPs haben.

Troyan
2016-04-10, 11:56:50
Es gibt kein Schritt Richtung Kepler mit dem jetzigen Aufbau. Macht auch null sinn, da Maxwell die Leistung pro Fläche massiv verbessert hat.

AffenJack
2016-04-10, 12:43:48
32 SM mit je 3x 32SPs. Vielleicht auch eine Erklärung warum bei Drive PX2 die DL TOPS einen Faktor 3 gegenüber den FP32-FLOPs haben.

I can confirm the instruction level preemption in p100. It was mentioned in a talk at GTC. Also, another talk mentioned a different variant of Pascal that would be released that has a SIMD instruction for 8-bit integers as input and doing the math in 32-bit float. The claim was that this could provide a 4x increase in throughout for some deep learning applications. This was all the detail he provided.
https://forum.beyond3d.com/posts/1905757/

Wie wäres damit als Erklärung? Falls 4x eher theorethischer Natur sind und eher Faktor 3 normal schaffbar ist.

Dural
2016-04-10, 12:59:00
und gp102 hat 48sm / 4608sp
gp106 1536sp

Nakai
2016-04-10, 13:19:33
https://forum.beyond3d.com/posts/1905757/

Wie wäres damit als Erklärung? Falls 4x eher theorethischer Natur sind und eher Faktor 3 normal schaffbar ist.

Das hab ich schon vor Wochen vermutet. Ich ging aber nur von Faktor 3 max aus.

scully1234
2016-04-10, 20:06:03
Ein nicht identifizierter 3D Mark Eintrag, verdaechtig allerdings das nirgendwo eine Vendor ID zugeordnet ist,weder GPU,noch CPU ,noch Motherboard

http://www.3dmark.com/3dm11/11162175

gerade mal nachgesehen, der Grafikscore würde in etwa einer GTX 980TI entsprechen ,mit knappen 1,8-1,9GHZ Coretakt

Weis jemand ob das moeglich ist ,saemtliche Infos im 3D Mark zu unterdruecken, und trotzdem in der Datenbank zu landen?


Edit:
Ich weis nicht ob seine Aussagen noch belastbar sind ,nach der nicht eingetretenen Interposer Story, oder ob das nur wieder ne Aussage ist um Charlie zu trollen

Pascal has a GCN 1.0-like Async support, but however slightly worse than GCN 1.0 cards (http://semiaccurate.com/forums/showpost.php?p=259853&postcount=750)

Blediator16
2016-04-10, 22:12:32
Edit:
Ich weis nicht ob seine Aussagen noch belastbar sind ,nach der nicht eingetretenen Interposer Story, oder ob das nur wieder ne Aussage ist um Charlie zu trollen

Pascal has a GCN 1.0-like Async support, but however slightly worse than GCN 1.0 cards (http://semiaccurate.com/forums/showpost.php?p=259853&postcount=750)

Das hat wohl ein Dev im Anandtech Forum gesagt namens "zlatan".

I can't say to much on this topic, but Pascal will be an improvement over Maxwell especially at this feature. But no, it won't have GCN-like capabilities. It will be close to GCN 1.0, but nothing more.

http://forums.anandtech.com/showpost.php?p=38121238&postcount=36

Nightspider
2016-04-10, 22:41:45
Ich finds ja lustig das GDDR5X immer noch im Gespräch ist. Das Thema hatten wir doch eigentlich schon vor Monaten abgehakt dachte ich.
GDDR5X kam einfach viel zu spät um noch für Pascal berücksichtigt worden zu sein.

Und GP104 wird doch niemals nur 200mm² groß sein. Was soll das sonst bitte für eine riesige Lücke sein zwischen 200 und 600mm²?

Ich prophezeie:
GP106 mit 200mm² und GTX980 + 10-20% für ~~350 Euro
GP104 mit 350mm² und GTX980ti + 20-30% für ~~600 Euro

Übrigens hat Hawaii vorgemacht wie mein ein (flächenmäßig) kleines 512Bit SI integrieren kann.
Niemand kann aktuell ausschließen das GP104 mit einem schmalen 512Bit SI und GP106 mit 384Bit SI erscheint.

Dann könnte GP104 mit 8GB und GP106 mit 6GB auf den Markt kommen.

Thunder99
2016-04-10, 22:58:19
Meinst sicher GP1xx, oder? :D

Ansonsten glaube ich eher das nvidia höchstens 256bit zum 2.mal in die Mittelklasse entlässt (wie damals bei der 9600GT) und dann wir mit Glück 384bit bei GP104 sehen werden.

Damit hätte man nvidia typisch nur so viel VRAM verbaut wie man muss, nicht wie man kann für die Zukunft.

GP100/102 8/16GB
GP104 6/8GB (je nach SI)
GP106 4GB

Nvidia hat wie je her nur in der Oberklasse/Enthusiastenklasse mehr VRAM verbaut als notwendig war. Sonst immer weniger.

Nightspider
2016-04-10, 23:01:04
Meinst sicher GP1xx, oder? :D

Äh, ja. Keine Ahnung warum ich da jetzt überall GP204 geschrieben habe.

Thunder99
2016-04-10, 23:09:31
Maxwell hat uns alle geprägt :D

Dural
2016-04-11, 09:53:47
Der GP104 hat mit GDDR5 256Bit aber zu wenig Bandbreite.

Gutmöglich das NV genau deswegen beim GP106 256Bit eingebaut hat, aber GP104 mit 256Bit muss GDDR5X können, oder er hat 384Bit (sehr unrealistisch)

Thunder99
2016-04-11, 10:22:30
laut der Meldung war auf dem angeblichen GP104 Bild aber nur GDDR5 Speicher verbaut :confused:

Könnte auch erste Prototypen gewesen sein und dann später auf GDDR5X zu wechseln. Bleibt spannend was letztendlich nvidia präsentiert

HOT
2016-04-11, 11:00:40
Das Bild wird schon korrekt gewesen sein.
Ich würd sagen, Pascal bietet 640SP pro SPM. Dann sind alle Chips in einem Vielfachen von 640 aufgebaut, mit deutlich komplexerem Frontend und feineren Strukturen als vorher. Das frisst nunmal Transistoren. 300mm² mit 256Bit 8Gbps GDDR5 und 1920 SPs sind mMn die einzig sinnvolle Erklärung. Den Rest holt man über den Takt. Damit packt man in DX11 grade so GM200, in DX12 (z.B. QB) wird man diesem aber deutlich davon ziehen.

Godmode
2016-04-11, 11:40:17
Der GP104 hat mit GDDR5 256Bit aber zu wenig Bandbreite.

Gutmöglich das NV genau deswegen beim GP106 256Bit eingebaut hat, aber GP104 mit 256Bit muss GDDR5X können, oder er hat 384Bit (sehr unrealistisch)

Eventuell reicht ja ein 256 Bit SI für GP105 mit dem schnellsten GDDR5 + verbesserter Kompression.

Hübie
2016-04-11, 12:32:29
Ich finds ja lustig das GDDR5X immer noch im Gespräch ist. Das Thema hatten wir doch eigentlich schon vor Monaten abgehakt dachte ich.
GDDR5X kam einfach viel zu spät um noch für Pascal berücksichtigt worden zu sein.

Und GP104 wird doch niemals nur 200mm² groß sein. Was soll das sonst bitte für eine riesige Lücke sein zwischen 200 und 600mm²?

Ich prophezeie:
GP106 mit 200mm² und GTX980 + 10-20% für ~~350 Euro
GP104 mit 350mm² und GTX980ti + 20-30% für ~~600 Euro

Übrigens hat Hawaii vorgemacht wie mein ein (flächenmäßig) kleines 512Bit SI integrieren kann.
Niemand kann aktuell ausschließen das GP104 mit einem schmalen 512Bit SI und GP106 mit 384Bit SI erscheint.

Dann könnte GP104 mit 8GB und GP106 mit 6GB auf den Markt kommen.

Wer ist wir und was ist daran lustig? :confused: GDDR5X wurde im März zur Validierung ausgeliefert. In der back-to-school-season kommen neue Chips. Rate mal wie lange das dauert final zu validieren und wie lange man schon GDDR5X auf Grafikkarten-Prototypen baut? ;) Das Thema ist sowas von nicht vom Tisch... Im Gegenteil. Heißes Eisen im Feuer. Der IMC müsste nicht einmal komplett neu designed werden sondern müsste umgestrick und etwas erweitert werden. GP104 und 384 Bit passt einfach nicht zusammen. Zu aufwändig und zu teuer in Kombination mit neuem Prozess, sowie der Erwartung auf einen stagnierenden bzw. leicht fallenden Absatz.

GP100 wurde eine Woche vor der GTC auf die entsprechenden Präsentationsobjekte verbaut. ;) DRAM fällt vom Band und kann direkt verschickt und verlötet werden. Kein packaging etc..

HOT
2016-04-11, 14:56:12
Ist ja schön, dass der Speicher validiert und bald verfügbar ist, aber a.) sind die Kosten sicherlich deutlich höher als normaler GDDR5 und b.) muss der Chip dafür auch designt sein. Ich glaube nicht, dass das bei der ersten Generation jetzt direkt der Fall ist. Beide Hersteller werden versucht haben bei den Performancechips vor allem die Kosten im Griff zu halten.

dildo4u
2016-04-11, 15:02:28
Maxwell Kompression ist doch schon exzellent 960 (128Bit) liegt im Bereich der 280 (384Bit) und 285 (256 Bit).Ich sehen kein Problem mit GDDR5.
256 Bit sollte bei Pascal für Titan X Speed reichen.

Titan X = 200% von 960 OC.

http://www.computerbase.de/thema/grafikkarte/rangliste/

y33H@
2016-04-11, 15:03:32
256 Bit mit dickem L2 und verbesserter DCC klingt doch nett für GP104 ... gucken wir mal im Mai ;-)

Hübie
2016-04-11, 15:07:41
Ist ja schön, dass der Speicher validiert und bald verfügbar ist, aber a.) sind die Kosten sicherlich deutlich höher als normaler GDDR5 und b.) muss der Chip dafür auch designt sein. Ich glaube nicht, dass das bei der ersten Generation jetzt direkt der Fall ist. Beide Hersteller werden versucht haben bei den Performancechips vor allem die Kosten im Griff zu halten.

Woher willst du wissen das die (okay ich nenne "die beim Namen: NVIDIA) keinen IMC für GDDR5X haben? Meinst du etwa Micron produziert jetzt für die Halde und bringt im Februar auf der eigenen Website einen Bericht über einen Paperlaunch im Sommer? :| Kann ich mir alles nur schwer vorstellen.
Einen Faktor kenne ich jedoch nicht: die Änderungen am IMC, gemessen an Aufwand und Kosten.

HOT
2016-04-11, 15:16:24
Selbst wenn der MC GDDR5X-fähig wäre (was ich stark bezweifle, da die Chips ja schon irgendwann im letzten Jahr Tapeout haben müssen und deren konkretes Design ja schon ab 2014 gelaufen sein muss), heißt das noch lange nicht, dass man den teuren Speicher jetzt auch nutzt, zumal GDDR5 8Gbps evtl. auch dank mehr Cache und Kompression auch reicht, um GM200 zu erreichen.

Hübie
2016-04-11, 15:33:45
Öhm. Man arbeitet seit 2014 an GDDR5X. :|

HOT
2016-04-11, 15:35:00
Öhm. Man arbeitet seit 2014 an GDDR5X. :|
NV arbeitet seit 2014 an GP104/6. Das müssen sie, wenn die Chips jetzt final werden sollen. Da war für NV aber noch nicht an GDDR5X zu denken. Ich finde, einige bringen immer die Zeiträume total durcheinander. Ein Chip der im Sommer final kommt und ein Speicher, der erst dieses Jahr final gegangen ist, passt einfach nicht zusammen. Sowohl NV als auch Micron haben einen Zeitplan, in dem Produkte entwickelt werden. Micron kam aber erst in 2015 mit GDDR5X überhaupt an die Öffentlichkeit und hat GDDR5X erst in 2016 final spezifiziert. Wie soll das denn zusammenpassen mit NV-Chips, von denen es zu diesem Zeitpunkt schon Masken für das Produktionsilizium gab? Das ist total absurd. GDDR5X kann erst in Chips implementiert werden, die in 2015 auch erst in Entwicklung waren und das auch nur in enger Abstimmung mit Micron. NV wird das sicherlich beim GP102 gemacht haben, aber die anderen Chips sind da einfach nicht im Zeitplan und es wird bei deren Design auch nicht nötig sein, diesen speziellen Speicher zu verwenden, die werden mit "klassischem" GDDR5-Speicher sehr gut klarkommen.

Nightspider
2016-04-11, 15:37:09
Das GDDR5 und dicker Cache für GP104 reicht ist durchaus möglich.

GP104 und 384 Bit passt einfach nicht zusammen. Zu aufwändig und zu teuer...

Bei Hawaii hats ja auch ohne Probleme geklappt und Hawaii wurde über eine lange Zeit sogar günstiger verkauft als eine GTX980.

Seit Hawaii bedeutet 384Bit SI nicht mehr zwangsläufig platzfressend, teuer und unrentabel.

Einen Faktor kenne ich jedoch nicht: die Änderungen am IMC, gemessen an Aufwand und Kosten.

Das kann im Moment wohl keiner einschätzen und das ist der große Knackpunkt.
Imo kam GDDR5X aber zu plötzlich und spät um noch etwas zu reißen.

Denn sonst würde ich mich auch fragen: Wieso hat man sich GDDR5X nicht schon viel eher ausgedacht?
Wie soll denn überhaupt der Stromverbrauch von GDDR5X Chips aussehen bzw. wo ist der Haken an der gestiegenen Bandbreite?

Der_Korken
2016-04-11, 16:06:08
Seit Hawaii bedeutet 384Bit SI nicht mehr zwangsläufig platzfressend, teuer und unrentabel.


Woher willst du das wissen? Erstens hat Hawaii sogar 512bit und zum anderen weiß keiner, wie der Chip ausgesehen hätte, wenn er nur 256bit gehabt hätte. Ich meine dass AMD im Zuge der Furys damals gesagt hätte, dass das SI von Tahiti und Hawaii um die 60mm^2 groß wäre und trotzdem gerade mal auf 6Gbps ausgelegt war. Auch der Mehrverbrauch war nicht unerheblich (bei GDDR5 vs HBM). Mir fällt auch gerade kein Chip unter 350mm^2 mit 384bit (oder mehr) ein, also scheint es schon einen Grund zu haben, dass die Hersteller damit geizen.

Hübie
2016-04-11, 16:25:03
Das GDDR5 und dicker Cache für GP104 reicht ist durchaus möglich.

Bei Hawaii hats ja auch ohne Probleme geklappt und Hawaii wurde über eine lange Zeit sogar günstiger verkauft als eine GTX980.

Seit Hawaii bedeutet 384Bit SI nicht mehr zwangsläufig platzfressend, teuer und unrentabel.

Das kann im Moment wohl keiner einschätzen und das ist der große Knackpunkt.
Imo kam GDDR5X aber zu plötzlich und spät um noch etwas zu reißen.

Denn sonst würde ich mich auch fragen: Wieso hat man sich GDDR5X nicht schon viel eher ausgedacht?
Wie soll denn überhaupt der Stromverbrauch von GDDR5X Chips aussehen bzw. wo ist der Haken an der gestiegenen Bandbreite?

Es hat ja was mit wirtschaftlichen Aspekten zu tun. Wie verkaufst du so ein Vorgehen deinen Aktionären und den Rating-Agenturen. Hawaii hat doch eine bedeutend kleinere Gewinnspanne vorzuweisen als jedes Derivat auf nVidia's Seite.
Deinem ersten Satz widerspreche ich an der Stelle jedoch nicht. Es könnte reichen. Jeder GM200 Besitzer kann dir aber schon attestieren, dass 7 Gbps, 384 Bit und 3 MB noch mit dem Takt skalieren. War so in der Region 15% Takt 5~7% Performance.
GDDR5X hat eine geringe Operationsspannung. 1.35 Volt statt 1.5 Volt. Schau mal auf www.anandtech.com.

Edit: Da-->http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps

Blediator16
2016-04-11, 16:25:50
Micron wollte erst im Sommer in Massenproduktion gehen da werden im Sommer sicherlich keine Karten mit GDDR5X kommen.

Thunder99
2016-04-11, 16:30:47
Teil deaktiviert mit GDDR5 und voll dann mit X? Zumindest könnte es sein, dass nvidia in der Planungsphase mit Micron kooperiert hat und da durch erst GDDR5X aus der Taufe gehoben wurde

Dural
2016-04-11, 16:34:12
Micron wollte erst im Sommer in Massenproduktion gehen da werden im Sommer sicherlich keine Karten mit GDDR5X kommen.

zufälliger weisse geht man beim gp104 von einem paperlaunch aus. die karten sollen erst im sommer kommen. also würde es genau passen.
und seit wann an gddr5x gearbeitet wird, wissen wir ja gar nicht!

HOT
2016-04-11, 16:39:39
Hawaii und Tahiti hatten nur deshalb so große Bandbreiten, weil sie auch als Profichips verkauft wurden und weil MSAA noch eine gewisse Rolle spielte. Zudem war bei beiden Chips die Speichermenge ein Verkaufsargument. Tahiti mit 3GB wurde genau wegen den 3GB gern gekauft. Der Nachteil für AMD ist halt, dass die Tahitis heute noch im Einsatz sind. Heute ist die Speichermenge von 8GB @256Bit kein Problem mehr und MSAA spielt gar keine Rolle mehr, für Profichips gibts HBM2. Von daher reicht es die Bandbreiten so zu bemessen, dass man in WQHD bei heutigen Spielen sehr gut klar kommt und UHD im Ansatz mitnimmt. Wenn man ehrlich ist, sind weder GP104 noch Polaris10 UHD-geeignet, dafür gibts Vega und GP102.
Ich frage mich, ob Micron überhaupt GDDR5X verkaufen wird oder ob der erst für die nächste Generation low-End bis Mainstreamchips genutzt wird. Wie gesagt war der Speicher einfach zu spät, beide Hersteller haben sich bei HBM die Hörner abgestoßen. Ich geh mittlerweile davon aus, dass GP102 2 HBM2-Stacks bringen wird, genau wie Vega. Ich glaube nicht, dass sich NV das Label HBM entgehen lässte beim Top-Chip.

Ailuros
2016-04-11, 17:10:07
Ich weiss gar nicht mehr ob sich mir bei einer Bauchgrippe der Magen mehr verdreht oder eher wenn ich so viel angehaeuften Bloedsinn lese.

Sweoverclockers sind nicht die typischen Abschreiber und in der Mehrzahl der Faelle wissen sie schon wovon sie reden:

https://translate.google.gr/translate?sl=sv&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21978-nvidia-geforce-gtx-980-och-gtx-980-ti-far-ersattare-i-maj-gtx-970-avloses-i-juni&edit-text=

Hübie
2016-04-11, 18:04:43
Micron wollte erst im Sommer in Massenproduktion gehen da werden im Sommer sicherlich keine Karten mit GDDR5X kommen.

Ich drucke mir deinen Satz aus und Rahme mir diesen ein, wenn wahr.:freak:

scully1234
2016-04-11, 18:16:41
Ich kauf dir den Rahmen ok:smile:

Hübie
2016-04-11, 18:36:35
Abgemacht. :D

Nightspider
2016-04-11, 18:37:22
Es hat ja was mit wirtschaftlichen Aspekten zu tun. Wie verkaufst du so ein Vorgehen deinen Aktionären und den Rating-Agenturen.

Klar kostet es ein paar Euro aber das tut GDDR5X auch.
Die Frage ist halt: Wie viel teurer wäre 384Bit SI? Soweit wir wissen war sogar das 512Bit SI extrem platzsparend in Hawaii integriert.

Du und auch ich haben keine Ahnung wie viel % mehr das kosten würde. Und Aktionäre langweilt bestimmt nicht mit der Breite der Speicheranbindung. Wenn du dir (dank fehlendem Bottleneck) 20% mehr Leistung durch 5-10% mehr Produktionskosten erkaufst ist das eine Win-Win Situation.

Ihr tut manchmal so als würde die Karten gleich 30% teurer werden durch 384Bit SI. Aber imo gibt es eben die 3 Möglichkeiten, GDDR5, GDDR5X und 384Bit SI. Imo kann man keine ausschließen.

igg
2016-04-11, 18:43:59
Sweoverclockers sind nicht die typischen Abschreiber und in der Mehrzahl der Faelle wissen sie schon wovon sie reden:

https://translate.google.gr/translate?sl=sv&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21978-nvidia-geforce-gtx-980-och-gtx-980-ti-far-ersattare-i-maj-gtx-970-avloses-i-juni&edit-text=
Beziehen sich deine Bauchschmerzen auf Sweoverclockers oder die vorangegangenen Posts ;)?

Was mich in dem verlinkten Artikel wirklich überrascht ist die Ti. Das würde irgendwie überhaupt nicht passen.

Tomahawk
2016-04-11, 18:47:54
Wenn der 980-Nachfolger kommt, dann wird die 980Ti obsolet. Mehr wird damit kaum gemeint sein.

Hübie
2016-04-11, 18:49:03
Klar kostet es ein paar Euro aber das tut GDDR5X auch.
Die Frage ist halt: Wie viel teurer wäre 384Bit SI? Soweit wir wissen war sogar das 512Bit SI extrem platzsparend in Hawaii integriert.

Du und auch ich haben keine Ahnung wie viel % mehr das kosten würde. Und Aktionäre langweilt bestimmt nicht mit der Breite der Speicheranbindung. Wenn du dir (dank fehlendem Bottleneck) 20% mehr Leistung durch 5-10% mehr Produktionskosten erkaufst ist das eine Win-Win Situation.

Ihr tut manchmal so als würde die Karten gleich 30% teurer werden durch 384Bit SI. Aber imo gibt es eben die 3 Möglichkeiten, GDDR5, GDDR5X und 384Bit SI. Imo kann man keine ausschließen.

Da geht es um das gesamte Paket und es ist eine Sache was ein IHV zahlt und was du zahlst. Kannst mir sonst gerne erklären, warum man billige SMD-Bauteile nimmt, wenn es deiner Ansicht nach nicht so wichtig für die Aktionäre ist. Du tust manchmal so als wäre alles ein Heiden-Aufwand und würde erst kurz vor Markteinführung von einem Hersteller zum anderen getragen werden.

Nightspider
2016-04-11, 20:20:16
Da geht es um das gesamte Paket und es ist eine Sache was ein IHV zahlt und was du zahlst. Kannst mir sonst gerne erklären, warum man billige SMD-Bauteile nimmt, wenn es deiner Ansicht nach nicht so wichtig für die Aktionäre ist. Du tust manchmal so als wäre alles ein Heiden-Aufwand und würde erst kurz vor Markteinführung von einem Hersteller zum anderen getragen werden.

SMD Bauteile sind nicht Benchmark-Relevant und kurze Lebensdauer erhöht den Umsatz. ;)
Mir gehts ja gar nicht um den Produktionszeitpunkt sondern darum ob das Speicherinterface von Pascal schon mit GDDR5X umgehen kann.
Denn am Chipdesign wird ja bestimmt schon seit 12-18 Monaten nichts mehr grundlegend geändert schätze ich mal.
Wie wir schon festgestellt haben ist halt nur die Frage wie groß die Änderungen im Memory PHY sind und ob sich das noch hätte leicht einbauen können...das steht halt alles noch offen.

Das die ersten Grafikkarten Ende Juli schon ausgeliefert werden könnten wenn die Chips erst Anfang Juli vom Band fallen ist klar. So lange dauert die Verarbeitung nicht und Nvidia könnte schon vorab GPUs produzieren, die dank dem neuen Prozess Anfangs eh noch keine optimale Yieldrate haben werden. Die Frage ist halt ob Pascal mit GDDR5X umgehen kann. Ich denke mal das werden wir spätestens nächsten Monat erfahren.

Sunrise
2016-04-11, 20:34:52
Es ist schon ziemlich merkwürdig, dass ausgerechnet GDDR5X im Sommer in Masse in Produktion gehen soll und das auch noch mit den IHV-Launches zusammenfällt. Fasst schon zu geplant...

Da man im preissensitiven Bereich der 970 und Polaris möglichst hohe Mengen, niedrige Board- und generell niedrige BOM-Kosten haben möchte, klingen für mich hier GDDR5 und evtl. GDDR5X bei der großen Vollausbau-Variante garnicht mal so schlecht, denn da hat sich doch tatsächlich einer Gedanken gemacht....

Geringere Mengen, höhere Kosten... kein Thema bei der 1080, bei der 1070 schon.

Das gilt aber sicher nur für NV, da AMD da noch ordentlich Bandbreite einsparen können sollte, während NV da mit Maxwell schon ordentlich investiert hat...

BlacKi
2016-04-11, 20:46:29
Du und auch ich haben keine Ahnung wie viel % mehr das kosten würde. Und Aktionäre langweilt bestimmt nicht mit der Breite der Speicheranbindung. Wenn du dir (dank fehlendem Bottleneck) 20% mehr Leistung durch 5-10% mehr Produktionskosten erkaufst ist das eine Win-Win Situation.
ehm, es sind chipfläche und speicher. die taktung und kapazität sind zwar geringer und pro bauteil günstiger, aber hat die doppelte anzahl von bauteilen. 16 bausteine!

Zettabit
2016-04-11, 22:02:38
Micron kam aber erst in 2015 mit GDDR5X überhaupt an die Öffentlichkeit
Genau. Und weil Mr. HOT im 3DCenter Forum erst in 2015 was von GDDR5X in einer Pressemitteilung gelesen hat, wurde vorher natürlich gar keine Sekunde bei den IHVs, die mit Micron total eng zusammen arbeiten, daran gearbeitet :rolleyes:

Ernsthaft - für so einen Aussage kann es gar nicht genug Facepalms geben.

Hübie
2016-04-11, 22:33:42
Ich habe mal eben das clocking diagram angesehen und es gibt in der Hinsicht keine Änderungen am IMC. Wer Zugriff hat: JESD212 (GDDR5) und JESD232 (GDDR5X).

Nightspider
2016-04-11, 22:36:08
ehm, es sind chipfläche und speicher. die taktung und kapazität sind zwar geringer und pro bauteil günstiger, aber hat die doppelte anzahl von bauteilen. 16 bausteine!

Man müsste einfach nur doppelt soviel Speicherbausteine mit halber Kapazität verbauen. Mehrkosten durch den Speicher? Nur bei der Verdrahtung (mehr PCB Layer, vielleicht minimal größeres PCB)
Das größere PHY muss, wie ich bereits sagte, nicht viel größer ausfallen und auch nicht viel teurer sein, siehe Hawaii wo das kleine PHY hier alle überrascht hat.
Zudem spart man Geld weil man langsamere Speicherchips verwenden kann und nicht auf teurere 8gbps Chips angewiesen ist.

Falls Nvidia doch schon vor 1,5-2 Jahren von GDDR5 gewusst haben sollte, könnte es aber wirklich gut sein das GDDR5X verbaut wird.

Mal schauen, mir ist es ziemlich wurst welche der drei Lösungen am Ende Verwendung findet. Nvidia und AMD werden schon einen möglichst optimalen Weg gewählt haben.

Hübie
2016-04-11, 23:06:15
Nur mal zur Info: GDDR5X kommt mit 2GB (16 Gbps) daher und wie gesagt muss am IMC nix gemacht werden. GDDR5X hat einen internen fallback auf GDDR5.

Gipsel
2016-04-12, 01:34:00
Nur mal zur Info: GDDR5X kommt mit 2GB (16 Gbps) daher und wie gesagt muss am IMC nix gemacht werden. GDDR5X hat einen internen fallback auf GDDR5.Ja, Du kannst GDDR5X-Chips im DDR-Modus betreiben, der praktisch identisch zu GDDR5 funktioniert, also auch an normalen GDDR5-Controllern. Allerdings nur bis 6 GBps mit den bisher angekündigten Modulen. Für höhere Geschwindigkeiten wird der QDR-Modus benutzt, der natürlich ein paar Änderungen am Speichercontroller und den PHYs erfordert.

Skysnake
2016-04-12, 06:48:38
Das SI sollte sich aber selbst relativ spät noch relativ leicht ersetzen lassen. Das Zeug ist eh am Rand und man hat auch noch Platz um den Chip leicht größer zu machen.

Zudem ist GDDR5 und GDDR5X ziemlich ähnlich, weshalb man wohl die interne Verdrahtung nicht wesentlich ändern wird müssen.

Ich seh da erstmal überhaupt keinen Grund, warum man nicht davon ausgehen sollte, dass das SI GDDR5X unterstützen wird können bei nVidia.

Ganz im Gegenteil. Es wäre eher eine Überraschung, wenn es nicht so wäre.

Btw.:
Wurde auf der GTC eigenltich was dazu gesagt, dass Sie mit A1 in Massenproduktion gehen/gegangen sind?

Mich wundert es noch immer, das man nichts lauffähiges am start hatte. Mir kommt da einfach immer wieder Thermi in den Kopf...

Ailuros
2016-04-12, 07:01:02
Nichts lauffaehiges mit P100? Wenn ja liegst Du falsch.

Sonst hat P100 historisch den kleinsten Anteil an abgeschalteten Einheiten der letzten Jahre bei 10%. GK110 der nicht wirklich problematisch war hatte immer noch 20% deaktiviert am Start.

Skysnake
2016-04-12, 07:09:15
Naja, GF100 hatte auch lauffähiges Silizium, nur halt nicht zu den gegebenen Specs und nicht mit den Yields, die man braucht.

Ich sag ja nicht, das es so sein muss, aber nVidia hat schon sehr viel kram in den Chip gepackt, wenn man ihnen Glauben schenkt. Es würde mich daher überhaupt nicht überraschen, wenn da etwas ernsthafter nicht so funktioniert wie man das erwartet hat.

Und bezüglich %. Man kann jetzt auch sehr viel feiner abschalten mit den 60SM. Vorher waren es gerade mal 15, die man überhaupt abschalten konnte.

Eventuell ist es auch einfach, das man HBM nicht so hoch bekommt, wie man gerne hätte. Das werden wir aber erst in 1-2 Jahren wissen, falls es GP100 auch mit vollem HBM2 Takt gibt.

Ist es die gleiche Ref, dann ist nichts dran, ist es eine Neue, dann war/ist da wohl etwas nicht 100%. Wäre aber wirklich ein mehr als verschmerzbares Problem. Da gibt es viel viel viel schlimmeres.

Zettabit
2016-04-12, 08:40:35
Btw.:
Wurde auf der GTC eigenltich was dazu gesagt, dass Sie mit A1 in Massenproduktion gehen/gegangen sind?

Mich wundert es noch immer, das man nichts lauffähiges am start hatte. Mir kommt da einfach immer wieder Thermi in den Kopf...
Womit sonst, wenn man in zwei Monaten erste Systeme ausliefern will?

Ailuros
2016-04-12, 08:45:32
Naja, GF100 hatte auch lauffähiges Silizium, nur halt nicht zu den gegebenen Specs und nicht mit den Yields, die man braucht.

Nur brauchte GF100 zwei metal spins bis es aufs Laufband kam und dann waren es 448SPs@1.15GHz, waehrend GF110 Teslas dann schon auf 512@1.3GHz landete und das um etwa ein Halbjahr spaeter.

GK110 Tesla kam ihm K20 mit nur 2496SPs@706MHz an, waehrend GK110B dann mit 2880@745MHz. Wobei P100 immer noch auf A1 liegt mit den vermarkteten Specs.

Ich sag ja nicht, das es so sein muss, aber nVidia hat schon sehr viel kram in den Chip gepackt, wenn man ihnen Glauben schenkt. Es würde mich daher überhaupt nicht überraschen, wenn da etwas ernsthafter nicht so funktioniert wie man das erwartet hat.

Und bezüglich %. Man kann jetzt auch sehr viel feiner abschalten mit den 60SM. Vorher waren es gerade mal 15, die man überhaupt abschalten konnte.

Es aendert aber nichts daran dass der P100 auf ersten Blick relativ gesund erscheint wenn man den neuen Prozess in Betracht nimmt. Vorsicht: ich betone ---> erscheint weil wir bisher auch noch nichts wissen denn es gibt noch nichtmal Indizien fuer irgendwelche Problematik.

Sonst wenn Du hypothetisch mehr als 30% wafer yields im Durchschnitt mit dem Riesen erwartest, bist Du einfach krank ;)

Eventuell ist es auch einfach, das man HBM nicht so hoch bekommt, wie man gerne hätte. Das werden wir aber erst in 1-2 Jahren wissen, falls es GP100 auch mit vollem HBM2 Takt gibt.

Sollen wir Dir ein Gewehr goennen damit Du etwas erschiessen kannst um trotz allem eine Leiche zu bekommen fuer die Gruenen? Ihr design-Ziel war offensichtlich 720GB/s und dieses wurde auch erreicht.

Ist es die gleiche Ref, dann ist nichts dran, ist es eine Neue, dann war/ist da wohl etwas nicht 100%. Wäre aber wirklich ein mehr als verschmerzbares Problem. Da gibt es viel viel viel schlimmeres.

Ja. Intel :weg: ;D

Hübie
2016-04-12, 08:51:37
Ja, Du kannst GDDR5X-Chips im DDR-Modus betreiben, der praktisch identisch zu GDDR5 funktioniert, also auch an normalen GDDR5-Controllern. Allerdings nur bis 6 GBps mit den bisher angekündigten Modulen. Für höhere Geschwindigkeiten wird der QDR-Modus benutzt, der natürlich ein paar Änderungen am Speichercontroller und den PHYs erfordert.

Das wird on-the-fly umgeschaltet. Von 1.5 GHz auf 3.0 GHz. Es wird wohl nur hier und da etwas anders verdrahtet werden müssen, aber wie gesagt ist es offenbar sehr wenig. Weiß nicht ob du bei der JEDEC bist, aber wenn ja, dann kannst du dir ja mal o.g. Dokumente ansehen. Da verstehst du sicher mehr als ich. Ich erkenne in dem (groben) clocking diagram jedenfalls keine Unterschiede auf Seiten des Controllers.:confused:

Sunrise
2016-04-12, 09:04:59
Ihr design-Ziel war offensichtlich 720GB/s und dieses wurde auch erreicht.
Da habe ich sehr _starke_ Zweifel. Du hattest doch auch wie ich bereits ein paar Gründe im Vorfeld genannt.

1) NVs Projektionen sprachen von deutlich mehr bis man sich immer weiter nach unten korrigiert hatte (wir wissen nicht, ob man ursprünglich mit mehr SPs bzw. Durchsatz geplant hatte, weil der Chip nur im Simulationsstadium war).

2) Was wäre deine Erklärung dafür, dass man absichtlich HBM2 in der Leistung begrenzt? Ich kann mir maximal vorstellen, dass der IMC bzw. bei höherem Speed evtl. doch stärkere SerDes oder wie auch immer eingesetzt werden müssten und das hätte den 300W-Rahmen gesprengt, denn warum sollte man es sonst tun bei GP100? Die Begründung siehe Punkt 3.

3) Das ist ein HPC-Chip, der eigentlich nie genug Bandbreite haben kann. Man begrenzt nur, weil es technisch irgendwelche Gründe dagegen gab.

Das Design-Ziel war offensichtlich GP100 voll an die Grenze der TDP zu fahren. Denn 300W hatte soweit ich mich errinnere auch Intel bei der ganz großen Version angegeben, da will man dann natürlich auch zeigen was man selbst damit anstellen kann. Aber die Bandbreite begrenzen auf 720GB/s ? Da haben wir aktuell nicht genug Daten um zu sagen, wie und ob das limitiert, denn das wird es in Grenzfällen fast sicher tun.

Skysnake
2016-04-12, 09:06:01
Nur brauchte GF100 zwei metal spins bis es aufs Laufband kam und dann waren es 448SPs@1.15GHz, waehrend GF110 Teslas dann schon auf 512@1.3GHz landete und das um etwa ein Halbjahr spaeter.

GK110 Tesla kam ihm K20 mit nur 2496SPs@706MHz an, waehrend GK110B dann mit 2880@745MHz. Wobei P100 immer noch auf A1 liegt mit den vermarkteten Specs.

Ich gehe auch nicht davon aus, dass das Ding so kaputt ist wie GF100, aber das muss es heute auch gar nicht mehr.

Bei den ganzen <=28nm Prozessen ist es gar nicht mehr so einfach zu sagen, wann ein Chip wirklich "kaputt" ist und wann nicht. Wenn man zu geringe Yield, aus welchen Grndne auch immer bekommt, dann ist der Chip an sich auch "kaputt" meiner Meinung nach. Man hätte ja auch anders designen können, so dass die Yields besser wären.


Es aendert aber nichts daran dass der P100 auf ersten Blick relativ gesund erscheint wenn man den neuen Prozess in Betracht nimmt. Vorsicht: ich betone ---> erscheint weil wir bisher auch noch nichts wissen denn es gibt noch nichtmal Indizien fuer irgendwelche Problematik.

Sonst wenn Du hypothetisch mehr als 30% wafer yields im Durchschnitt mit dem Riesen erwartest, bist Du einfach krank ;)

Nein ich gehe von keinen hohen Yields aus. Das ist aber genau der Punkt. Wenn mann nicht wirtschaftlich produzieren kann, dann ist es egal, ob es funktionierende Chips gibt. Es gibt halt zu selten welche davon. Und wie gesagt, da mache ich jetzt keine Unterscheidung zwischen er ist "richtig" kaputt und "er bringt zu niedrige Yields"


Sollen wir Dir ein Gewehr goennen damit Du etwas erschiessen kannst um trotz allem eine Leiche zu bekommen fuer die Gruenen? Ihr design-Ziel war offensichtlich 720GB/s und dieses wurde auch erreicht.

An sich muss der Controller und alles aber die volle Bandbreite schaffen können, Das ist ein viel zu hoher Validierungsaufwand etc. um das zweimal zu designen meiner Meinung nach.

Und bezüglich Design-Ziel. Man nimmer sich öfters mehr vor, als man am Ende zwingend braucht. ;)


Ja. Intel :weg: ;D
Genau davor habe ich "Angst". nenn es von mir aus German Angst, aber ich habe da einfach ein verdammt ungutes Gefühl dabei. Was man so im Hintergrund hört, bekommt man HMC ja einfach nicht gebacken. Also nicht überhaupt, aber zu den nötigen Yields.

Hübie
2016-04-12, 09:08:11
Stand auf einigen Roadmaps nicht sogar der Wert "1TB/s"? Ich erinnere mich da dunkel... Ansonsten sehe ich es so wie sunrise. Es wird wohl einfach noch nicht voll ausgefahren funktionieren.

@Skysnake: Die neuen designrules werden ja wohl kaum einen Nachteil bilden. ;) Den dummen und den schlauen Menschen trennt eine Eigenschaft: Der Dumme macht immer wieder die gleichen Fehler. NVIDIAs Jungs sind definitiv nicht dumm. :D

Zettabit
2016-04-12, 09:13:23
2) Was wäre deine Erklärung dafür, dass man absichtlich HBM2 in der Leistung begrenzt? Ich kann mir maximal vorstellen, dass der IMC bzw. bei höherem Speed evtl. doch stärkere SerDes oder wie auch immer eingesetzt werden müssten und das hätte den 300W-Rahmen gesprengt, denn warum sollte man es sonst tun bei GP100?Die Begründung siehe Punkt 3.

3) Das ist ein HPC-Chip, der eigentlich nie genug Bandbreite haben kann. Man begrenzt nur, weil es technisch irgendwelche Gründe dagegen gab.
Auch ein HPC-Chip hat natürlich ein Limit, ab dem eine höhere Bandbreite keine zusätzliche Rechenleistung mehr bringt. Da kann es durchaus sein, dass man HBM2 etwas einbremst und dafür hinten raus mehr Rechenleistung hat, weil die Shader höher takten können.

Wenn beides ungefähr ausgewogen ist, also Shadertakt und Speicherbandbreite, dann würde ein Ausfahren des HBM2-Taktes nur dazu führen, dass man den Shadertakt reduzieren muss - und damit die Rechenleistung.

An den genannten Specs von GP100 kann man IMHO nicht erkennen, dass NVIDIA ein Fertigungsproblem hätte und deshalb den Takt stark runterschrauben muss. Im Gegenteil.

Skysnake
2016-04-12, 09:15:34
Das hat NICHTS aber auch rein gar NICHTS mit klug oder dumm zu tun.....

Man muss "nur" das richtige auf die "richtige" Weise simulieren mit den "richtigen" Libs und den "richtigen"....

Wie du siehst sind da ziemlich viele "richtige" dabei. Nur ein mal an irgend einer Stelle was falsches, und du kannst wenns dumm läuft alles wegwerfen.

Wie gesagt, ich hatte selbst schon die Erfahrung gemacht, das in nem PDKs ein harter Fehler drin war, und wenn ich harter sage, dann mein ich auch wirklich hart. Der hätte ubemerkt wahrscheinlich zu verdammt viel Wafer-Müll geführt....

Zudem muss man bei Firmen wie nVidia, AMD usw immer aufpassen. Die halten sich nicht immer strickt an die Design rules. Zumal es heutzutage eben auch verdammt!!! viele Kann-/Recommended Designrules gibt.

Da gibt es apriori kein "richtig" oder "falsch" mehr.

Godmode
2016-04-12, 09:19:11
Wann gab es das letzte mal einen wirklichen Patzer bei NV, also sowas wie NV30 oder Fermi? Die einzige Indiz für Probleme bei GP100 wäre die nicht vorgeführte Demo auf einem Livesystem.

Wo die einen zu optimistisch sind, sind die anderen zu pessimistisch. Die selbe Diskussion gibt es gefühlt bei jeder Generation (Alles ist kaputt und wir werden alle sterben). Ich kann mich noch an GK110 erinnern, was da im Vorfeld alles für Hiobsbotschaften durchs Netz gingen, und ebenso durch dieses Forum. NV hat IMHO schon lange gelernt, wie sie ein extrem komplexes Chipprojekt auf die Straße bringen. Und auch wenn der Yield jetzt noch sehr schlecht ist, wenn sie pro GPU über 5000+$ verlangen können, dann wird das schon verschmerzbar sein.

Hübie
2016-04-12, 09:27:08
Das hat NICHTS aber auch rein gar NICHTS mit klug oder dumm zu tun.....

Man muss "nur" das richtige auf die "richtige" Weise simulieren mit den "richtigen" Libs und den "richtigen"....

Wie du siehst sind da ziemlich viele "richtige" dabei. Nur ein mal an irgend einer Stelle was falsches, und du kannst wenns dumm läuft alles wegwerfen.

Wie gesagt, ich hatte selbst schon die Erfahrung gemacht, das in nem PDKs ein harter Fehler drin war, und wenn ich harter sage, dann mein ich auch wirklich hart. Der hätte ubemerkt wahrscheinlich zu verdammt viel Wafer-Müll geführt....

Zudem muss man bei Firmen wie nVidia, AMD usw immer aufpassen. Die halten sich nicht immer strickt an die Design rules. Zumal es heutzutage eben auch verdammt!!! viele Kann-/Recommended Designrules gibt.

Da gibt es apriori kein "richtig" oder "falsch" mehr.

Das sollte im übertragenen Sinne verstanden werden. ;) Wer an so etwas arbeitet kann ja schon mal nicht dumm sein. Also immer locker durch die Hose atmen.
@Godmode: Afair kommen diese Botschaften immer von den selben Personen. Und die kaufen tendenziell eher rote Socken. :freak:

Zettabit
2016-04-12, 09:27:12
Die einzige Indiz für Probleme bei GP100 wäre die nicht vorgeführte Demo auf einem Livesystem.
Jetzt mal ganz im Ernst gefragt:

Welche "Demo" will man bitte schön auf einem HPC-Chip zeigen? Was soll man da sehen können? Ein Konsolenfenster, wo ein paar Zahlenwerte durchscrollen, wie schnell da jetzt Berechnung X abläuft?

@Godmode: Afair kommen diese Botschaften immer von den selben Personen. Und die kaufen tendenziell eher rote Socken. :freak:
Und verlinken auf das extrem neutrale SA-Forum.

Ailuros
2016-04-12, 09:29:04
Da habe ich sehr _starke_ Zweifel. Du hattest doch auch wie ich bereits ein paar Gründe im Vorfeld genannt.

1) NVs Projektionen sprachen von deutlich mehr bis man sich immer weiter nach unten korrigiert hatte (wir wissen nicht, ob man ursprünglich mit mehr SPs bzw. Durchsatz geplant hatte, weil der Chip nur im Simulationsstadium war).

Sie haben lediglich das maximal moegliche mit 1TB fuer Pascal angegeben. Ich hab mich ja stets gewundert wieso die Relation 1TB/Pascal und 1.2TB/Volta zu absurd klingt.

2) Was wäre deine Erklärung dafür, dass man absichtlich HBM2 in der Leistung begrenzt? Ich kann mir maximal vorstellen, dass der IMC bzw. bei höherem Speed evtl. doch stärkere SerDes oder wie auch immer eingesetzt werden müssten und das hätte den 300W-Rahmen gesprengt, denn warum sollte man es sonst tun bei GP100?Die Begründung siehe Punkt 3.

Hast Du irgend eine Indizie dass sie je wirklich 1TB fuer P100 am Anfang planten?

3) Das ist ein HPC-Chip, der eigentlich nie genug Bandbreite haben kann. Man begrenzt nur, weil es technisch irgendwelche Gründe dagegen gab.

HPC chips haben bis jetzt ALLE weniger Bandbreite gehabt als ihre desktop Brueder egal ob es nie "gut genug" sein kann; GP100 koennte eine neue Aera bedeuten falls er nur fuer HPC bestimmt sein sollte; selbst das wissen wir noch nicht.

Tatsache ist dass P100 momentan ca. 3.0 Mal so viel DP FLOPs liefert als K40 mit nur einer Steigerung der Bandbreite von 2.5x, aber auch dass K80 mit 2.9TFLOPs auf Papier auch "nur" eine Bandbreite von 480GB/s (2*240) bei genau der gleichen 300W TDP, so pick your poison. Ich weiss dass es absurd ist, aber marketing hat stets ihre eigene beschissene Perspektive und bei theoretischer 1TB Bandbreite fuer 16GB Speicher haetten sie auch noch eine hoehere TDP gehabt. Wieso dann so eine extravagante Frequenz? Weil mehr TFLOPs stets besser klingen vielleicht?

Ich gehe auch nicht davon aus, dass das Ding so kaputt ist wie GF100, aber das muss es heute auch gar nicht mehr.

Der MC war k.o. bei Fermi; GF110 bekam ein schnelles Pflaster damit es zumindest richtig funktioniert und die Speicherfrequenzen sind erst sehenswert mit Maxwell gestiegen.

Bei den ganzen <=28nm Prozessen ist es gar nicht mehr so einfach zu sagen, wann ein Chip wirklich "kaputt" ist und wann nicht. Wenn man zu geringe Yield, aus welchen Grndne auch immer bekommt, dann ist der Chip an sich auch "kaputt" meiner Meinung nach. Man hätte ja auch anders designen können, so dass die Yields besser wären.

Muss der Grund sein warum sie beim P100 mit so ekelhaft hohen Frequenzen angekommen sind. Wobei sie die Packdichte im Vergleich zum GM200 um 86% erhoeht haben und die basis-Frequenz um ueber 30%. Gut der P100 hat eine 300W TDP, wobei GM200 einen "max graphics power" Wert von 250W hat. Der letzte chip ist 601mm2 auf einem ueberreifen 28HP/TSMC Prozess und der erste bei 610mm2 16FF+/TSMC. Bei schlechteren binning yields geht man auch nicht auf extravagante Frequenzen.

Nein ich gehe von keinen hohen Yields aus. Das ist aber genau der Punkt. Wenn mann nicht wirtschaftlich produzieren kann, dann ist es egal, ob es funktionierende Chips gibt. Es gibt halt zu selten welche davon. Und wie gesagt, da mache ich jetzt keine Unterscheidung zwischen er ist "richtig" kaputt und "er bringt zu niedrige Yields"

Mit richtig kaputt kann man nichts anfangen; bei niedrigen yields schaltet man entweder Einheiten ab oder geht mit der Frequenz runter.

An sich muss der Controller und alles aber die volle Bandbreite schaffen können, Das ist ein viel zu hoher Validierungsaufwand etc. um das zweimal zu designen meiner Meinung nach.

Und bezüglich Design-Ziel. Man nimmer sich öfters mehr vor, als man am Ende zwingend braucht. ;)

Oder ein 325W TDP (frei erfundene Zahl) bei 1TB Bandbreite haette marketing-technisch um einiges beschissener ausgesehen.

Genau davor habe ich "Angst". nenn es von mir aus German Angst, aber ich habe da einfach ein verdammt ungutes Gefühl dabei. Was man so im Hintergrund hört, bekommt man HMC ja einfach nicht gebacken. Also nicht überhaupt, aber zu den nötigen Yields.

Es gibt schon sehr lange Wolken auf dem blauen Himmel. Es ist ja auch nicht das erste Mal dass ich darueber ulke; wie dem auch sei wuerde NV einen Semi wie Intel unterschaetzen wuerden sie auch nicht so krampfhaft sein mit dem P100 release und dessen Spezifikationen.

Godmode
2016-04-12, 09:34:03
Jetzt mal ganz im Ernst gefragt:

Welche "Demo" will man bitte schön auf einem HPC-Chip zeigen? Was soll man da sehen können? Ein Konsolenfenster, wo ein paar Zahlenwerte durchscrollen, wie schnell da jetzt Berechnung X abläuft?


Ja natürlich, weil die Konferenz war ja an Entwickler gerichtet und die meisten Entwickler können wohl mit einem Konsolenfenster was anfangen. Wenn man zb. Ein Vergleichssystem mit GK210 gegen GP100 antreten lassen hätte, wäre das eine durchaus beeindruckende Demonstration gewesen.

scully1234
2016-04-12, 09:37:42
Wenn man zb. Ein Vergleichssystem mit GK210 gegen GP100 antreten lassen hätte, wäre das eine durchaus beeindruckende Demonstration gewesen.

Hat man denn selbiges bei Kepler damals veranstaltet?

Ich glaub da waren es anfaenglich auch nur nackte Diagramme ,und keine Produktivsysteme

Die Investoren ,wird man da sicherlich hinter der Buehne schon versorgt haben , mit allem moeglichen unter NDA Klauseln

Zettabit
2016-04-12, 09:43:11
Wenn man zb. Ein Vergleichssystem mit GK210 gegen GP100 antreten lassen hätte, wäre das eine durchaus beeindruckende Demonstration gewesen.
Sehe ich - Sorry - keinen großen Unterschied zwischen zwei Konsolenfenstern mit zwei Zahlen oder einem PowerPoint-Chart mit zwei Zahlen.

Mit Grafik macht es ja Sinn. Schicke Demo, richtig gute Grafik, dazu noch ne hohe FPS-Zahl (oder Grafik am Limit und "Echtzeit") - das macht sich auf ner Präsentation richtig gut.

Aber bei HPC?

Sunrise
2016-04-12, 10:15:57
@Ailuros
Weil alle Fakten auf den Roadmaps von NV dagegen sprechen, dass das Design-Ziel wirklich 720 GB/s bei Modulen, die auch noch weit höher spezifiziert sind, war. Ein solches HPC-Monster, welches nur dort verkauft wird, braucht Bandbreite, und davon massig, so viel als möglich. Das ist kein Consumerprodukt, das Ding (der Speicher) sollte maximal ausgefahren werden, falls NV das hätte tun können.

Yield (HBM2), Marketing (Spielraum für Volta), Power-Limitierung...

Zettabit
2016-04-12, 10:31:07
Weil alle Fakten auf den Roadmaps von NV dagegen sprechen, dass das Design-Ziel wirklich 720 GB/s bei Modulen, die auch noch weit höher spezifiziert sind, war.
Verlink doch bitte mal die entsprechende Roadmap, auf die du dich beziehst. Habe mich da mal gerade durch die Google-Bildersuche geklickt und kann nichts finden, was deine Behauptung untermauert.

Ein solches HPC-Monster, welches nur dort verkauft wird, braucht Bandbreite, und davon massig, so viel als möglich.
Woher weißt du, ob die Bandbreite bei GP100 limitiert? :confused:

Sunrise
2016-04-12, 10:33:32
Verlink doch bitte mal die entsprechende Roadmap, auf die du dich beziehst. Habe mich da mal gerade durch die Google-Bildersuche geklickt und kann nichts finden, was deine Behauptung untermauert.


Woher weißt du, ob die Bandbreite bei GP100 limitiert? :confused:
Such dir das bitte per Google selbst, ist schon etwas her. Es ging um das offizielle Design-Ziel von NV. Das behauptet Ailuros, nicht ich...

Ob das limitiert wissen wir nicht, wir kennen derzeit nur technische Daten.

Falls das schon immer 720GB/s war, hab ich natürlich eine falsche Erinnerung, aber es war vor 1-2 Jahren noch anders, und das ist der Zeitraum, in welchem der Chip noch keinen Tape-Out hatte. Und das ist relevant für das Design-Ziel. Nachträgliche Korrekturen deuten Fehler/Probleme oder wie auch immer an.

Zettabit
2016-04-12, 10:35:48
Such dir das bitte per Google selbst, ist schon etwas her. Es ging um das offizielle Design-Ziel von NV. Das behauptet Ailuros, nicht ich...
Hier ein Google+ Posting von NVIDIA vom 6.4.2015:
https://plus.google.com/+NVIDIA/posts/HjJnmZJ7arQ

Pascal liegt mit um Faktor 3 höherer Bandbreite bei exakt 750GB/s.

Denke damit können wir die von dir behaupteten 1TB ad acta legen, oder?

Ob das limitiert wissen wir nicht, wir kennen derzeit nur technische Daten.
Warum behauptest du es dann?

Sunrise
2016-04-12, 10:39:02
@Zettabit:
Das war nicht von 2015, sondern vorher. GP100 hatte 2015 seinen Tape-Out.

Wenn man HBM2 mit 1TB/s verbauen sollte, dann fährt man die auch aus bei diesem Chip. Es sei denn man kann es nicht.

Egal, ich liege dann eben falsch, liegt wie gesagt schon ein gutes Stück zurück.

Dural
2016-04-12, 10:44:27
NV hat nie gesagt das GP100 1TB/s haben wird.
Die Angaben von 1TB/s ist offensichtlich einfach der max Standard der mit HBM2 möglich ist.

Ich habe übrigens schon letztes Jahr gesagt das wir die 1TB/s ziemlich sicher beim ersten Produkt nicht sehen werden.
HBM benötigt richtig viel Strom, und da kann es sinnvoll sein lieber etwas mehr GPU Takt als Speicher Takt zu geben. Es ist wie immer eine Abwägung und man muss einen Kompromiss finden.

Gut möglich das wir erst mit Volta die 1TB/s sehen werden.

Zettabit
2016-04-12, 10:45:07
Das war nicht von 2015, sondern vorher. GP100 hatte 2015 seinen Tape-Out.
Dann belege es doch endlich, statt hier dumm rumzuschwafeln. Herrje.

Das Google+ Posting war Monate vor dem GP100 Tape-Out.

Wie Ail schon so richtig sagte: Design-Ziel und dieses erreicht.

Ende.

Wenn man HBM2 mit 1TB/s verbauen sollte, dann fährt man die auch aus bei diesem Chip. Es sei denn man kann es nicht.
Kurz gesagt: Unfug. Bei begrenzender TDP ist das Balancing zwischen den verschiedenen Teilen der Grafikkarte der entscheidende Knackpunkt, um eine hohe Effizienz und damit Leistung zu erzielen.

Egal, ich liege dann eben falsch, liegt wie gesagt schon ein gutes Stück zurück.
Dann zeig endlich, worauf du dich beziehst, oder hör auf irgendwelchen Unfug zu posten. So schwer kann das doch nicht sein?!

iuno
2016-04-12, 10:51:00
Das ganze ist etwas verwirrend, weil Pascal wieder so eine eingeschobene Generation ist. Vorher dachte man noch, Volta kaeme direkt nach Maxwell. Und fuer Volta wurde (als erste! Generation mit stacked RAM - aus heutiger Sicht nicht zu verwechseln mit Pascal) natuerlich tatsaechlich 1 TB/s angegeben, das war noch 2013. http://www.heise.de/newsticker/meldung/GTC-2013-Nvidia-kuendigt-Next-Gen-GPU-Volta-mit-Stacked-DRAM-an-1826130.html

2014 wurde dann Pascal genannt, angeblich wieder mit 1 TB/s :confused: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/30356-gtc-2014-nvidia-praesentiert-nvlink-3d-memory-und-neue-pascal-gpu.html (interessant: damals wusste man noch nix von HBM und hat ein 1024-2048 Bit breites SI sowie zwischen 1 und 2 GHz angenommen). Es wurde aber auch absehbar, dass es keine HMCs werden: http://www.heise.de/newsticker/meldung/Uebernaechste-Nvidia-GPU-Generation-Pascal-mit-schnellem-Interconnect-2154878.html

2015 dann Klarheit mit ~750 GB/s: http://www.heise.de/newsticker/meldung/Nvidia-High-End-Grafikkarte-GeForce-GTX-Titan-X-fuer-1000-Dollar-2577791.html

Jeweils GTC, also einfach zu finden ;)

Ailuros
2016-04-12, 10:55:06
@Ailuros
Weil alle Fakten auf den Roadmaps von NV dagegen sprechen, dass das Design-Ziel wirklich 720 GB/s bei Modulen, die auch noch weit höher spezifiziert sind, war. Ein solches HPC-Monster, welches nur dort verkauft wird, braucht Bandbreite, und davon massig, so viel als möglich. Das ist kein Consumerprodukt, das Ding (der Speicher) sollte maximal ausgefahren werden, falls NV das hätte tun können.

Yield (HBM2), Marketing (Spielraum für Volta), Power-Limitierung...

Nun mehr als 720GB/s fuer den gegebenen Zeitpunkt war einfach nicht moeglich, schon gar nicht mit dem TDP. Wenn sie das Ding durch ein paar metal spins quetschen und der Stromverbrauch etwas kontrollierbarer werden sollte, koennen sie stets noch einen Schuss Bandbreite dazufuegen. Die erste Kepler Tesla kam mit einer Bandbreite von 206GB/s wenn ich mich jetzt nicht irre und GK110B dann mit 288GB/s.

Die Gegenfrage waere: angenommen sie kommen in =/>6 Monaten mit einem leicht "geschminkten" chip auf =/>6 TFLOPs DP, mit was bedient man dann diesen genau wenn man keinen Luftraum fuer mehr Bandbreite laesst?

Skysnake
2016-04-12, 10:55:25
Sehe ich - Sorry - keinen großen Unterschied zwischen zwei Konsolenfenstern mit zwei Zahlen oder einem PowerPoint-Chart mit zwei Zahlen.

Mit Grafik macht es ja Sinn. Schicke Demo, richtig gute Grafik, dazu noch ne hohe FPS-Zahl (oder Grafik am Limit und "Echtzeit") - das macht sich auf ner Präsentation richtig gut.

Aber bei HPC?
Ja genau da, gerade bei den Amis. Die stehen auf blinki blinki. Geh mal auf ne SC, das ist teils schon fast peinlich, auf was die Amis anspringen....



Woher weißt du, ob die Bandbreite bei GP100 limitiert? :confused:
Du hast immer zu wenig Bandbreite, wenn du weniger als 16 Byte/FLOP hast. Dann brauchste naemlich Datenlocalitaet, caches usw usf.

Sunrise
2016-04-12, 10:55:31
@iuno:
Korrekt, genau dieses Durcheinander meinte ich. Danke für die Recherche.

@Zettabit:
Einfach mal einen Gang runterschalten, ist schlecht fürs Herz.

Zettabit
2016-04-12, 10:57:24
2014 wurde dann Pascal genannt, angeblich wieder mit 1 TB/s :confused: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/30356-gtc-2014-nvidia-praesentiert-nvlink-3d-memory-und-neue-pascal-gpu.html
Nein, nicht 1 TB/s. Man beachte Bild6 mit dem GP100-Renderer:

"3D Memory 2 to 4X memory bw and size"

Also zwischen 2- und 4-facher Bandbreite. Also zwischen 500GB/s und 1TB/s.

Du hast immer zu wenig Bandbreite, wenn du weniger als 16 Byte/FLOP hast. Dann brauchste naemlich Datenlocalitaet, caches usw usf.
Hatte ich oben schon in Hinblick auf die TDP erklärt. Bitte dort nachlesen.

Einfach mal einen Gang runterschalten, ist schlecht fürs Herz.
Mache ich, sobald du aufhörst Unfug zu posten. Auch iuno belegt, dass NVIDIA anders als von dir behauptet nie von 1TB/s gesprochen hat.

Undertaker
2016-04-12, 11:00:30
Du hast immer zu wenig Bandbreite, wenn du weniger als 16 Byte/FLOP hast. Dann brauchste naemlich Datenlocalitaet, caches usw usf.

Genau dafür hast du doch Caches, alles andere wäre auch energetisch wenig effizient. ;) Die Frage ist doch: Wäre ein GP100 mit beispielsweise 20% mehr Bandbreite und 15% weniger Rechenleistung besser balanciert? Offensichtlich nein. Das mehr immer besser ist steht außer Frage, aber hier geht es um einen bewussten Trade-off in einem energetisch limitierten Spielraum.

Skysnake
2016-04-12, 11:06:05
Nun mehr als 720GB/s fuer den gegebenen Zeitpunkt war einfach nicht moeglich, schon gar nicht mit dem TDP. Wenn sie das Ding durch ein paar metal spins quetschen und der Stromverbrauch etwas kontrollierbarer werden sollte, koennen sie stets noch einen Schuss Bandbreite dazufuegen. Die erste Kepler Tesla kam mit einer Bandbreite von 206GB/s wenn ich mich jetzt nicht irre und GK110B dann mit 288GB/s.

Die Gegenfrage waere: angenommen sie kommen in =/>6 Monaten mit einem leicht "geschminkten" chip auf =/>6 TFLOPs DP, mit was bedient man dann diesen genau wenn man keinen Luftraum fuer mehr Bandbreite laesst?
Das ist aber eben auch so ein Punkt.

Zu hoher Stromverbrauch, ausserhalb der Projektion/Spec ist quasi auch ein "kaputter" chip.

Skysnake
2016-04-12, 11:09:49
Genau dafür hast du doch Caches, alles andere wäre auch energetisch wenig effizient. ;) Die Frage ist doch: Wäre ein GP100 mit beispielsweise 20% mehr Bandbreite und 15% weniger Rechenleistung besser balanciert? Offensichtlich nein. Das mehr immer besser ist steht außer Frage, aber hier geht es um einen bewussten Trade-off in einem energetisch limitierten Spielraum.
Bei gleichem Preis werden die Computing Center eher zu der Version mit mehr Bandbreite greifen.

Es gibt an sich nur einen Grund die Version mit weniger Bandbreite zu kaufen.
Und zwar wenn du weißt, dass du genau die 1-x Programme darauf laufen lässt, und die alle die Bandbreite nicht brauchen, und sonst rein gar nichts darauf laufen lässt, was irgendwelche Relevanz hat.

Und so eine Situation ist äußerst selten. Man kann an sich nie wirklich zu viel Bandbreite haben. Du bist nämlich so gut wie nie wirklich rein Compute limitiert.

Frag dich doch mal, warum selbst heute noch Vektorrechner gern gesehen sind, und insbesondere aus dem Ingi-Bereich die Leute die Dinger lieben.

iuno
2016-04-12, 11:10:37
Nein, nicht 1 TB/s. Man beachte Bild6 mit dem GP100-Renderer:

"3D Memory 2 to 4X memory bw and size"

Also zwischen 2- und 4-facher Bandbreite. Also zwischen 500GB/s und 1TB/s
Ich bezog mich auf den Fliesstext, laut dem Artikel hat Nvidia damals erneut 1 TB/s genannt.
http://www.anandtech.com/show/7894/nvidia-gtc-2014-keynote-live-blog
288 GiB/s waren damals aktuell (GK110) und wurden auch in der Praesentation als Grundlage verwendet. "Genau" sind es also zw. 576 und 1152 GB/s, was immer noch bis deutlich ueber 1 TB/s geht. Aber alleine dass man damals noch einen Faktor 2 Spielraum gelassen hat, spricht ja wohl Baende.

Die erhoffte 2.5-Fache Speichermenge bzw. speziell der fuer P100 genannte Faktor 2-4x hat ja ganz offensichtlich auch nicht hingehauen.

Man hat sich damals in der Konzeptionierungsphase ordentlich verkalkuliert, das kannst du nicht wegdiskutieren. Ob das Einfluss auf die Balance hat oder man GP100 mit der Fertigung sowieso nicht "besser" hinbekommen haette ist aber ein ganz anderes Thema.
Und ich denke, das reicht dazu jetzt auch...

Ailuros
2016-04-12, 11:12:17
Das ist aber eben auch so ein Punkt.

Zu hoher Stromverbrauch, ausserhalb der Projektion/Spec ist quasi auch ein "kaputter" chip.

Unter der Logik waren alle Teslas schon seit G80 eigentlich kaputt. Aber fuer Dich im Zusammenhang zu NVIDIA wirklich nichts Neues :weg:

Ich mach Dir das Leben leichter fuer moegliche Konspirations-Thesen: liegen alle 16GB auf dem schnellen Pfad?....... :biggrin::freak:

Zettabit
2016-04-12, 11:21:05
Ich bezog mich auf den Fliesstext, laut dem Artikel hat Nvidia damals erneut 1 TB/s genannt.
http://www.anandtech.com/show/7894/nvidia-gtc-2014-keynote-live-blog
Da hat wohl der Schreiberling nur geschrieben, was ihm gerade in den Kram passte.

Aus deinem Liveblog:
Memory will be 2-4x prior GPUs on memory bandwidth and size

Also genau wie auf den Folien.

288 GiB/s waren damals aktuell (GK110) und wurden auch in der Praesentation als Grundlage verwendet. "Genau" sind es also zw. 576 und 1152 GB/s, was immer noch bis deutlich ueber 1 TB/s geht. Aber alleine dass man damals noch einen Faktor 2 Spielraum gelassen hat, spricht ja wohl Baende.
Ja, irgendwie logisch, oder? Wie willst du es über 2 Jahre genauer machen? Glaskugel?

Die erhoffte 2.5-Fache Speichermenge bzw. speziell der fuer P100 genannte Faktor 2-4x hat ja ganz offensichtlich auch nicht hingehauen.
Was war denn die Basis? Bei 4 GB passt es doch mit 16 heute.

2Man hat sich damals in der Konzeptionierungsphase ordentlich verkalkuliert, das kannst du nicht wegdiskutieren. Ob das Einfluss auf die Balance hat oder man GP100 mit der Fertigung sowieso nicht "besser" hinbekommen haette ist aber ein ganz anderes Thema.
Und ich denke, das reicht dazu jetzt auch...
Sorry, aber was für ein Quatsch. Man hat einen Bereich angegeben und liegt genau in der Mitte dieses Bereich. "Ordentlich verkalkuliert"? Bei einer Projektion von mehr als zwei Jahren? Mit einer exakten Angabe der Spec ein Jahr später, Monate vor dem TapeOut?

Es wäre echt mal nett, wenn ihr mal bei den Fakten bleiben würdet, statt jetzt solche Märchen aufzutischen. Es ist schon beeindruckend genug, dass NVIDIA überhaupt im H2 schon erste Chips >600mm² in 16nm FinFet ausliefert. Da muss man jetzt nicht irgendwelche Märchen sich ausdenken, nur um das schlecht zu reden. Das nervt einfach nur.

Sunrise
2016-04-12, 11:35:09
Da hat wohl der Schreiberling nur geschrieben, was ihm gerade in den Kram passte.
Ist das die Erklärung, die dir am besten in den Kram passt? Nein, 1TB/s waren irgendwann ganz sicher im Gespräch. iuno hat es geschrieben, wenn man genauer sucht, findet man auch mehr.

Ja, irgendwie logisch, oder? Wie willst du es über 2 Jahre genauer machen? Glaskugel?
Ein Chip wie GP100, der lediglich ein "abgespeckter" umbenannter Volta ist, war deutlich länger als 2 Jahre in Entwicklung.

Du hast überhaupt keine realistische Vorstellung von der Zeit der Planung über Simulation, erstes Silizium, der Tape-Out, finales Silizium. Volta gab es schon eine gefühlte Ewigkeit auf Folien, wurde aber bis zur letztendlichen Tape-Out-Phase immer weiter zurechtgestutzt und abgespeckt.

Das sind weit mehr als 2 Jahre gewesen, weit mehr.

Lass es einfach, wir diskutieren hier nicht darum, wer Recht hat, es geht hier um NV. Eine ganz sachliche Diskussion.

iuno
2016-04-12, 11:38:24
Es wäre echt mal nett, wenn ihr mal bei den Fakten bleiben würdet, statt jetzt solche Märchen aufzutischen. Es ist schon beeindruckend genug, dass NVIDIA überhaupt im H2 schon erste Chips >600mm² in 16nm FinFet ausliefert. Da muss man jetzt nicht irgendwelche Märchen sich ausdenken, nur um das schlecht zu reden. Das nervt einfach nur.
Danke, du nervst auch ordentlich. Wir diskutieren hier uebrigens nur die Fakten und betreiben nicht nur Lobhudelei so wie du das ganz gerne hier (und anderswo) schon wieder machst.

Ganz sicher wurden 4 GiB als Basis genommen, wenn man schon alles andere mit GK110 vergleicht, den es damals als Tesla mit 12 GiB gab :rolleyes:

Darin, dass man sich mit der Projektion in die Zukunft vor Jahren ordentlich vertan hat, stimmst du mir ja ganz offensichtlich zu und nichts anderes habe ich gesagt. Trotzdem ist es dir offenbar eine Herzensangelegenheit, den ganzen Post wieder zu zerpfluecken und vermeintlich auseinanderzunehmen :rolleyes: laaaaaangweilig...

Thunder99
2016-04-12, 11:43:38
jetzt kommt aus dem Chiphell Forum auch die These von GDDR5 und GDDR5X bei "1070" und "1080". Haben sie das von hier aufgeschnappt? :upara: :freak:

Zettabit
2016-04-12, 11:47:35
Ist das die Erklärung, die dir am besten in den Kram passt? Nein, 1TB/s waren irgendwann ganz sicher im Gespräch. iuno hat es geschrieben, wenn man genauer sucht, findet man auch mehr.
Dann belege das bitte.

Alles was wir haben ist:
- Ungefähre Angabe, 2014, ca. 500 - 1000 GB/s
- Genau Angabe, 2015, exakt 750GB/s

Wenn du meinst, es war Anders, dann belege es bitte. Bisher hat dir alles widersprochen, was hier ausgegraben wurde, gerade was iuno gefunden hat.

Das sind weit mehr als 2 Jahre gewesen, weit mehr.
Logisch. Du darfst auch gern deine 1TB/s Aussage von 2013 belegen. Damit habe ich kein Problem.

Lass es einfach, wir diskutieren hier nicht darum, wer Recht hat, es geht hier um NV. Eine ganz sachliche Diskussion.
Es hat NICHTS mit einer sachlichen Diskussion zu tun, irgendeine Behauptung wie du in den Raum zu werfen und dann KEINEN EINZIGEN BELEG zu liefern und ALLES ANDERE zu ignorieren, was dir widerspricht. Das ist Kindergarten.

Danke, du nervst auch ordentlich. Wir diskutieren hier uebrigens nur die Fakten und betreiben nicht nur Lobhudelei so wie du das ganz gerne hier (und anderswo) schon wieder machst.
Was hat das mit Lobhudelei zu tun?

Ganz sicher wurden 4 GiB als Basis genommen, wenn man schon alles andere mit GK110 vergleicht, den es damals als Tesla mit 12 GiB gab :rolleyes:
Nur eine Möglichkeit. Aber schon lustig: NVIDIA ist jetzt auch schon Schuld an ausbleibender Steigerung der Speichergröße. Woran denn noch so? Welthunger?

Darin, dass man sich mit der Projektion in die Zukunft vor Jahren ordentlich vertan hat, stimmst du mir ja ganz offensichtlich zu und nichts anderes habe ich gesagt.
Was die Speicherbandbreite angeht: Nein, im Gegenteil. Dead On.

Trotzdem ist es dir offenbar eine Herzensangelegenheit, den ganzen Post wieder zu zerpfluecken und vermeintlich auseinanderzunehmen :rolleyes: laaaaaangweilig...
Warum? Stört es dich, dass dann deine Logiklücken offenbart werden? Und dass ich mir einen Link von dir auch tatsächlich durchlese und dann feststelle, dass da gar nichts von 1TB/s drin steht, sogar im Gegenteil, obwohl von dir so behauptet?

BlacKi
2016-04-12, 11:51:16
Man müsste einfach nur doppelt soviel Speicherbausteine mit halber Kapazität verbauen. Mehrkosten durch den Speicher? Nur bei der Verdrahtung (mehr PCB Layer, vielleicht minimal größeres PCB)
Das größere PHY muss, wie ich bereits sagte, nicht viel größer ausfallen und auch nicht viel teurer sein, siehe Hawaii wo das kleine PHY hier alle überrascht hat.
Zudem spart man Geld weil man langsamere Speicherchips verwenden kann und nicht auf teurere 8gbps Chips angewiesen ist.

halbe kapazität bedeutet nicht halb so teuer. in dem punkt scheinen unsere meinungen komplett ausseinander zu gehen, und da man keine preislisten hat werden wir nie die wahrheit herausfinden.

Troyan
2016-04-12, 11:53:32
Darin, dass man sich mit der Projektion in die Zukunft vor Jahren ordentlich vertan hat, [...]

3x mehr Bandbreite mit ECC liegt doch voll in der Projektion von 2-4x mehr Bandbreite...

scully1234
2016-04-12, 11:55:26
: liegen alle 16GB auf dem schnellen Pfad?....... :biggrin::freak:


Ist es wert darueber zu sinnieren ''Die Teufel die ich rief...'':anonym:

Sunrise
2016-04-12, 11:55:42
jetzt kommt aus dem Chiphell Forum auch die These von GDDR5 und GDDR5X bei "1070" und "1080". Haben sie das von hier aufgeschnappt? :upara: :freak:
Möglich, kursiert aber auch gut durchs Netz. Ich empfinde das aktuell als das Wahrscheinlichste.

Auch durch die Ähnlichkeit des IMCs und der Preise beider Karten, ist das denkbar. Solange 1070 mit 256bit Interface kommt, ist alles ok, die 1080 hat mehr Spielraum im Preis und wird aller Vorraussicht nach wohl auch schneller als ein P10.

Skysnake
2016-04-12, 12:26:19
Unter der Logik waren alle Teslas schon seit G80 eigentlich kaputt. Aber fuer Dich im Zusammenhang zu NVIDIA wirklich nichts Neues :weg:

Naja, gibt ja auch durchaus Gründe spektisch zu sein. Weder bei Kepler und schon gar nicht bei Fermi hat man das gehalten, was man einem mal an Honig um den Mund geschmiert hat.

Genau so bei der Tegra-Sparte, oder den großen GPUs mit paar ARM-Cores dabei.

Ich würde mich freuen, wenn wir kein KNL reloaded sehen bei nVidia, aber aktuell sieht es schon eher danach aus, als nicht.

Oder bist du absolut sicher, dass das nicht auf KNL reloaded hinausläuft? Und ja, das ist eine ernstgemeinte Frage.


Ich mach Dir das Leben leichter fuer moegliche Konspirations-Thesen: liegen alle 16GB auf dem schnellen Pfad?....... :biggrin::freak:
Das Witzige daran ist ja, das ich nVida bei dem Punkt ja sogar lange in Schutz genommen hatte, weil ich mir nicht vorstellen konnte, dass die so was abziehen... :freak:

iuno
2016-04-12, 12:36:13
Was hat das mit Lobhudelei zu tun?
Der von mir \itierte Teil? Einfach alles! ;D :lol:

Nur eine Möglichkeit. Aber schon lustig: NVIDIA ist jetzt auch schon Schuld an ausbleibender Steigerung der Speichergröße. Woran denn noch so? Welthunger?
Ich gebe ihnen an gar nichts Schuld, auch wenn du das Gefuehl hast und deswegen butthurt bist. Ich sage nur, dass die Projektionen von damals falsch waren. Schon interessant, was man so alles so aus dem Nichts interpretieren kann.

Warum? Stört es dich, dass dann deine Logiklücken offenbart werden? Und dass ich mir einen Link von dir auch tatsächlich durchlese und dann feststelle, dass da gar nichts von 1TB/s drin steht, sogar im Gegenteil, obwohl von dir so behauptet?
Nein, wenn das denn der Fall waere, wurde mich das kein bisschen stoeren, es ist aber wie ich schon sagte nur vermeintlich so. Das Wort ist dir aber offenbar kein Begriff. Das mit dem Lesen solltest du im Uebrigen wohl nochmal ueben.
Um die von NVIDIA erwähnten 1 TB/s zu erreichen, wäre es denkbar, dass 3D -emory mit einem 2.000 MHz DRAM bei einem 1.024 Bit breiten Speicherinterface anbindet. Möglich wären aber auch 1.000 MHz bei 2.048 Bit und die verschiedensten Konfigurationen dazwischen.


jetzt kommt aus dem Chiphell Forum auch die These von GDDR5 und GDDR5X bei "1070" und "1080". Haben sie das von hier aufgeschnappt? :upara: :freak:
Nein, darueber wird ja schon lange diskutiert. Dazu gab es z.B. auch bei sweclockers eine News.

Zettabit
2016-04-12, 13:22:25
Der von mir \itierte Teil? Einfach alles! ;D :lol:
Ist doch keine Lobhudelei. Wer hätte im H2/16 einen 600mm² Chip erwartet? Du? Wann? Wen, dann gern den Link.

Ich gebe ihnen an gar nichts Schuld, auch wenn du das Gefuehl hast und deswegen butthurt bist. Ich sage nur, dass die Projektionen von damals falsch waren. Schon interessant, was man so alles so aus dem Nichts interpretieren kann.
Naja, sind sie ja offensichtlich nicht. NVIDIA gab eine Steigerung um den Faktor 2-4 an, später um den Faktor 3 und haben geschafft - Faktor 3. Also nicht falsch, sondern, im Gegenteil, völlig richtig.

Nein, wenn das denn der Fall waere, wurde mich das kein bisschen stoeren, es ist aber wie ich schon sagte nur vermeintlich so. Das Wort ist dir aber offenbar kein Begriff. Das mit dem Lesen solltest du im Uebrigen wohl nochmal ueben.
Wie gesagt: Das eigene Bild von Hardwareluxx bestätigt, dass der Quatsch schreibt. Dass NVIDIA irgendwo was von 1TB/s erzählt hat, dafür haben wir bisher exakt NULL Indizien. Das Einzige, was du bisher geliefert hast, war die Bestätigung, dass NVIDIA mit ihren Projektionen Dead On lagen. Ich wette, da unterschlägt jemand die kleinen Worte "up to" vor den 1TB/s.

BlacKi
2016-04-12, 13:22:37
jetzt kommt aus dem Chiphell Forum auch die These von GDDR5 und GDDR5X bei "1070" und "1080".
dann gibts wenigstens keine beschnittene speicheranbindung. was wäre wenn die 970 so schnell wäre wie die 980ti und für 350€ mit 8gb in den markt geht? wohl ein realistisches szenario oder, und ganz ohne SI beschneidung^^

Leonidas
2016-04-12, 13:52:19
jetzt kommt aus dem Chiphell Forum auch die These von GDDR5 und GDDR5X bei "1070" und "1080". Haben sie das von hier aufgeschnappt? :upara: :freak:


Nicht unmöglich. Aber es sind auch noch andere Angaben dabei. Sieht fast danach aus, als hätte ein Platinen-Zulieferer o.ä. diese Daten gehabt.

Dural
2016-04-12, 13:58:31
eigentlich eine logische entscheidung.

NV kann so die 1080 deutlich besser vermarkten, und die 1070 wird künstlich durch die bandbreite eingeschränkt.

Zettabit
2016-04-12, 14:28:40
und die 1070 wird künstlich durch die bandbreite eingeschränkt.
Und auch noch deutlich günstiger in der Herstellung.

Godmode
2016-04-12, 14:30:39
eigentlich eine logische entscheidung.

NV kann so die 1080 deutlich besser vermarkten, und die 1070 wird künstlich durch die bandbreite eingeschränkt.

Alle die preiswert kaufen wollen, werden sicher etwas angepisst sein, dass es dann erst mit der 1080 GDDR5X gibt. Zumindest kann man spannende Tests erwarten, wie sich beiden Karten in verschiedenen Settings schlagen werden. Andererseits könnte eine 1070 wieder eine gute P/L Karte werden.

Dural
2016-04-12, 14:41:40
immer noch besser so, als sie es mit der 970 gemacht haben ;)

Skysnake
2016-04-12, 14:59:28
Hier gibt es btw. noch ein Bild mit Power8+ (9), nVLink und P100.
http://www.hpcwire.com/2016/04/06/openpower-play-ibm-google-make-hyperscale-waves-summit/

Das links müssten zwei P100 sein, denn zwischen den silbernen Kühlern sieht man die Mezzanine Stecker für die GP100 .

Das würde hier bedeuten 2xPower + 4xP100 in einem Server + massig Speicher halt.

iuno
2016-04-12, 15:19:38
Ja, man sieht ja auch den Rand des P100 Moduls unter dem Kuehlkoerper.
Das System hat zwei Power8, nicht 9. Wo sind die Unterschiede zw. 8/8+/9? Das Dokument
http://openpowerfoundation.org/wp-content/uploads/2016/04/HardwareRevealFlyerFinal.pdf
listet noch das aehnliche "Redpower P210" mit 2 openPOWER8+
Nettes Detail: das System heisst "Polaris Pro" ;p

Alle die preiswert kaufen wollen, werden sicher etwas angepisst sein, dass es dann erst mit der 1080 GDDR5X gibt.
Und aus welchem Grund? Ist doch egal. Im imho "schlimmsten" Fall verbraucht die 70 dadurch halt bei weniger Leistung gleich viel Strom wie die 80. Ich meine worueber reden wir hier? 7-8 Gbps vs 10 Gbps mit jeweils 256 Bit? Da ist die Differenz in der Bandbreite ja nicht viel groesser wie bei der 970 vs 980. Und dann ist ja wohl immer noch um Welten besser als das 970er Debakel und das hat die Masse auch nicht gestoert. Komplett verhungern lassen werden die den kleinen sicher nicht

scully1234
2016-04-12, 15:22:37
Alle die preiswert kaufen wollen, werden sicher etwas angepisst sein, dass es dann erst mit der 1080 GDDR5X gibt. .

Für mich klingt das irgendwie quer einfach nicht richtig.

Ich mein zwei GP104 Chips die sich im Leistungsspektrum wohl nur um Nuancen unterscheiden, soll der eine mit GDDR5 und der andere mit GDDR5X auflaufen???

Ich koennte mir da noch vorstellen, das die Schweden da einfach was missverstanden haben, von ihrer Quelle.

Einen dritten involvierten Chip ,mit deutlich mehr Leistung, und dieser Speicherbestueckung,und GTX1070,1080 wie gabt mit GDDR5, wuerde mir da logischer erscheinen

Sunrise
2016-04-12, 15:24:15
Hier gibt es btw. noch ein Bild mit Power8+ (9), nVLink und P100.
http://www.hpcwire.com/2016/04/06/openpower-play-ibm-google-make-hyperscale-waves-summit/

Das links müssten zwei P100 sein, denn zwischen den silbernen Kühlern sieht man die Mezzanine Stecker für die GP100 .

Das würde hier bedeuten 2xPower + 4xP100 in einem Server + massig Speicher halt.
"Polaris Plus w/ NVLink" :D

Thunder99
2016-04-12, 15:33:46
Für mich klingt das irgendwie quer einfach nicht richtig.

Ich mein zwei GP104 Chips die sich im Leistungsspektrum wohl nur um Nuancen unterscheiden, soll der eine mit GDDR5 und der andere mit GDDR5X auflaufen???

Ich koennte mir da noch vorstellen, das die Schweden da einfach was missverstanden haben, von ihrer Quelle.

Einen dritten involvierten Chip ,mit deutlich mehr Leistung, und dieser Speicherbestueckung,und GTX1070,1080 wie gabt mit GDDR5, wuerde mir da logischer erscheinen
Sozusagen die Ti mit deutlich höheren Taktraten und dann GDDR5 X? Möglich, da ja nvidia durch Powerlimit die 70er und 80er einbremsen kann und dann der Chip an Bandbreite verhungert wenn man manuell den Chiptakt deutlich erhöht

y33H@
2016-04-12, 16:00:31
Videocardz behauptet mit Verweis auf PC Tuning Czech, es wurden bereits Einladungen zum Editor's Day verschickt, in der angeblichen Quelle (Obermaier alias OBR) steht davon aber nichts :ulol:

Michalito
2016-04-12, 16:07:07
Videocardz behauptet mit Verweis auf PC Tuning Czech, es wurden bereits Einladungen zum Editor's Day verschickt,

Ja, stimmt das denn? Oder mußt du schweigen? :biggrin:

Troyan
2016-04-12, 16:12:50
Videocardz behauptet mit Verweis auf PC Tuning Czech, es wurden bereits Einladungen zum Editor's Day verschickt, in der angeblichen Quelle (Obermaier alias OBR) steht davon aber nichts :ulol:

Naja, Google meint es schon: https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F40353-pascal-gp100-pujde-i-do-hernich-grafik-nejen-do-tesel&edit-text=

BlacKi
2016-04-12, 16:13:44
Sozusagen die Ti mit deutlich höheren Taktraten und dann GDDR5 X? Möglich, da ja nvidia durch Powerlimit die 70er und 80er einbremsen kann und dann der Chip an Bandbreite verhungert wenn man manuell den Chiptakt deutlich erhöht
wieviel mehr gpu takt soll denn dann die karte mit gddr5x haben? angenommen es wären 20% mehr takt, dann ist das noch lange kein grund das die karte nichtmehr zulegen würde(verhungert). ich glaube eher das es 3 verschiedene modelle gibt mit ein und demselben gp104 mit unterschiedlicher abstufung von deaktivierten shadercluster wie bei 660ti-670-680 damals. die "680" käme halt zusätzlich mit gddr5x. also die 1080ti kommt mit gddrx5 und 256bit SI. so könnte man alle 3 karten zeitnah bringen, und die titanXX 2017+Titan SE;D.

AffenJack
2016-04-12, 16:20:20
Zur GDDR5X Verfügbarkeit aus dem B3D geklaut:
In the Graphic segment, we’re enthusiastic about the early success of our GDDR5X a discrete solution for increasing data rates above 10-gigabits per second. We’ve several major design wins and expect to have the products available by the end of the current fiscal quarter.
http://seekingalpha.com/article/3958520-micron-technologys-mu-ceo-mark-durcan-q2-2016-results-earnings-call-transcript?part=single

Ich verstehe darunter eine Verfügbarkeit von Design Wins schon im Juni. Dementsprechend GTX1080 oder Ti mit GDDR5X. Unter Umständen könnte man auch die Verfügbarkeit=Auslieferung von GDDR5X im Juni spekulieren, dann ists 1-2 Monate mehr bis zu Karten, aber ich verstehe das als fertige Designs im Juni.

Wie das mit den Massenfertigungsaussagen zusammenpasst? Man muss sehen, von was für Mengen Dram Fertiger als Massenfertigung reden. Bei den Mengen die die produzieren ist bei 1Mio Rams/Monat vielleicht erst so die Massenfertigung erreicht. Eine Karte im Preisbereich der GTX1080 braucht aber nur einen Bruchteil, weil sie sich viel weniger verkauft. Erst für eine 1070 und darunter braucht man wirklich große Mengen und es dauert auch seine Zeit die Massenfertigung hochzufahren. Diese Chips können auch schon verkauft werden.

y33H@
2016-04-12, 16:21:18
Naja, Google meint es schon: https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F40353-pascal-gp100-pujde-i-do-hernich-grafik-nejen-do-tesel&edit-text=The heck, das war da vorhin nicht verlinkt :mad:

Godmode
2016-04-12, 16:21:25
Und aus welchem Grund? Ist doch egal. Im imho "schlimmsten" Fall verbraucht die 70 dadurch halt bei weniger Leistung gleich viel Strom wie die 80. Ich meine worueber reden wir hier? 7-8 Gbps vs 10 Gbps mit jeweils 256 Bit? Da ist die Differenz in der Bandbreite ja nicht viel groesser wie bei der 970 vs 980. Und dann ist ja wohl immer noch um Welten besser als das 970er Debakel und das hat die Masse auch nicht gestoert. Komplett verhungern lassen werden die den kleinen sicher nicht

Aus welchem Grund? Weil die Leute einfach gerne jammern. Es soll ja euch Leute geben, die generell nichts abgespecktes wollen. :freak:

Für mich klingt das irgendwie quer einfach nicht richtig.

Ich mein zwei GP104 Chips die sich im Leistungsspektrum wohl nur um Nuancen unterscheiden, soll der eine mit GDDR5 und der andere mit GDDR5X auflaufen???

Ich koennte mir da noch vorstellen, das die Schweden da einfach was missverstanden haben, von ihrer Quelle.

Einen dritten involvierten Chip ,mit deutlich mehr Leistung, und dieser Speicherbestueckung,und GTX1070,1080 wie gabt mit GDDR5, wuerde mir da logischer erscheinen

Sie könnten damit wieder eine sehr günstige 1070 verkaufen und eine deutlich teurere (+200€?) 1080, mit dem Argument, GDDR5X ist halt noch teuer.

Ich denke wir werden noch bald genug erfahren, welcher Speicher nun bei welcher Karte Verwendung findet.

BlacKi
2016-04-12, 16:25:37
Sie könnten damit wieder eine sehr günstige 1070 verkaufen und eine deutlich teurere (+200€?) 1080, mit dem Argument, GDDR5X ist halt noch teuer.
ist also bisher das argument das die 970 deshalb so günstig ist das die 980 kein beschnittenes speicherinterface hat? derzeit kostet die 980 immernoch knappe 180€ mehr also brauchen sie meiner meinung nach kein argument so groß klaffende preisunterschiede zu rechtfertigen.

Godmode
2016-04-12, 16:28:29
ist also bisher das argument das die 970 deshalb so günstig ist das die 980 kein beschnittenes speicherinterface hat? derzeit kostet die 980 immernoch knappe 180€ mehr also brauchen sie meiner meinung nach kein argument so groß klaffende preisunterschiede zu rechtfertigen.

Man stellt ein Produkt B her, dass deutlich teurer als Produkt A ist, obwohl B nur ein paar Prozent besser ist. Dadurch wirkt das billigere Produkt A gleich richtig günstig.

BlacKi
2016-04-12, 16:37:11
Man stellt ein Produkt B her, dass deutlich teurer als Produkt A ist, obwohl B nur ein paar Prozent besser ist. Dadurch wirkt das billigere Produkt A gleich richtig günstig.
du meinst, sie machen die gddr5x karte extra teuer, damit die gddr5 karten weggehen wie warme semmel? wenn man amd da rauslässt oder die sogar mitspielen könnte das funktionieren.

Complicated
2016-04-12, 16:42:56
Wird NVLink eigentlich Teil des OpenPower Ökosystems oder bleibt das "Profit-IP"? Laut OpenPower Webseite sind Interface-Spezifikationen Teil des offenen Ökosystems.

Korvaun
2016-04-12, 16:45:43
Laut Computerbase-Gerüchten soll es 3 Karten mit GP104 geben:

http://www.computerbase.de/2016-04/nvidia-pascal-nachfolger-fuer-gtx-970-gtx-980-und-gtx-980-ti-im-juni/

iuno
2016-04-12, 16:49:48
Aus welchem Grund? Weil die Leute einfach gerne jammern. Es soll ja euch Leute geben, die generell nichts abgespecktes wollen. :freak:
Mein Gott, dann kauft man auch kein Abfallprodukt. Verstehe nicht, was das soll :eek: Die x70 ist was fuer vermeintliche Sparer...


Ich verstehe darunter eine Verfügbarkeit von Design Wins schon im Juni. Dementsprechend GTX1080 oder Ti mit GDDR5X. Unter Umständen könnte man auch die Verfügbarkeit=Auslieferung von GDDR5X im Juni spekulieren, dann ists 1-2 Monate mehr bis zu Karten, aber ich verstehe das als fertige Designs im Juni.
Das lese ich genau so, fertige Karten mit GDDR5X sollte es demnach ende Juni geben :eek: 10 Gbps halt

Mir erscheint das ganze plausibel, haette das aber erst mit >10 Gbps erwartet.
970/980 direkt mit GDDR5 und dann direkt eine Ti mit 5X mit. 970/980 dann voellig auf Effizienz getrimmt und die Ti auf Leistung. Nvidia hat ja auch kein Interesse daran, dass sich Chips so hart uebertakten lassen wie aktuell mit Maxwell der Fall ist. Wenn die 970 nicht letztendlich ein Krueppel gewesen waere, haette es fast keine Daseinsberechtigung fuer die 980 gegeben, aehnlich wie bei AMD, wo die Chips deutlich weniger beschnitten werden. Wenn die Bandbreite limitiert ist, wird dem auch gleich ein Riegel vorgeschoben, eine Karte annaehernd aufs naechsthoehere Leistungsniveau hieven zu koennen. Weiterhin sollte man damit ausserordentlich viel Luft auf Polaris 10 haben und wenn das Zeug sich wirklich so gut takten laesst, eilt auch ein GP102 Release nicht

y33H@
2016-04-12, 16:52:08
GP104 ist so oder so Midrange rein auf die Die-Size innerhalb der Generation bezogen.

BlacKi
2016-04-12, 16:53:01
wenn die 1070 wieder dasselbe boardlayout der 670/970 haben wird könnte ich schwach werden, denn dann habe ich 3 generationen auf dem selben wakü block genutzt :)

Thunder99
2016-04-12, 16:53:45
du meinst, sie machen die gddr5x karte extra teuer, damit die gddr5 karten weggehen wie warme semmel? wenn man amd da rauslässt oder die sogar mitspielen könnte das funktionieren.
Könnte man nvidia zutrauen. Aber wenn AMD kontern kann mit Polaris/Vega wird es eher AMD in die Karte spielen. Wenn nicht kommt nvidia damit durch

Ansonsten 599€/$+ MSP oder so könnte ich mir vorstellen bei dem DopDog aka 1080 bis GP102 erscheint

mczak
2016-04-12, 16:58:09
Also dass die 2gbps bei HBM2 mit GP100 nicht gehen liegt ja vielleicht auch nicht unbedingt nur an nvidia. Als da die ersten "HBM2"-Spezifikationen auftauchten habe ich schon starke Zweifel geäussert was die Verfügbarkeit gleich am Anfang sowohl von Chips mit der doppelten Frequenz (gegenüber "HBM1") als auch der 8-Hi Variante betraf. Die 8-Hi Variante gibt's jedenfalls definitiv noch nicht, und es würde mich auch nicht überraschen wenn die 2gbps Variante auch gar niemand effektiv liefern könnte.

maximus_hertus
2016-04-12, 17:02:24
Könnte man nvidia zutrauen. Aber wenn AMD kontern kann mit Polaris/Vega wird es eher AMD in die Karte spielen. Wenn nicht kommt nvidia damit durch

Ansonsten 599€/$+ MSP oder so könnte ich mir vorstellen bei dem DopDog aka 1080 bis GP102 erscheint

Warum sollte man die schnellste Single GPU für 599 regelrecht verschenken? Gehe mal von 649, besser noch von 699 aus. Gerade wenn wirklich eine 980 Ti mit GDDR5X kommt, wird sie mindestens so viel kosten wie die 980 Ti. Es gibt ja auch keinen Grund, die Karten günstiger anzubieten. Konkurrenz gibt es ja nicht.

Hübie
2016-04-12, 17:03:16
Hat niemand behauptet das X oder Y schuld habe. Spielt keine Rolle. Ich und sunrise vermuten eine technische Limitierung. Ob das prozess- oder designbedingt ist sei erst mal nebensächlich. Warum Zettabit gleich so herum zettat weiß hier wohl niemand außer er selber. Vielleicht hat er Dünnpfiff bekommen als jemand 1TB/s aus einen der slides nannte. Wer weiß.

Thunder99
2016-04-12, 17:09:15
Warum sollte man die schnellste Single GPU für 599 regelrecht verschenken? Gehe mal von 649, besser noch von 699 aus. Gerade wenn wirklich eine 980 Ti mit GDDR5X kommt, wird sie mindestens so viel kosten wie die 980 Ti. Es gibt ja auch keinen Grund, die Karten günstiger anzubieten. Konkurrenz gibt es ja nicht.
Unterschätze AMD nicht :wink: Aber bis zu 699 halte ich auch wahrscheinlich

iuno
2016-04-12, 17:17:25
du meinst, sie machen die gddr5x karte extra teuer, damit die gddr5 karten weggehen wie warme semmel? wenn man amd da rauslässt oder die sogar mitspielen könnte das funktionieren.
Unterschätze AMD nicht :wink: Aber bis zu 699 halte ich auch wahrscheinlich

AMD wird da nicht viel machen koennen. Polaris 10 spielt nicht mal auf dem Niveau der 1070, vermute ich, ausser die 1070 ist derart auf Effizienz getrimmt, dass sie nur GM204-Niveau erreicht. Ansonsten ist P10 imho eher Konkurrenz fuer GP106.

Ausser AMD bekommt es in etwa genauso hin wie Nvidia, die Vermutung hatte ich im entsprechenden Thread auch schon mal geaeussert. P10 optional als "XTX" mit GDDR5X und Taktraten von denen man aktuell bei AMD nur traeumen kann.
ich dachte, ich haette da im Quellcode zum Treiber was gesehen, das auf 5X hindeuten koennte, weiss aber gerade nicht mehr wo genau. Muesste heute Abend nochmal nachsehen
Fuer mich ist aber V10 Konkurrenz fuer GP104 und das dauert noch

Skysnake
2016-04-12, 17:28:35
Ja, man sieht ja auch den Rand des P100 Moduls unter dem Kuehlkoerper.
Das System hat zwei Power8, nicht 9. Wo sind die Unterschiede zw. 8/8+/9? Das Dokument
http://openpowerfoundation.org/wp-content/uploads/2016/04/HardwareRevealFlyerFinal.pdf
listet noch das aehnliche "Redpower P210" mit 2 openPOWER8+
Nettes Detail: das System heisst "Polaris Pro" ;p


Ich meinte, dass das kein Power8, sondern mindestens ein Power8+ unter dem Kühler sein muss, oder eben ein Power9, weil eben Power8 noch gar kein nVLink hat lauf IBM.

Ich kann schon bis zwei zählen.... :P

Complicated
2016-04-12, 17:38:54
Also entweder nimmt es IBM selber nicht so genau mit der Unterscheidung Power8 und Power8+ oder sie haben es doch noch in Power8 integriert:
https://www.ibm.com/blogs/systems/ibm-power8-cpu-and-nvidia-pascal-gpu-speed-ahead-with-nvlink/
https://www.ibm.com/blogs/systems/wp-content/uploads/2016/04/sumitgraphic1-768x476.jpg
IBM intends to announce a next- generation Power Linux server optimized for high performance computing (HPC) and high performance data analytics (HPDA) that uses the NVIDIA NVLink high-speed interface to connect POWER8 CPUs with NVIDIA Tesla P100 GPU accelerators based on the Pascal architecture.

Complicated
2016-04-12, 17:56:52
Dann belege das bitte.

Alles was wir haben ist:
- Ungefähre Angabe, 2014, ca. 500 - 1000 GB/s
- Genau Angabe, 2015, exakt 750GB/s

Wenn du meinst, es war Anders, dann belege es bitte. Bisher hat dir alles widersprochen, was hier ausgegraben wurde, gerade was iuno gefunden hat.


Logisch. Du darfst auch gern deine 1TB/s Aussage von 2013 belegen. Damit habe ich kein Problem.

Ich schätze mal es resultiert aus dieser Folie, die aus 2014 stammt: http://www.techenablement.com/inside-the-ibm-nvidia-volta-plus-nvlink-2017-delivery-for-325m-doe-procurements/

http://www.techenablement.com/wp-content/uploads/2014/11/Slide8-1024x576.png

Wie man unschwer erkennen kann wohl noch aus der Zeit als Volta als erste GPU mit stacked RAM geplant war. Dies galt zu der Zeit allerdings für HMC und nicht für HBM.

Jetzt kann man natürlich argumentieren, Nvidia hätte ihr Designziel nicht erreicht, doch das ist dann eher auf Volta anzuwenden als auf Pascal. Doch dass Volta beim Speicher einen grundlegendem Cut in einer späten Designphase unterlegen ist, war ja schon bekannt.

Da Pascal nun noch zwischen Maxwell und Volta geschoben wurde in der Roadmap, kann man nicht sagen Pascal müsse das selbe Designziel erfüllen. Der Chip muss nicht mit 1 TB/s kommen nur weil ein verschobenes Design dies angekündigt hat.

iuno
2016-04-12, 18:00:11
Ich meinte, dass das kein Power8, sondern mindestens ein Power8+ unter dem Kühler sein muss, oder eben ein Power9, weil eben Power8 noch gar kein nVLink hat lauf IBM.

Ich kann schon bis zwei zählen.... :P

Das wusste ich nicht, daher ja die Frage...

ShinyMcShine
2016-04-12, 18:10:08
Laut Computerbase-Gerüchten soll es 3 Karten mit GP104 geben:

http://www.computerbase.de/2016-04/nvidia-pascal-nachfolger-fuer-gtx-970-gtx-980-und-gtx-980-ti-im-juni/

Eine x80 Ti Grafikkarte auf Basis einer x04-GPU? Bin mal gespannt ob das stimmt und was dann die potentiellen Käufer dazu sagen, wenn man dort bisher die Enthusiasten-GPU bekommen hat und jetzt "nur" die Highend-GPU. :cool:

scully1234
2016-04-12, 18:15:00
Laut Computerbase-Gerüchten soll es 3 Karten mit GP104 geben:

http://www.computerbase.de/2016-04/nvidia-pascal-nachfolger-fuer-gtx-970-gtx-980-und-gtx-980-ti-im-juni/

3 Chips wir kommen der Sache naeher (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11000520&postcount=3682)

Jetzt nur noch ein Indiz das der oberste kein GP104 ist,sondern ein kampfwertgeminderter GP100, und als einziger GDDR5X beherbergt (Titan/Quadro)

Der letzte Zahlencode laesst auf irgend einer Ebene, auch eine Verdopplung vermuten (200 vs 400)

dildo4u
2016-04-12, 18:27:53
Eine x80 Ti Grafikkarte auf Basis einer x04-GPU? Bin mal gespannt ob das stimmt und was dann die potentiellen Käufer dazu sagen, wenn man dort bisher die Enthusiasten-GPU bekommen hat und jetzt "nur" die Highend-GPU. :cool:
Ich lese die Tabelle eher so das eine Karte mit der Leistung der 980Ti kommt nich das sie als Ti bezeichnet wird.Ich tippe auf 550€,450€ und 350€.
Die langsamen Karten verkaufen sich Automatisch wegen der 8GB Vram,die müssen nicht unbedingt schneller als die 980 sein.

MiamiNice
2016-04-12, 18:28:24
Mich beschleicht auch eher ein Gefühl nach 1070 ,1080 und Titan.

Ailuros
2016-04-12, 18:29:18
3 Chips wir kommen der Sache naeher (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11000520&postcount=3682)

Jetzt nur noch ein Indiz das der oberste kein GP104 ist,sondern ein kampfwertgeminderter GP100, und als einziger GDDR5X beherbergt (Titan/Quadro)

Der letzte Zahlencode laesst auf irgend einer Ebene, auch eine Verdopplung vermuten (200 vs 400)

Nur erwaehnt Hardware Battle in der Tabelle keinen GP100; es scheint tatsaechlich 3 SKUs vom GP104 zu geben. Wobei es mir eher danach klingt als ob der GP104-150 als GTX970 Ersatz eher nur GDDR5 haben koennte.

Leonidas
2016-04-12, 18:34:20
So denke ich es auch:

GP104-150 ... GTX 1070 ... GDDR5
GP104-200 ... GTX 1075 ... GDDR5X
GP104-400 ... GTX 1080 ... GDDR5X

150 & 200 werden womöglich dieselbe Anzahl SM haben, aber eben die Differenz beim Speicher.

Das "Nachfolger von 980 Ti" sehe ich nicht zwingend als Namenswahl "GTX 1080 Ti" an, das ist nur die Beschreibung der Leistungsklasse. Aber dennoch wäre auch GTX 1070, 1080 & 1080 Ti nicht unmöglich - eventuelle Titan-Salvages könnte man auch als "GTX 1090" in den Markt schicken.





ein kampfwertgeminderter GP100, und als einziger GDDR5X beherbergt (Titan/Quadro)


GP100 mit zwei Speicherinterfaces, wovon gerade GDDR5 einiges an Platz frisst? Eher unwahrscheinlich.

MorPheuZ
2016-04-12, 18:38:37
Das würde ja fast hindeuten dass gp104 bis und mit Enthusiast herhalten müsste. Ist sich da nv derart sicher dass amd nicht liefern wird? Dann könnte man noch GP100/2 als Pascal 2.0 nachschieben???

scully1234
2016-04-12, 18:39:04
GP100 mit zwei Speicherinterfaces, wovon gerade GDDR5 einiges an Platz frisst? Eher unwahrscheinlich.

Mit kampfwertgemindert meinte ich kein natives GP100 Design, eher in die Richtung die Ailuros tendiert


Mir schwebt da aber immer noch der GP102 vor, weil der Chefdesigner ,was von hoechst modular geredet hatte ,gegenueber CT

3 Fertigungsstrassen fuer 3 Einsatzszenarios ,waere aber schon ein Paukenschlag

Ailuros
2016-04-12, 18:43:19
http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/40353-pascal-gp100-pujde-i-do-hernich-grafik-nejen-do-tesel

Gerade bei B3D gelesen; die maschinelle Uebersetzung ist zwar beschissen, aber mir faellt es auch so schwer den Inhalt zu glauben.

dildo4u
2016-04-12, 18:43:49
Das würde ja fast hindeuten dass gp104 bis und mit Enthusiast herhalten müsste. Ist sich da nv derart sicher dass amd nicht liefern wird? Dann könnte man noch GP100/2 als Pascal 2.0 nachschieben???
AMD liefert was im Bereich der 390X,bei der Polaris 10 Demo wurde gesagt sie schafft Hitman@1440p/60fps.

http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/#diagramm-hitman-mit-directx-12-2560-1440

Der große Sprung kommt erst 2017 mit HBM2.

http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/GPU-Roadmap-Vega-Navi-HBM2-1189271/

Sunrise
2016-04-12, 18:46:24
Das würde ja fast hindeuten dass gp104 bis und mit Enthusiast herhalten müsste. Ist sich da nv derart sicher dass amd nicht liefern wird? Dann könnte man noch GP100/2 als Pascal 2.0 nachschieben???
NV weiß alles was wir und das Netz wissen und mehr. Auch deren Person(en), die für das Timing der Launches entscheiden sind unglaublich gut bei NV. Die schieben das jetzt sogar vor AMD, weil sie wissen, dass Polaris die größte GP104 nicht schlagen können wird. Somit verliert NV theoretisch keine Marktanteile an AMD und sie können auch wieder die Preise diktieren.

AMD ist leider immer in der Position, hinterherlaufen zu müssen. Wenn NV tatsächlich schon so früh Karten verkaufen kann bin selbst ich extrem überrascht. Das wäre ein Uhrwerk das so nicht zu schlagen wäre.

Das einzige Mittel wäre für AMD dann wieder nur der Preis, wie schon seit einiger Zeit.

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/40353-pascal-gp100-pujde-i-do-hernich-grafik-nejen-do-tesel

Gerade bei B3D gelesen; die maschinelle Uebersetzung ist zwar beschissen, aber mir faellt es auch so schwer den Inhalt zu glauben.
Klingt nicht realistisch, da steht auch eine Menge, die ergibt garkeinen Sinn.

@Speku:
Wenn das mit GP104 jetzt stimmt, dann ist GP102 der Gegner für Vega und NV verdient schonmal ordentlich mit dem wichtigeren Chip, GP102 kommt nach.

Ailuros
2016-04-12, 18:51:39
Einer der Variante soll irgendwo zwischen 2500-3200 SPs haben, eine gleiche TDP mit einer 980, 8GB 8Gbps GDDR5, eine Frequenz von ueber 1400MHz und um ca. 30% mehr Leistung als die erhaeltlichen 980-er. Wenn natuerlich drinstehen wuerde dass die +30% nur fuer irgendeinen synthetischen 3dfurz stehen dann koennte ich es vielleicht sogar glauben :rolleyes:

Craftsman
2016-04-12, 18:52:04
bin ich eigentlich der einzige, der erwartet dass die Gtx 970 nur ein Gp 106 wird? Einfach wegen dem Preisgefüge des ganzen lineup.

Ailuros
2016-04-12, 19:00:42
bin ich eigentlich der einzige, der erwartet dass die Gtx 970 nur ein Gp 106 wird? Einfach wegen dem Preisgefüge des ganzen lineup.

Tja dafuer koennte das lineup mal rein hypothetisch so aussehen:

GP104 - 400
4 GPCs, 8GB 10Gbps GDDR5x

GP104-200
3 GPCs, 8GB 8Gbps GDDR5

GP104-150
2 GPCs, 8GB 8Gbps GDDR5

Kann natuerlich alles BS sein, aber bei der Aufteilung hat man schon einen so stark kastrierten GP104 dass man schon eher von einem 106 reden sollte. Das gute daran waere dass diesmal die Luecke nicht so gross sein koennte zwischen der kleinsten 104 und groessten 106 SKU.

robbitop
2016-04-12, 19:09:20
Für mich klingt das irgendwie quer einfach nicht richtig.

Ich mein zwei GP104 Chips die sich im Leistungsspektrum wohl nur um Nuancen unterscheiden, soll der eine mit GDDR5 und der andere mit GDDR5X auflaufen???

Ich koennte mir da noch vorstellen, das die Schweden da einfach was missverstanden haben, von ihrer Quelle.

Einen dritten involvierten Chip ,mit deutlich mehr Leistung, und dieser Speicherbestueckung,und GTX1070,1080 wie gabt mit GDDR5, wuerde mir da logischer erscheinen
Sowas gab es bei AMD schonmal. Radeon 4850 mit GDDR3 und 4870 mit GDDR5. Erstere war vor allem durch die Bandbreite limitiert. Die letztere nicht mehr. Ähnliches ist in zwei GP104 Konfigurationen möglich. Warum nicht? Wer sagt, dass nicht mal eben 20-25 % zwischen der kleinen und großen Karte liegen sollen?

Mit 3000 Units und guten 20 % höheren Taktraten als GM200 sollten +30 % nicht unrealistisch sein. Der Durchsatz pro ALU soll ja auch nicht unwesentlich gestiegen sein. GK104 all over again...

Leonidas
2016-04-12, 19:21:00
Nichts spricht gegen 3 Varianten. Wenn die kleinste eines Tages zu nahe an GP106 liegt, kann man sie auch einstellen. Aber angesichts des großen Abstands zwischen 960 und 970 lohnt doch auch bei Maxwell eine dritte Variante - auch wenn NV sie nie gebracht hat.

Ailuros
2016-04-12, 19:31:39
Nichts spricht gegen 3 Varianten. Wenn die kleinste eines Tages zu nahe an GP106 liegt, kann man sie auch einstellen. Aber angesichts des großen Abstands zwischen 960 und 970 lohnt doch auch bei Maxwell eine dritte Variante - auch wenn NV sie nie gebracht hat.

Es wird wohl wichtiger fuer NV selber sein dass sie so auch die Herstellungs-kosten besser verteilen koennen.

Gipsel
2016-04-12, 20:40:02
Das wird on-the-fly umgeschaltet. Von 1.5 GHz auf 3.0 GHz. Es wird wohl nur hier und da etwas anders verdrahtet werden müssen, aber wie gesagt ist es offenbar sehr wenig.Nun, der QDR-Mode ist komplett neu (Aenderung an PHYs), der zudem den prefetch verdoppelt, was dann also auch eine doppelte Zugriffsgranularitaet ergibt (erfordert ein paar Logikaenderungen im Speichercontroller). GDDR5X ist zwar so ausgelegt, mit moeglichst aehnlich zu sein, aber etwas Aufwand erfordern die Aenderungen schon.
Weiß nicht ob du bei der JEDEC bist, aber wenn ja, dann kannst du dir ja mal o.g. Dokumente ansehen. Da verstehst du sicher mehr als ich. Ich erkenne in dem (groben) clocking diagram jedenfalls keine Unterschiede auf Seiten des Controllers.:confused:Also aus dem Gedaechtnis meine ich mich zu erinnern, dass da zwei drin sind, ein Diagramm fuer den DDR-Modus (das ist halt identisch zu GDDR5) und eins fuer den QDR-Modus (der ist ja neu).

Hübie
2016-04-12, 21:31:17
Wenn du das auf Seite 6 meinst: Das steht für sich allein. Um einen Vergleich anzustellen musste ich beide Dokumente öffnen. Ich bin erstaunt was die alles in ein Speichermodul gepackt haben. :D

Die hautpsächliche Änderung ist somit:

• QDR and DDR operating modes:
• QDR mode: Quad Data Rate (QDR) data (WCK); 16n prefetch architecture with 512 bit per array
read or write access; burst length 16
• DDR mode: Double Data Rate (DDR) data (WCK); 8n prefetch architecture with 256 bit per array
read or write access; burst length 8

fondness
2016-04-12, 22:07:30
NV weiß alles was wir und das Netz wissen und mehr. Auch deren Person(en), die für das Timing der Launches entscheiden sind unglaublich gut bei NV. Die schieben das jetzt sogar vor AMD, weil sie wissen, dass Polaris die größte GP104 nicht schlagen können wird. Somit verliert NV theoretisch keine Marktanteile an AMD und sie können auch wieder die Preise diktieren.

AMD ist leider immer in der Position, hinterherlaufen zu müssen. Wenn NV tatsächlich schon so früh Karten verkaufen kann bin selbst ich extrem überrascht. Das wäre ein Uhrwerk das so nicht zu schlagen wäre.

Das einzige Mittel wäre für AMD dann wieder nur der Preis, wie schon seit einiger Zeit.


Man muss auch nicht immer die gleiche Propaganda verbreiten. Ja NV ist mit High-End früher dran, AMD dafür mit Lowend. Sie werden einen GP104 nicht im Notebooks zu angemessenen TDP-Bereichen und auch nicht im Massenmarkt verkaufen. Wie du dir da theoretisch die Marktanteilen zusammen reimst bleibt wohl dein Geheimnis.

Hübie
2016-04-12, 22:18:47
Er schrieb aber auch "theoretisch". Muss man fairerweise erwähnen. Warten wir mal ab, was da von AMD kommt. ;)

MorPheuZ
2016-04-12, 22:47:52
Tja dafuer koennte das lineup mal rein hypothetisch so aussehen:

GP104 - 400
4 GPCs, 8GB 10Gbps GDDR5x

GP104-200
3 GPCs, 8GB 8Gbps GDDR5

GP104-150
2 GPCs, 8GB 8Gbps GDDR5



Wenn ersteres eine TI sein soll, was wir hier fast schon vermuten, ist nv nun eine GANZE Chip-Klasse im Vorsprung gegenüber AMD... Bis "SchönerMax" war es nur bis und mit" HighEnd", nun inkl. "Enthusiast" :confused:

iuno
2016-04-12, 22:51:38
Wenn das mit GP104 jetzt stimmt, dann ist GP102 der Gegner für Vega und NV verdient schonmal ordentlich mit dem wichtigeren Chip, GP102 kommt nach.
Egal ob gddr5x oder nicht, ich denke es war schon lange klar, dass p10 nicht mit gp104 konkurriert. Überraschend ist eher, das nvidia offenbar so viel früher dran ist

Thunder99
2016-04-12, 23:00:03
Vielleicht sollten wir auch nur das Denken ;)

Bei 3 Varianten sehe ich aber die 150 Modelle eher mit 4GB

BlacKi
2016-04-12, 23:13:19
Bis "SchönerMax" war es nur bis und mit" HighEnd", nun inkl. "Enthusiast" :confused:
war das mit gm204/GK104nicht auch so? die 980 zwar nicht lange, aber die 680 war lange "enthusiast" nur die insider wussten das da noch was größeres kommt. same sh*t here. davon abgesehen ist die karte mit gddr5x schon etwas ontop, sollte halt nur nicht teurer werden als die 980ti. ob die reihe nun 1070/1080/1080ti heißt, 1070/1075/1080 oder sonst wie ist dabei doch nebensächlich.

dildo4u
2016-04-12, 23:16:48
Man muss auch nicht immer die gleiche Propaganda verbreiten. Ja NV ist mit High-End früher dran, AMD dafür mit Lowend. Sie werden einen GP104 nicht im Notebooks zu angemessenen TDP-Bereichen und auch nicht im Massenmarkt verkaufen. Wie du dir da theoretisch die Marktanteilen zusammen reimst bleibt wohl dein Geheimnis.
NV verkauft Desktop 980 Chips für Notebook's warum sollte da GP104 keine Option sein?

http://www.notebookcheck.com/Test-NVIDIA-GeForce-GTX-980-Notebook.152713.0.html

BlacKi
2016-04-12, 23:20:05
NV verkauft Desktop 980 Chips für Notebook's warum sollte da GP104 keine Option sein?

http://www.notebookcheck.com/Test-NVIDIA-GeForce-GTX-980-Notebook.152713.0.html
jaber nicht direkt im ersten halbjahr.

horn 12
2016-04-12, 23:31:55
Gut möglich dass man GTX 970 bis 980TI ablöst
Titan X mit seinen 12GB soll ja die Speerspitze bleiben!

GTX 1070 auf knappen GTX 980TI Level
GTX 1080 GTX 980 TI plus 15%

Mehr wird es nicht werden, ausser jener Maximal GP 104 Chip hat echt die stolzen 3200 Shader.

dargo
2016-04-12, 23:41:58
AMD liefert was im Bereich der 390X,bei der Polaris 10 Demo wurde gesagt sie schafft Hitman@1440p/60fps.

http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/#diagramm-hitman-mit-directx-12-2560-1440

Und was soll der Link von CB jetzt genau beweisen? Das ist eine einzige Testszene mit wievielen Minuten? Wenn AMD behauptet P10 schafft Hitman @1440p mit 60fps könnten sie genauso gut v-gesyncte 60fps meinen. Um 60fps durchgehend halten zu können brauchst du mindestens 66fps. Also wären wir hier nach dem CB-Test schon bei einer Fury X bzw. leicht drüber. Viel zu viele offene Fragen. Sind v-gesyncte 60fps gemeint? Maximale Details? Werden die 60fps durchgehend gehalten?

iuno
2016-04-12, 23:44:50
Unsinn, die Titan x wurde faktisch schon durch die 980 Ti "abgelöst". Mit gp104 auf oder sogar über gm200 Niveau verliert die Karte jegliche Daseinsberechtigung

Ailuros
2016-04-13, 06:08:01
Man muss auch nicht immer die gleiche Propaganda verbreiten. Ja NV ist mit High-End früher dran, AMD dafür mit Lowend. Sie werden einen GP104 nicht im Notebooks zu angemessenen TDP-Bereichen und auch nicht im Massenmarkt verkaufen. Wie du dir da theoretisch die Marktanteilen zusammen reimst bleibt wohl dein Geheimnis.

Mit Verlaub Sunrise ist unter den wenigen Users hier die Sachen wirklich parteisch sehen. Wir koennen gerne nochmal darueber in einem Jahr von heute von Marktanteilen reden, wobei wohl eher die Chancen geringer sind dass sich andere vor ihren eigenen Aussagen verstecken werden muessen. Ein leicht besserer oder sehenswert besserer Marktanteil bewegt auch keine Kontinente.

Vielleicht sollten wir auch nur das Denken ;)

Bei 3 Varianten sehe ich aber die 150 Modelle eher mit 4GB

Waere marketing-technisch IMO fast Selbstmord.


Mehr wird es nicht werden, ausser jener Maximal GP 104 Chip hat echt die stolzen 3200 Shader.

An 50 SMs hab ich auch schon gedacht, nur passen meinem Bauchgefuehl so viele clusters (sind immerhin 200 TMUs) nicht in einen <300mm2 16FF+ chip.....

scully1234
2016-04-13, 06:23:32
jaber nicht direkt im ersten halbjahr.


Drive PX wurde doch gezeigt und diesmal mit verbauten Pascal Chips

Koennte man ja mal ueberlegen ,wo wenn nicht im PKW das MXM Modul noch zum tragen kommen koennte, wenn die Autoindustrie erst ende des Jahres Zugriff darauf bekommt

Also ja eventuell hat Nvidia sogar GP106 fuer Notebooks parat im Juni/Juli, so wie schon mehrmals spekuliert, mitunter auch von sweclockers

Palpatin
2016-04-13, 08:12:14
GP104 - 400
4 GPCs, 8GB 10Gbps GDDR5x

GP104-200
3 GPCs, 8GB 8Gbps GDDR5

GP104-150
2 GPCs, 8GB 8Gbps GDDR5

.
Das wäre auch meine Einschätzung gewesen, evtl bei der GP104-150 optional 4GB und nur 7Gbps GDDR5.
GP104 -150 performance target 980 + DX12 Verbesserungen Preis wie bei 970
GP104 -200 performance target 980ti + DX12 Verb. Preis wie bei 980
GP104 -400 performance target 980ti + 20-30% Preis wie bei 980ti

Wenn man bedenkt das Maxwell sehr viel OC Spielraum hat sollten die Performance Targets für klein Pascal realistisch sein. Evtl halt dann mit weniger OC Potential.

Damit würde man sofort das aktuelle LinUp gut ersetzen. In einem knappen Jahr kann man dann GP100 Varianten nachschieben. Evtl früher falls von AMD vorher was großes kommt.

Undertaker
2016-04-13, 08:20:12
Also ja eventuell hat Nvidia sogar GP106 fuer Notebooks parat im Juni/Juli, so wie schon mehrmals spekuliert, mitunter auch von sweclockers

Wichtig für den Massenmarkt wären eher GP107/108. Das man davon bislang nichts gehört hat bedeutet erst einmal nichts, weder im positiven noch im negativen Sinne.

Juni/Juli ist dafür aber zu früh, sowohl was Nvidias als auch was AMDs Notebooklösungen angeht. Skylake ist schon zu lange draußen, da werden nicht noch einmal sämtliche Modelle neu aufgelegt. Entscheidend wird, wer bei Kaby Lake die großen Deals landet.

scully1234
2016-04-13, 09:02:12
Juni/Juli ist dafür aber zu früh, sowohl was Nvidias als auch was AMDs Notebooklösungen angeht. .


The MacBook Pro in particular is due for an update, and rumors have suggested new models could arrive at WWDC in June, but it is unclear whether Apple would be able to feature the upcoming GPUs within that timeframe (http://www.macrumors.com/2016/04/07/new-graphics-amd-nvidia/)

Wer koennte da wohl die neuen GPU Modelle stellen im Juni

ShinyMcShine
2016-04-13, 09:07:32
Das wäre auch meine Einschätzung gewesen, evtl bei der GP104-150 optional 4GB und nur 7Gbps GDDR5.
GP104 -150 performance target 980 + DX12 Verbesserungen Preis wie bei 970
GP104 -200 performance target 980ti + DX12 Verb. Preis wie bei 980
GP104 -400 performance target 980ti + 20-30% Preis wie bei 980ti


Ein voller (!) GP104-400 mit dieser Leistung zu dem Preis wäre (auch im Hinblick auf VR dieses Jahr) wohl fast sicher gekauft. Wenn es dann noch ein feines Kärtchen von ASUS (Strix) oder MSI (Gaming) gibt, wäre mir das ~680€ wert.

scully1234
2016-04-13, 09:22:01
AMD. ;)


Waerst du mal so freundlich ,diesen Einzeiler mit Quellen zu belegen, wenn du schon den Einwurf bringst?

Ich mein bei Nvidia, ist ja wenigstens schon mal ein GP106 bestuecktes MXM Modul aufgetaucht ,was Rueckschluesse dahin zuließe.

Zudem erwaehnten auch schon einige serioese Seiten (https://translate.google.de/translate?sl=auto&tl=de&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21820-nvidia-geforce-pascal-for-barbara-datorer-slapps-i-mitten-av-juni&edit-text=), das wir im Juni fuer den Notebooksektor was erwarten koennten.

Godmode
2016-04-13, 12:38:15
Die OT Diskussionen über mehrere Seiten haben in diesem Thread absolut nichts verloren! Und die Ein-Wort- und Smiley-Only-Postings könnt ihr gerne in der Lounge ablassen, aber nicht hier. Beim nächsten mal wird sanktioniert.

PHuV
2016-04-13, 13:55:55
Ein voller (!) GP104-400 mit dieser Leistung zu dem Preis wäre (auch im Hinblick auf VR dieses Jahr) wohl fast sicher gekauft. Wenn es dann noch ein feines Kärtchen von ASUS (Strix) oder MSI (Gaming) gibt, wäre mir das ~680€ wert.
Naja, glaubst Du wirklich, es wird so billig?

BlacKi
2016-04-13, 14:01:14
Naja, glaubst Du wirklich, es wird so billig?

ist ja keine titan, ja nichtmal nen bigboy. 600-650 mehr sehe ich da nicht drinn.

ShinyMcShine
2016-04-13, 14:04:29
ist ja keine titan, ja nichtmal nen bigboy. 600-650 mehr sehe ich da nicht drinn.

So sehe (und hoffe) ich das auch. :cool: