PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26

dildo4u
2016-06-05, 10:46:37
Wo sind denn eigentlich die dx12 Benchmarks von survival evolve? Das wurde ja auch groß angekündigt. Hat da Nvidia als Sponsor den Finger drauf gelegt?
Der DX12 Support in UE 4.0 scheint sehr buggy zu sein selbst Epic hat es noch nich in UT 2016 oder Paragon.Ich würde es dort zu erst erwarten was AAA Games angeht.
Allgemein hat es noch keine große Engine in AAA Game's am laufen Mirror's Edge 2 kommt näste Woche und das läuft auch nur in DX11.Dice hat DX12 nur für Battlefield 1 versprochen was im Oktober kommt.

Screemer
2016-06-05, 11:04:37
Liegt vielleicht daran weil die 380 unter DX12 über 100FPS erreicht und die x-Achse dementsprechend angepasst wurde!? ;)
Hab ich was Anderes geschrieben :confused:

Mancko
2016-06-05, 11:40:34
Ich frage mich bei deinen Posts immer wieder welchen Müll du dir da zusammenreimst. Die Poleposition hast du jedenfalls vor Cruncher.


Ich lach mich schlapp. Was will Nvidia bei Maxwell deutlich im Preis drücken? Die GTX960 die bereits im zweiten DX12 Titel völlig versagt? ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11054630&postcount=3362

Nochmal es wird eine 1060 kommen und das bald und zwar einmal als gekürtzter GP104 und dann danach als GP106. AMD wird keine ausreichende Zeit haben P10 zu genießen. Darunter wird Nvidia einfach Maxwell dumpen. Sie können es sich leissten. Auch so kann Nvidia AMDs Produktlaunch temporär torpedieren. Die in deinen Augen "verkrüppelte 970" hat 4GB auf der Packung stehen und die Restbestände wird man günstig an den Mann bringen. Die 3,5GB GEschichte interessiert da keinen Schwanz in dem Segment.

Mancko
2016-06-05, 11:43:55
Aha, also Nvidia hat einen Vorteil weil sie in einem Segment schneller als AMD sind, aber AMD nicht, wenn sie in einem anderem Segment schneller als Nvidia sind. :rolleyes: Dein AMD-Hass blendet Dich.

Nvidia hatfür Polaris die Antwort bereis in der Mache und wird dort schneller in Erscheinung treten als AMD mit Vega. Zudem kann Nvidia einfacher QUersubvention betreiben können. Lern einfach lesen. Wer die Sahne oben ungestört abschöpfen kann hat es in Summe einfacher. Ungestört oben agieren heißt nämlich nette Margen für Quersubvention erwirtschaften und man kann sogar einfacher Rebands unten verkaufen, denn die SIngle GPU Krone färbt verdientermaßen nach unten ab und verschafft das entsprechende Sieger Image. Und das wird der Trottel von Roy Taylor sehr bald merken :)

scully1234
2016-06-05, 12:58:25
Ich glaub ich weiss jetzt wozu diese modifizierte Platine dienen soll

http://cdn.videocardz.com/1/2016/06/COLORFUL-B150-GP104-Motherboard-900x592.jpg

http://o.aolcdn.com/hss/storage/midas/357638031bc5e427fa4c203cdc982c99/203904184/theworstghostbuster+%281%29.gif

Raspo
2016-06-05, 13:15:38
Wer die Sahne oben ungestört abschöpfen kann hat es in Summe einfacher. Ungestört oben agieren heißt nämlich nette Margen für Quersubvention erwirtschaften und man kann sogar einfacher Rebands unten verkaufen, denn die SIngle GPU Krone färbt verdientermaßen nach unten ab und verschafft das entsprechende Sieger Image. Und das wird der Trottel von Roy Taylor sehr bald merken :)

Vielleich färbt aber auch das Image der überteuerten Top-Grafikkarten auf die darunter liegenden Produkte ab?
Und zum Thema Quersubventionen. Wieviele verkaufte Midrangegrafikkarten kommen auf eine Highendgrafikkarte? Du hast Zahlen und kennst die Produktkalkulation von NV? Dann raus damit. Falls Du keine keine konkreten Werte hast, einfach nur ziemlich schräge Argumentation.

Troyan
2016-06-05, 13:56:56
Pascal im Notebook von Clevo auf der Computex: http://forums.anandtech.com/showpost.php?p=38270681&postcount=3949

Tamagothi
2016-06-05, 17:35:58
Also keine GTX 1070 oder 1080 sondern ne GTX 1075?

y33H@
2016-06-05, 17:55:01
Das dürfte der 85-Watt-Part sein.

scully1234
2016-06-05, 18:00:29
kein Rebranding?

Ansonsten wie von Anandtech angemerkt passen die Cudacores (2048) nicht so recht im Treiber zu einer ''1070''

https://abload.de/img/c4f1a6cc7cd98d10edc5ajir9g.jpg

StefanV
2016-06-05, 18:37:10
2048 'Cuda Cores' bei 256bit Speicherinterface entspricht doch der GM204...

Ravenhearth
2016-06-05, 18:38:22
Dafür sind die Taktraten aber zu hoch.

AffenJack
2016-06-05, 18:43:27
Das dürfte der 85-Watt-Part sein.

85W wäre brutal wenig bei diesem Teil. Ich hätte das eher als 100-120W Part eingeschätzt.

Wie sicher ist es denn, dass wirklich das M bei den Karten wegfällt? Ich könnte mir auch ne Koexistenz weiterhin vorstellen. 2048SPs wurden gut zu einer Standard GTX1080M passen. Darüber dann Desktopartige Grafikkarten.

scully1234
2016-06-05, 18:50:25
Dafür sind die Taktraten aber zu hoch.

Vielleicht hat man Maxwell geshrinkt

Troyan
2016-06-05, 18:52:12
Wozu sollte man Maxwell shrinken, wenn man Pascal hat?!

Die normale GTX980 für das Notebook soll ein TDP von 180 bis 200W haben. Viel Spaß das mit 1440Mhz und 8000MHz in einem Notebook zu verbauchen...

scully1234
2016-06-05, 18:54:02
Man hat den letzten 980er schonmal verbaut im Notebook der letzten Generation

Aber solche Taktraten von 1,4GHZ waeren eben nicht fahrbar in 28nm


Egal wie irgendwas passt da nicht ,entweder stimmen die Cudacores nicht zu bisherigen Pascalablegern , oder die Taktrate nicht zu 28nm GTX980

AffenJack
2016-06-05, 19:04:01
Man hat den letzten 980er schonmal verbaut im Notebook der letzten Generation

Aber solche Taktraten von 1,4GHZ waeren eben nicht fahrbar in 28nm


Egal wie irgendwas passt da nicht ,entweder stimmen die Cudacores nicht zu bisherigen Pascalablegern , oder die Taktrate nicht zu 28nm GTX980

Und wieso sollte man einen Maxwell shrinken? Das ist einfach Blödsinn hier an Maxwell shrink zu denken, sowas gibt es nicht. Die Taktraten sofern nicht gefakt zeigen einfach einen Pascalmobile Part. Die Mobilekarten hatten immer andere Corezahlen als die Desktopkarten.

scully1234
2016-06-05, 19:06:19
Die Mobilekarten hatten immer andere Corezahlen als die Desktopkarten.

Laut letzten Meldungen soll das bei Pascal nicht mehr so sein und das M Kuerzel auch wegfallen

Gab da letztens erst ne Meldung auf CB dazu


Wie die Webseite PC Gamer von „Insider-Kontakten“ auf der Computex-Messe in Taipeh erfahren haben will, wird Nvidia den Zusatz „M“ und damit die Kennzeichnung mobiler Grafikkarten mitunter komplett aufgeben und kommende Grafikkarten-Generationen für Notebooks und Desktops angleichen (http://www.computerbase.de/2016-06/nvidia-gp104-fuer-notebooks-gtx-1080-und-1070-als-mobile-varianten/)

AffenJack
2016-06-05, 19:12:27
Laut letzten Meldungen soll das bei Pascal nicht mehr so sein und das M Kuerzel auch wegfallen

Gab da letztens erst ne Meldung auf CB dazu

Genauso wie es danach irgendwo in Fernost noch Meldungen gab, die sagen, dass es beides geben wird und nun? Alles nur Gerüchte.

VooDoo7mx
2016-06-05, 19:22:04
85W wäre brutal wenig bei diesem Teil. Ich hätte das eher als 100-120W Part eingeschätzt.

Wie sicher ist es denn, dass wirklich das M bei den Karten wegfällt? Ich könnte mir auch ne Koexistenz weiterhin vorstellen. 2048SPs wurden gut zu einer Standard GTX1080M passen. Darüber dann Desktopartige Grafikkarten.

Ich denke mal du hast vollkommen Recht damit. Wird warscheinlich darauf hinauslafen:

GTX 1080 for Notebooks (voller Chip mit etwas weniger Takt)
GTX 1080M 2048SP (16SMM) 8gbps DDR5
GTX 1070M 1664SP-1792SP (13-14 SMM) 7gbps DDR5

Macht in beiden Varianten einen guten Boost von der 970m bzw 980m aus.

Hübie
2016-06-05, 19:34:35
Ich würde jetzt eher GDDR5X vermuten->wohl etwas effizienter.

VooDoo7mx
2016-06-05, 19:36:56
Ich würde jetzt eher GDDR5X vermuten->wohl etwas effizienter.

GDDR5X ist nicht effizienter. Wo hast du das her? GDDR5X verbraucht nochmal mehr Strom als GDDR5. HBM wäre eiffizienter. Nur das werden wir sicher nicht in irgendeinen Notebook in diesen Jahr sehen.

AffenJack
2016-06-05, 19:41:17
GDDR5X ist nicht effizienter. Wo hast du das her? GDDR5X verbraucht nochmal mehr Strom als GDDR5. HBM wäre eiffizienter. Nur das werden wir sicher nicht in irgendeinen Notebook in diesen Jahr sehen.

Nein, GDDR5X soll fast doppelt so effizient wie GDDR5 sein, wenn ich das richtig in Erinnerung hab. Auf jeden Fall ist es effizienter. Deswegen ist Hübies Tipp mit dem runtergetakteten GDDR5X auf jeden Fall ne gute Idee. Zwar gibts so niedrig spezifizierten G5X eigentlich nicht, aber heißt ja nicht, dass man es aus Stromspargründen nicht trotzdem runtergetaktet nutzt. 8Ghz Gddr5 ist einfach sehr energiehungrig.

Hübie
2016-06-05, 19:44:21
GDDR5X ist nicht effizienter. Wo hast du das her? GDDR5X verbraucht nochmal mehr Strom als GDDR5. HBM wäre eiffizienter. Nur das werden wir sicher nicht in irgendeinen Notebook in diesen Jahr sehen.

Schau dir doch einfach die slides an. :freak:

scully1234
2016-06-05, 19:51:50
Genauso wie es danach irgendwo in Fernost noch Meldungen gab, die sagen, dass es beides geben wird und nun? Alles nur Gerüchte.

Ich kann mich nunmal nur auf die Artikel stützen, die im Umlauf sind, und da besagt eben selbiger das Desktop und Mobile angeglichen werden sollen

Aus dem Wissenstand heraus ist es eben erstmal verwunderlich, wo da ein 2048Cuda Core Chip herkommen soll, wenn doch die Spezifikationen von 1070 und 1080 schon vorhanden sind

Eine Erklärung wäre von den Spezifikationen her dann eben die GTX980

Marc sagte übrigens auch was von @85Watt ,ist wie du selbst anmerktest bei dem Takt von 1,4GHz und Cudacore Zahl, auch recht niedrig angesetzt

VooDoo7mx
2016-06-05, 19:57:55
Nein, GDDR5X soll fast doppelt so effizient wie GDDR5 sein, wenn ich das richtig in Erinnerung hab. Auf jeden Fall ist es effizienter. Deswegen ist Hübies Tipp mit dem runtergetakteten GDDR5X auf jeden Fall ne gute Idee. Zwar gibts so niedrig spezifizierten G5X eigentlich nicht, aber heißt ja nicht, dass man es aus Stromspargründen nicht trotzdem runtergetaktet nutzt. 8Ghz Gddr5 ist einfach sehr energiehungrig.

Schau dir doch einfach die slides an. :freak:

Jo ihr habt beide Recht, ich hab das irgendwie falsch in Erinnerung gehabt. Ich dachte bis eben das GDDR5X sowas wie ein übertakteter GDDR5 ist mit nochmal mehr verbrauch. Dabei verdoppelt sich bei GDDR5X zu GDDR5 bei der gleichen Taktrate die Bandbreite. (8gbps GDDR5: 2000MHz 10gbps GDDR5X 1250 MHz) :ugly:

Ich kann mich nunmal nur auf die Artikel stützen, die im Umlauf sind, und da besagt eben selbiger das Desktop und Mobile angeglichen werden sollen

Aus dem Wissenstand heraus ist es eben erstmal verwunderlich, wo da ein 2048Cuda Core Chip herkommen soll, wenn doch die Spezifikationen von 1070 und 1080 schon vorhanden sind

Eine Erklärung wäre von den Spezifikationen her dann eben die GTX980

Marc sagte übrigens auch was von @85Watt ,ist wie du selbst anmerktest bei dem Takt von 1,4GHz und Cudacore Zahl, auch recht niedrig angesetzt

Wie AffenJack schon gesagt hat, alles nur Gerüchte. So lange nVidia nichts offiziell ankündigt.
Jetzt haben wir aber ein Clevo Barebook was genau beweist, dass diese Gerüchte nur Schwachfug sind.
Natürlich wird es wieder mobile SKUs geben, deren Shader Konfiguration sich von den Desktopmodellen unterscheidet. Wieso auch nicht?
Vor ein paar Monaten haben übrigens auch sehr viele Webseiten behauptet, dass nVidia neue mobile Lösungen GTX 980MX und 970MX launcht. Auch nur Schwachsinn gewesen. Such mal bei google danach, du wirst zig seiten finden wo das als News verkauft wird.

http://wccftech.com/nvidia-maxwell-geforce-gtx-980mx-970mx/

http://www.tomshardware.de/nvidia-geforce-gtx-980mx-970mx,news-254626.html

http://www.digitaltrends.com/computing/nvidia-gtx-980mx-970mx/

http://www.computerbase.de/2016-01/gtx-980mx-und-gtx-970mx-nvidia-ersetzt-zwei-notebook-produkte-im-2.-quartal/

usw usf

scully1234
2016-06-05, 20:23:36
The last board that was using PG6xx nomenclature was based on GM200 Maxwell GPU. If NVIDIA was to follow the same principle in its naming schema, PG611 should feature the so-called Big Pascal (GP100 or GP102). (http://videocardz.com/60950/nvidia-pascal-gp102-400-spotted)

ndrs
2016-06-05, 20:24:33
Jo ihr habt beide Recht, ich hab das irgendwie falsch in Erinnerung gehabt. Ich dachte bis eben das GDDR5X sowas wie ein übertakteter GDDR5 ist mit nochmal mehr verbrauch. Dabei verdoppelt sich bei GDDR5X zu GDDR5 bei der gleichen Taktrate die Bandbreite. (8gbps GDDR5: 2000MHz 10gbps GDDR5X 1250 MHz) :ugly:

Das gilt allerdings auch nur für den unmittelbaren PHY-nahen Bereich des Interfaces. Die Speicherzellen selber und die GPU müssen dennoch die doppelte Menge Daten verarbeiten und verbraucht demzufolge auch mehr.

Hübie
2016-06-05, 20:39:54
Das senkt jedoch nicht die Effizienz. ;)

Leonidas
2016-06-06, 08:31:21
Das gilt allerdings auch nur für den unmittelbaren PHY-nahen Bereich des Interfaces. Die Speicherzellen selber und die GPU müssen dennoch die doppelte Menge Daten verarbeiten und verbraucht demzufolge auch mehr.


Richtig. Aber Speicherchips fressen erstaunlicherweise nicht wirklich viel Strom. Die Speicherinterfaces im Grafikchip dagegen schon, da liegt bei GDDR5/X ca. 2/3 des Stromverbrauchs des gesamten Speicher-Subsystems.

So gesehen ist GDDR5X sogar effizienter, weil man da mit niedrigeren Interface-Taktraten auf höhere Bandbreiten kommt. Kann natürlich sein, das es die Mehrarbeit in den Speicherzellen wieder ausgleicht (bzgl des Stromverbrauchs). Aber ineffizienter wird es mit GDDR5X nicht.

iuno
2016-06-06, 09:11:51
Dazu nochmal die Tabelle von Anandtech:
http://www.anandtech.com/show/10193/micron-begins-to-sample-gddr5x-memory

GDDR5X Chips werden mit niedrigerem Takt und Spannung (1,35 statt mind. 1,5 Volt) angesprochen, daher brauchen sie natuerlich etwas weniger Saft. Ich glaube aber auch, dass das SI und die Chips intern relativ zum Takt gesehen zwar zulegen sollten, aber das wird die niedrigeren Takte wohl eher nicht auffressen. Man muss schon mal bedenken, dass der Takt mit 10 Gbps GDDR5X vs 8 Gbps GDDR5 mal um fast 40% und die Spannung um die 13% sinken.

Ein vergleichbares Schaubild inkl. GDDR5X gab es noch nirgends oder?
http://cdn.wccftech.com/wp-content/uploads/2015/11/NVIDIA-HBM-Memory-Crisis.jpg

Hübie
2016-06-06, 10:14:57
GDDR5X ist noch mal um einige Funktionen erweitert worden. Die interessanten Register sind hier eben MR7 & MR8. Wenn man diese mal vergleicht findet man neue Funktionen wie Hibernate und granulare Spannungsregulierung.

ndrs
2016-06-06, 10:30:09
Das senkt jedoch nicht die Effizienz. ;)
Insgesamt natürlich nicht. Das wollte ich auch nicht suggerieren, sondern die Lobhudelei nur leicht relativieren, da es zuvor teilweise fast so klang als könnte man die Interface-Takt-Absenkung proportional in gesparte Energie umrechnen.

Hübie
2016-06-06, 10:39:34
Ne. Takt ziemlich linear, Spannung überproportional / exponentiell. Glaub bei GDDR5X waren es 5,8 Watt I/O bei vollem Takt.

Complicated
2016-06-06, 11:02:10
Das glaube kaum da HBM bei Fiji eine Ersparnis von 70 W ->40 W gegenüber GDDR5 attestiert wurde bei 4 GB. Daher kommen mir 5,8W I/O zu niedrig vor, denn genau da kommt die Ersparnis her bei HBM. Vor allem 5,8W bei welchem SI?

Screemer
2016-06-06, 11:05:09
Pro Stack vielleicht? Wsrb ja dann ~25w.

Rabiata
2016-06-06, 11:21:50
Dazu nochmal die Tabelle von Anandtech:
http://www.anandtech.com/show/10193/micron-begins-to-sample-gddr5x-memory
Interessant finde ich daß die Meldung von Ende März dieses Jahres ist. Entweder Micron hat hier eine sehr schnelle Steigerung vom Testchip zur Serienfertigung hingelegt, oder es wird noch eine Weile dauern bis die GTX 1080 in ernsthaften Stückzahlen zu haben ist.

Complicated
2016-06-06, 11:44:37
Pro Stack vielleicht? Wsrb ja dann ~25w.Die 5,8 W von Hübie beziehen sich auf GDDR5X...da gibt es keine Stacks. Vielleicht pro 64-bit Si wäre eine mögliche Skalierung.

Screemer
2016-06-06, 11:52:10
Die 5,8 W von Hübie beziehen sich auf GDDR5X...da gibt es keine Stacks. Vielleicht pro 64-bit Si wäre eine mögliche Skalierung.

Hatte ich missverstanden und beim zweiten lesen Ich gemerkt.

Hübie
2016-06-06, 12:09:16
Für 1 GB aka 1*64 Bit MC. Die Rahmenbedingungen habe ich nicht mehr im Kopf. Standardtakt (1250 MHz) bei <1.35 Volt. Wobei man fairerweise die anderen Spannungen ebenfalls mit angeben müsste.
Speicher misst man auch nicht mit 40 zu 70 Watt oder so sondern pro Transfer, denn es werden ja selten bis nie alle Module gleichzeitig genutzt und voll ausgefahren. Ist also schon etwas trivial, das ganze. Die 5,8 Watt kannst du mir also ruhig glauben, Complicated. ;) GDDR5X war peak ~35% effizienter gegenüber regulären GDDR5 (7 Gbps).

Edit: Bitte nicht verwechseln mit total power. Ich beziehe das nur auf I/O.

Grabhopser
2016-06-06, 12:17:06
AFAIK werden selten bis nie alle Module nicht genutzt. Der Zugriff sollte im sinne maximaler Bandbreite immer parallel auf allen Modulen stattfinden.
970 als Ausnahme :biggrin:

scully1234
2016-06-08, 07:55:19
In China geht man von folgenden Sezifikationen aus fuer den GP102 400er Core

GP102-400-A1 3584 96ROP 384bit (https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1599163&pid=33567727)

HOT
2016-06-08, 08:26:00
Da wollte man die 450mm² wohl nicht überschreiten.

victore99
2016-06-08, 08:32:56
In China geht man von folgenden Sezifikationen aus fuer den GP102 400er Core

GP102-400-A1 3584 96ROP 384bit (https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1599163&pid=33567727)
Dann gibt es noch einen 540er-Vollausbau. Denn bis zu den vollen 30 Clustern, welche exakt zu den 1,5-fachen ROPs und dem 1,5-fachen Interface passen, fehlen noch genau zwei Cluster - zwei Cluster haben schon der 980Ti gegenüber Titan X gefehlt.

Godmode
2016-06-08, 08:35:48
In China geht man von folgenden Sezifikationen aus fuer den GP102 400er Core

GP102-400-A1 3584 96ROP 384bit (https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1599163&pid=33567727)

Mit 2 GHz wären das 14,3 TFlop/s. Verglichen mit meinen 9,2 TFLop sind das immerhin 55% Mehrleistung. Falls der Chip beschnitten ist und die GP102 Titan 3840 SPs hätte, wären das 66% Mehrleistung.

iuno
2016-06-08, 08:40:04
Ist es nicht etwas gewagt mit 2 GHz zu rechnen? Sowieso wenn die Spannung gelockt ist wie beim GP104.

GM200 ging ja idR. auch nicht so hoch wie GM204 oder:confused:

Hübie
2016-06-08, 08:49:20
Klingt eher nach Salvage. Sieben GPC á 8 SMP bei 64 ALUs und dann dazu 96 ROPs? :|
@iuno: Ich konnte bisher ein paar GM200 @1600+ MHz ausmachen. Also möglich ist es. :smile:

Raff
2016-06-08, 08:52:12
Mit 2 GHz wären das 14,3 TFlop/s. Verglichen mit meinen 9,2 TFLop sind das immerhin 55% Mehrleistung. Falls der Chip beschnitten ist und die GP102 Titan 3840 SPs hätte, wären das 66% Mehrleistung.

Die 9,2 TFLOPS deiner/unserer TX sind idR "schlechter" als 9,2 TFLOPS einer Pascal-Karte, da letztere noch effizienter arbeitet. GP102 klingt, im Gegensatz zum GP104, nach Spaß. :naughty: Aber zunächst sollte AMD liefern.

MfG,
Raff

Dural
2016-06-08, 09:14:16
also auch 3840SP wie GP100 einfach etwas beschitten wie bei der 980Ti. Die Titan bleibt dann wohl die einzige Karte mit 3840SP :wink: Ich hoffe ja immer noch mit GP100 :rolleyes: 3840SP und 16GB HBM klingt nach Spass, 3584SP und 384Bit hört sich nach Bandbreiten Krüppel an ;)

HOT
2016-06-08, 09:32:41
Ähm GP102-400 ist Titan. Salvage (1080ti) hat dann wohl eher 3328 Shader. Ich sag ja, man hat offenbar keinen Sinn darin gesehen, die 450mm² zu überschreiten, zumal das thermische Budget immer schwieriger wird, je größer der Chip wird. Man wird wohl wieder zwischen 230 und 250W TDP anpeilen wollen bei 1,6GHz. Das passt ziemlich gut.

iuno
2016-06-08, 09:37:03
@iuno: Ich konnte bisher ein paar GM200 @1600+ MHz ausmachen. Also möglich ist es. :smile:
Ich dachte, dass >1,5 GHz die absolute Ausnahme sind, zumindest wird das auch immer von Leuten wie Raff gesagt ;)
Ich weiss allerdings nicht, wie weit die 980er idR. so gehen...

Klingt eher nach Salvage. Sieben GPC á 8 SMP bei 64 ALUs und dann dazu 96 ROPs? :|
also auch 3840SP wie GP100 einfach etwas beschitten wie bei der 980Ti. Die Titan bleibt dann wohl die einzige Karte mit 3840SP :wink: Ich hoffe ja immer noch mit GP100 :rolleyes: 3840SP und 16GB HBM klingt nach Spass, 3584SP und 384Bit hört sich nach Bandbreiten Krüppel an ;)
Ergibt ja auch Sinn, warum sollte man die Titan Serie abschaffen? GP102 dann die neue Titan und Ti, GP100 wirklich nur fuer HPC.
FP64 Leistung wird es fuer die Titan aber offenbar nicht mehr geben. Die Einschraenkung war mit der TX quasi unvermeidlich und sollte auch jetzt nicht mehr aufgehoben werden. Das hat damals geholfen, die Titan zu etablieren, interessiert aber heute keinen mehr. Die Titan ist sowieso eine Gamer- und keine Profikarte.
Bis GP102 kommt sollte es 11-12 Gbps GDDR5X geben, die Karte wird also genaus(wenig) ein "Bandbreitenkrueppel" wie die 1080.

Sunrise
2016-06-08, 09:37:29
...3584SP und 384Bit hört sich nach Bandbreiten Krüppel an ;)
Das Verhältnis ist zumindest besser als bei GP104. Und sollte der Takt geringer sein relativ zu GP104 wird es noch besser.

Zudem wie schon vor Monaten gesagt von mir, NV wird keinen GP100 im Gaming-High-End verkaufen weil zu teuer, die brauchen alles fürs professionelle Segment wo sie überdurchschnittliche Margen kassieren können.

16nm >600mm^2 und 16GB HBM2 für >1500 EUR kauft praktisch niemand.

scully1234
2016-06-08, 09:40:19
Falls der Chip beschnitten ist und die GP102 Titan 3840 SPs hätte, wären das 66% Mehrleistung.

Die Auesserung unter seinem Post, von Polymorph ,deutet jedenfalls auf eine noch groessere Ausbaustufe hin. (Titan????)

Der scheint ''ueberrascht'' wegen der 3584 SPs, und bringt einen GP102- 425 ins Gespräch. Vorausgesetzt die chinesische Übersetzung ist da nicht irgendwie zu quer:freak:

HOT
2016-06-08, 09:41:31
Das Verhältnis ist zumindest besser als bei GP104. Und sollte der Takt geringer sein relativ zu GP104 wird es noch besser.

Zudem wie schon vor Monaten gesagt von mir, NV wird keinen GP100 im Gaming-High-End verkaufen weil zu teuer, die brauchen alles fürs professionelle Segment wo sie überdurchschnittliche Margen kassieren können.

16nm >600mm^2 und 16GB HBM2 für >1500 EUR kauft praktisch niemand.
Na ja jedenfalls wenn die einen Sinn darin sehen, GDDR5X überhaupt zu verbauen. 384Bit 8Gbps könnte denen reichen - für die 1080ti dann auf jeden Fall.

Hübie
2016-06-08, 09:41:36
Klar sind 1500+ die Ausnahme. Noch mehr die 1600+.
@HOT: Je größer der Chip desto einfacher die Wärmeenergieabfuhr.

HOT
2016-06-08, 09:42:23
Klar sind 1500+ die Ausnahme. Noch mehr die 1600+.
@HOT: Je größer der Chip desto einfacher die Wärmeenergieabfuhr.
Wer redet denn von Wärmeenergieabfuhr :freak:
Die Rede war von der TDP.

Dural
2016-06-08, 09:43:02
@Sunrise

Sorry aber eine Titan mit 3840SP und 384Bit wäre der super gau, wer soll dafür bitte die ca. 1500.- bezahlen?!?
Da kann man gleich die 1080Ti nehmen, etwas mehr Takt auf die GPU geben und man hat eine Titan. GP104 hängt komplett an der Bandbreite, die Leistung wird nicht über die GPU, sondern zum grossen Teil über den Speicher generiert. Die wenigen zusätzlichen SP dürfte man in Spiele wohl kaum messen können. Und auch der mehr Speicher dürften die meisten Gamer kaum interessieren, 12GB dürfte locker genug sein, 24GB wird man in 2017 sicher nie und nimmer benötigen.

Das Verhältnis ist zwischen GP104 / GP102 wahrscheinlich exakt gleich.

HOT
2016-06-08, 09:44:30
@Sunrise

Sorry aber eine Titan mit 3840SP und 384Bit wäre der super gau, wer soll dafür bitte die ca. 1500.- bezahlen?!?
Da kann man gleich die 1080Ti nehmen, etwas mehr Takt auf die GPU geben und man hat eine Titan. GP104 hängt komplett an der Bandbreite, die Leistung wird nicht über die GPU, sondern zum grossen Teil über den Speicher generiert. Die wenigen zusätzlichen SP dürfte man in Spiele wohl kaum messen können.
Und wo ist der Unterschied zu heute? (TitanX vs. 980Ti)
Man könnte Titan mit GDDR5X ausstatten und die 1080Ti dann mit GDDR5 :D.

Hübie
2016-06-08, 09:47:21
Ach so. Hab das falsch aufgeschnappt. Mit 3840 ALUs könnte man aber wohl "noch" bei 250 Watt bleiben. Bei niedrigem Takt dann vllt. auch unter 225.

Dural
2016-06-08, 09:49:36
Der unterschid ist das Maxwell nicht so extrem an der Bandbreite wie Pascal hängt.

Mit der Titan X hat man einen mehr Wert, die wird man mit Pascal beim 3840SP/ 384Bit Vergleich mit 3584SP / 384Bit nicht haben. Zudem wen man bei beiden Karten bei den 250Watt bleiben möchte, könnte es sogar sein das die neue Titan sogar weniger GPU Takt hat.

HOT
2016-06-08, 09:51:23
Ach so. Hab das falsch aufgeschnappt. Mit 3840 ALUs könnte man aber wohl "noch" bei 250 Watt bleiben. Bei niedrigem Takt dann vllt. auch unter 225.
Warum niedriger takten, wenn man einen billigeren Chip bei gleicher Performance höher takten kann?
Der unterschid ist das Maxwell nicht so extrem an der Bandbreite wie Pascal hängt.

Mit der Titan X hat man einen mehr Wert, die wird man mit Pascal beim 3840SP/ 384Bit Vergleich mit 3584SP / 384Bit nicht haben. Zudem wen man bei beiden Karten bei den 250Watt bleiben möchte, könnte es sogar sein das die neue Titan sogar weniger GPU Takt hat.
Welchen Mehrwert denn außer 12GB, die keiner braucht? Kapier ich nicht... Außerdem war die Rede davon, dass 3584Shader der Vollausbau von GP102 ist.

Sunrise
2016-06-08, 09:55:38
@Sunrise

Sorry aber eine Titan mit 3840SP und 384Bit wäre der super gau, wer soll dafür bitte die ca. 1500.- bezahlen?!?
Da kann man gleich die 1080Ti nehmen, etwas mehr Takt auf die GPU geben und man hat eine Titan. GP104 hängt komplett an der Bandbreite, die Leistung wird nicht über die GPU, sondern zum grossen Teil über den Speicher generiert. Die wenigen zusätzlichen SP dürfte man in Spiele wohl kaum messen können.
Das ist eben so, wenn du schon für 16nm 300mm^2 und GDDR5X über 500 EUR bezahlst bei NV. Die können es sich eben erlauben.

Davon ab besteht noch die Wahrscheinlichkeit auf schneller getakteten GDDDR5X. Das würde das "Bandbreitenproblem" etwas entschärfen.

Die 1500 EUR sind natürlich eine bewusste Übertreibung, aber wundern tut mich bei den NV-Preisen nichts mehr. Realistischer werden aber wieder $999 US, da "nur" 450mm^2 Die.

Wird Zeit dass AMD sich dagegen stellt mit Vega.

Hübie
2016-06-08, 09:57:42
Welchen billigen Chip meinst du jetzt, HOT? :confused:

HOT
2016-06-08, 10:08:53
Welchen billigen Chip meinst du jetzt, HOT? :confused:
Ein GP102 mit weniger mm² ist billiger... und kann bei gleicher TDP und etwas mehr Takt die gleiche Leistung haben. Man lässt 256Shader weg, taktet das Teil einfach etwas höher und bleibt dafür unter 450mm² wo mit vollen 3840 Shadern vermutlich 475mm² fällig gewesen wären.

iuno
2016-06-08, 10:20:29
Ich sehe das Problem nicht. Titan kommt zuerst, mit 24 GiB und die Ti kommt nach, eben so wie bei GM200. Die 980 Ti ist durch hoeheren Takt auch nicht wirklich langsamer als die TX.

Bandbreitenlimit?
TX: 3072 SP, 1.152 MHz Boost, 384 Bit, 7 Gbps -> ~48 B/s/kFLOP.
Titan "P": 3840 SP, ~1.600? MHz Boost, 384 Bit, 12 Gbps -> ~47 B/s/kFLOP bei besserer Kompression

Godmode
2016-06-08, 10:28:22
Ist es nicht etwas gewagt mit 2 GHz zu rechnen? Sowieso wenn die Spannung gelockt ist wie beim GP104.

GM200 ging ja idR. auch nicht so hoch wie GM204 oder:confused:

GM204 vs GM200 verhielt sich recht ähnlich, mit dem Vorteil der besseren Wärmeableitung von GM200.


Die 9,2 TFLOPS deiner/unserer TX sind idR "schlechter" als 9,2 TFLOPS einer Pascal-Karte, da letztere noch effizienter arbeitet. GP102 klingt, im Gegensatz zum GP104, nach Spaß. :naughty: Aber zunächst sollte AMD liefern.

MfG,
Raff

Ich hoffe einfach, dass endlich ein würdiger Nachfolger für meine Karte kommt.

Dural
2016-06-08, 10:39:13
dass 3584Shader der Vollausbau von GP102 ist.

3584SP kann gar nicht der voll ausbau sein, ist rechnerisch auf basis des GP104 gar nicht möglich.

Sunrise
2016-06-08, 10:44:26
Bandbreitenlimit?
TX: 3072 SP, 1.152 MHz Boost, 384 Bit, 7 Gbps -> ~48 B/s/kFLOP.
Titan "P": 3840 SP, ~1.600? MHz Boost, 384 Bit, 12 Gbps -> ~47 B/s/kFLOP bei besserer Kompression
Ja, weil du bereits mit schnellerem GDDR5X rechnest. Wir gehen aber erstmal konservativer von 10Gbps aus.

Ohne die Einheiten, die Taktraten und die Modulspezifikationen genau zu kennen ergeben diese Überlegungen sowieso wenig Sinn, da gibt es mehr als genug Variablen bei den drei.

iuno
2016-06-08, 10:51:28
Und hat das auch einen Grund?
Micron hat beim Sampling mit 10/11/12 gleichzeitig angefangen. Die 10Gbps GDDR5X wurden offenbar auf den letzten Druecker fuer Nvidia rausgehauen. Vorfuehr-/Reviewmodelle hatten noch als Eng. Sample gelabelte Chips (oder war das bs?).
In der PM vom Februar (https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived) sprechen sie schon von erreichten 13 Gbps und 14 Gbps fuer die naherere Zukunft.

Ich bin da sehr zuversichtlich, dass 12 Gbps verfuegbar sind, bis GP102 kommt. Es ist ja nicht so, dass Nvidia die Titan/Ti so kurz nach der 1080 raushaut.
GM204 als 980 kam im September, GM200 als TX im Maerz und als Ti im Juni. Bei Kepler war es sogar Maerz, Februar und Mai. Wer erwartet da ernsthaft, dass bis zum Release von GP102 kein 11/12 Gbps GDDR5X fertig wird?

Im Uebrigen ist Nvidia bzw. die AIBs der einzige Kunde, den Micron hat. Wenn die keinen Bedarf fuer 12 Gbps angesagt haetten, wuerden die das doch auch nicht bauen.

HOT
2016-06-08, 11:52:32
3584SP kann gar nicht der voll ausbau sein, ist rechnerisch auf basis des GP104 gar nicht möglich.
So gesehen stimmt das natürlich. Dann würde ich auch mit 475mm² mindestens rechnen für den Chip.


Aber ich glaube nicht, dass 12Gbps GDDR5X nötig ist. Die werden sicherlich wieder 10Gbps verbauen. Das wird beim GP102 aber kaum ne Rolle spielen denke ich. Vielleicht dürfen die Kartenhersteller von der Vorgabe abweichen und selber bessere Speicher ordern.


Und 24GB sind sicherlich quatsch, das macht einfach 0 Sinn.

Godmode
2016-06-08, 12:00:02
So gesehen stimmt das natürlich. Dann würde ich auch mit 475mm² mindestens rechnen für den Chip.


Aber ich glaube nicht, dass 12Gbps GDDR5X nötig ist. Die werden sicherlich wieder 10Gbps verbauen. Das wird beim GP102 aber kaum ne Rolle spielen denke ich. Vielleicht dürfen die Kartenhersteller von der Vorgabe abweichen und selber bessere Speicher ordern.


Und 24GB sind sicherlich quatsch, das macht einfach 0 Sinn.

Verstehe die Diskussion auch nicht wirklich? Mangelt es den GP104 an Bandbreite? Bisher sieht es nicht so aus. Wenn GP102 genau 50% mehr Einheiten und ein um 50% verbreitertest SI hat, braucht man gar keinen 10Gbps+ GDDR5X Speicher. NV war immer recht konservativ was Speichertaktraten angeht.

Bei GM204 und GM200 wurden gleich schnelle Speicherchips verwendet.

iuno
2016-06-08, 12:29:22
Verstehe die Diskussion auch nicht wirklich? Mangelt es den GP104 an Bandbreite? Bisher sieht es nicht so aus.
Seit wann das?
Es reicht doch schon, wenn es in einem Bruchteil aller aktuellen Spiele ins Gewicht faellt. Wenn GP102 10 Gbps bekommt und irgendwo im Bandbreitenlimit haengt, obwohl besserer Speicher verfuegbar waere, ist das ein laecherliches Produkt fuer Enthusiasten, imho.

Godmode
2016-06-08, 14:34:30
Seit wann das?
Es reicht doch schon, wenn es in einem Bruchteil aller aktuellen Spiele ins Gewicht faellt. Wenn GP102 10 Gbps bekommt und irgendwo im Bandbreitenlimit haengt, obwohl besserer Speicher verfuegbar waere, ist das ein laecherliches Produkt fuer Enthusiasten, imho.

Schon klar dass wir das möchten, aber NV kalkuliert eben wie jede andere Firma auf Centbeträge.

BlacKi
2016-06-08, 14:51:25
Seit wann das?
Es reicht doch schon, wenn es in einem Bruchteil aller aktuellen Spiele ins Gewicht faellt. Wenn GP102 10 Gbps bekommt und irgendwo im Bandbreitenlimit haengt, obwohl besserer Speicher verfuegbar waere, ist das ein laecherliches Produkt fuer Enthusiasten, imho.
was meinst du mit bandbreitenlimit? limitieren tut der speicher überhaupt nicht, die karte skaliert in der leistung nur nicht mehr so schön. limitieren tut da garnichts, selbst bei 2,8ghz nicht.

Hübie
2016-06-08, 18:18:48
Im Hintergrund munkelte man schon länger von einem 478 mm² Chip...
@godmode: Das Flops pro Byte Verhältnis war bei GM200 "besser". Daraus schlussfolgern einige halt ein Bandbreitenlimit...
@Blacki: Stimmt nicht. Irgendwas limitert immer. Sonst wäre es unendlich proportional. :P

Ailuros
2016-06-08, 19:25:27
Im Hintergrund munkelte man schon länger von einem 478 mm² Chip...
@godmode: Das Flops pro Byte Verhältnis war bei GM200 "besser". Daraus schlussfolgern einige halt ein Bandbreitenlimit...


Mit der Logik haette ein GM200 Titan nie mehr Land sehen sollen als ein GK110 Titan da beide fast die gleiche Bandbreite haben. Bei hypothetischen 10Gbps 5X@384bit entspricht es einer Steigerung von ~43% an Bandbreite gegenueber GM200.

Am Ende des Tages haette ich es vor den GTX1070 benchmark Resultaten nicht geglaubt dass sich diese in sehr hohen Aufloesungen gegen eine TitanX immer noch behaupten kann (trotz um 34% niedrigere Bandbreite) , obwohl ich Dackel stets immer "predige" dass es wichtiger ist wie eine Loesung mit ihrer existierenden Bandbreite umgeht, im Vergleich zur sterilen maximalen Bandbreiten-Zahl.

Zum ersten hiess es vor einer Ewigkeit "etwas unter 500", welches auch die Verwirrung stiftete da in so wenig mm2 nie und nimmer fast 18Mrd. Transistoren gepasst haetten. Bei gleicher Packdichte zum P100 hat ein GP102@478mm2 knapp unter 12 Mrd. Transistoren und das macht dann natuerlich Sinn :P

Godmode
2016-06-08, 19:31:37
Und glaubst du noch an heuer für GP102 oder doch erst nächsten Frühling?

Ailuros
2016-06-08, 19:38:35
Und glaubst du noch an heuer für GP102 oder doch erst nächsten Frühling?

Da ich das Zauba Zeug nicht verfolgt habe: weiss jemand wann es zum ersten Mal bei Zauba shipments erschienen ist?

scully1234
2016-06-08, 20:11:37
Da ich das Zauba Zeug nicht verfolgt habe: weiss jemand wann es zum ersten Mal bei Zauba shipments erschienen ist?

War er das vielleicht

http://cdn.wccftech.com/wp-content/uploads/2016/03/Nvidia-Pascal-Flagship-GP100-GP104.png

Die beiden konnte glaube ich damals keiner richtig zuordnen

Ailuros
2016-06-08, 20:49:21
Bin mir zwar nicht sicher aber ich glaube ich hab irgendwo eine Zauba Abbildung gesehen wo GP102 im Text stand.....kann mich aber auch irren. Wenn es Maerz war dass es zum ersten Mal erschienen ist und sie sind momentan am testen dann wird es wohl schon noch dieses Jahr kommen.

robbitop
2016-06-08, 21:01:30
Die 9,2 TFLOPS deiner/unserer TX sind idR "schlechter" als 9,2 TFLOPS einer Pascal-Karte, da letztere noch effizienter arbeitet. GP102 klingt, im Gegensatz zum GP104, nach Spaß. :naughty: Aber zunächst sollte AMD liefern.

MfG,
Raff
Pascal legte AFAIK nicht zu in Punkto IPC. Insofern sollten TFLOPs ziemlich vergleichbar sein.

Ailuros
2016-06-08, 21:09:24
Pascal legte AFAIK nicht zu in Punkto IPC. Insofern sollten TFLOPs ziemlich vergleichbar sein.

Ein kleines Prozentual ist immer mehr als "gar nichts".

AffenJack
2016-06-08, 23:47:33
Pascal legte AFAIK nicht zu in Punkto IPC. Insofern sollten TFLOPs ziemlich vergleichbar sein.

Viel bestimmt nicht, aber das es ein Stück ist kann man nicht ausschließen. Nur gibts keine Kombi mit der man das testen könnte, denn Pascal hat einfach viel mehr Gflops/Rop und da kann man auch die Rops als Limit nicht auschließen.

Bin mir zwar nicht sicher aber ich glaube ich hab irgendwo eine Zauba Abbildung gesehen wo GP102 im Text stand.....kann mich aber auch irren. Wenn es Maerz war dass es zum ersten Mal erschienen ist und sie sind momentan am testen dann wird es wohl schon noch dieses Jahr kommen.

Im April Mai wurde den Analysten gesagt, dass man alle Tapeouts für Pascal durch hat. Was auch immer dieses Jahr nicht mehr erscheint, sollte dann in Q1 17 fällig sein, außer es gibt böse Yieldprobleme. Vielleicht kriegen die Leute im High-End ne Titan als Weihnachtsgeschenk bevor man paar Monate später die 1080Ti launcht.

Ailuros
2016-06-09, 11:36:24
Im April Mai wurde den Analysten gesagt, dass man alle Tapeouts für Pascal durch hat. Was auch immer dieses Jahr nicht mehr erscheint, sollte dann in Q1 17 fällig sein, außer es gibt böse Yieldprobleme. Vielleicht kriegen die Leute im High-End ne Titan als Weihnachtsgeschenk bevor man paar Monate später die 1080Ti launcht.

Mit Aussnahme von katastrophalen Yield-Problemen werden sie einen Titan schon mit >$1.3k launchen koennen. Es ist ja auch nicht so dass Verbraucher dafuer Schlange stehen werden :freak:

Godmode
2016-06-09, 21:45:58
Mit Aussnahme von katastrophalen Yield-Problemen werden sie einen Titan schon mit >$1.3k launchen koennen. Es ist ja auch nicht so dass Verbraucher dafuer Schlange stehen werden :freak:

Wenn der Chip ähnlich wie GP104 wird, wovon ich ausgehe, dann werden auch die Yields passen. Oder ist der absurde Preis der 1080 ein Indiz auf schlechte Yields?

Ich will endlich eine vernünftige Karte für 4k. Und ja ich bereue, dass ich meine zweite Titan verkauft habe, weil in TW3 hat SLI sehr gut funktioniert, auch wenn es sonst eher schrottig ist.

Complicated
2016-06-09, 22:31:11
Apropos SLI: Ist diese Info hier schon bekannt?
CB: 3 oder 4 Karten geht bei Pascal nur für Benchmarks (http://www.computerbase.de/2016-06/nvidia-sli-pascal-nur-fuer-benchmarks/)

Godmode
2016-06-09, 23:11:19
Apropos SLI: Ist diese Info hier schon bekannt?
CB: 3 oder 4 Karten geht bei Pascal nur für Benchmarks (http://www.computerbase.de/2016-06/nvidia-sli-pascal-nur-fuer-benchmarks/)

Ja und es ist IMHO wirklich nicht schade darum. Somit bleibt mehr Zeit für die verbesserung von 2-Way-SLI, bzw. noch besser, DX12 Multiadapter.

Hübie
2016-06-09, 23:12:28
Ja sagte Tom Petersen doch im Interview bei Ryan Shrout. Aber schaden kanns nicht das hier zu nennen. :smile:
Trotzdem total unspektakulär. Vor allem wie immer getan wird die neue Brücke sei eine Innovation... X-D

Kartenlehrling
2016-06-09, 23:30:31
Apropos SLI: Ist diese Info hier schon bekannt?
CB: 3 oder 4 Karten geht bei Pascal nur für Benchmarks (http://www.computerbase.de/2016-06/nvidia-sli-pascal-nur-fuer-benchmarks/)


Muss da nicht jeder gleich an die Square Enix Tech Demo für DirectX 12 denken von DigitalStorm PC gesponsort?

Hier nochmal als Gedächtnisstütze. (https://www.youtube.com/watch?v=BnV34EqluQk)

Hübie
2016-06-09, 23:59:34
Das war jetzt irgendwie fies. Man stelle sich vor:
Die zeigen das 2017 mit vier super-duper-1000-Dollar-GPUs. Dann kaufen sich einige Deppen so ein Ding mit 4 Karten für ein Arsch voll Kohle und haben am Ende einen Nervenzusammenbruch weil die haareraufend GTA VI mit Quad-SLi zocken wollen. :crazy::hammer:

woodsdog
2016-06-10, 05:52:28
wenn Sie es denn überhaupt mitbekommen das da höchstens 2 Karten wirklich laufen ;)

iuno
2016-06-10, 08:06:22
Naja, GTA VI wird doch sicher Vulkan nutzen und die GPUs explizit ansprechen ;p

Es wird die allerwenigsten jucken, dass SLI in dem Sinne wegfaellt, jetzt halt noch fuer >2 Karten, spaeter hoffentlich fuer immer

scully1234
2016-06-10, 09:33:27
Es wird die allerwenigsten jucken, dass SLI in dem Sinne wegfaellt, jetzt halt noch fuer >2 Karten, spaeter hoffentlich fuer immer


Es faellt nicht weg, es wird nur umgestellt von AFR auf SFR. Will ja jeder fuer seine VR Anwendung .die passende Leistung bekommen, ohne Latenzprobleme.

Und zweimal optimieren fuer MultiGPU, ist dann wohl doch ein wenig sinnlos, bei der Anzahl an Usern die es einsaetzen.

Ganz davon ab das die Skallierung von SFR ,bei 3 und mehr Karten ,wohl auch nicht mehr die Beste sein wird, muesst man da wieder mit AFR wursteln,fuer die Monitorsympathisanten .

Complicated
2016-06-10, 09:52:59
Nvidia stellt überhaupt nichts um. Sie droppen den Support und überlassen es den Spieleentwicklern in DX12 ob sie SFR einbauen wollen oder weiter AFR nutzen wollen.

Das ist so vorgesehen, sowohl für Nvidia als auch für AMD. Aber bitte nicht so tun als ob Nvidia da etwas umstellt wenn Funktionen vom Treiber in die Hand der Spieleentwickler wandern aufgrund der neuen API, welche von Nvidia noch als unwichtig erachtet wird zum jetzigen Zeitpunkt. Es deutet viel mehr darauf hin, dass Nvidia wie AMD den Support für Explicit Multi-Adapter auf DX11 ausweitet.

Sie werden das auch müssen, wenn AMD die ersten Systeme im Mix-Betrieb unter DX11 vorführt, werden die 80% Nvidia Marktanteil gute Gründe erhalten einfach eine AMD Karte dazu zu stecken die so zwischen der vorhandenen GTX 970 und GTX 980 performt. Für 199$ wohl dann auch kein schlechtes Upgrade für Nvidias Kunden. Ich bin überzeugt, dass AMD alle Entwickler genau davon versucht zu überzeugen, damit sie den Support einbauen.

Ailuros
2016-06-10, 11:04:03
Wenn der Chip ähnlich wie GP104 wird, wovon ich ausgehe, dann werden auch die Yields passen. Oder ist der absurde Preis der 1080 ein Indiz auf schlechte Yields?


Womoeglich ja zum letzten. Sonst wissen wir alle dass je groesser der chip desto hoeher die Chancen fuer niedrigere yields. GP104 ist bei 314mm2, wenn jetzt GP102 irgendwo 480mm2 gross ist sollte es wohl klar sein dass die yields beim zweiten um einiges schlechter sein werden. Nur so nebenbei yields momentan fuer P100@610mm2 koennte man nur als miserabel bezeichnen.

BigKid
2016-06-11, 07:42:14
So... Nachdem ich grad im "Wen würdet ihr gerne mal treffen" Thread gelesen habe, dass mich jmd gerne einladen würde damit ich alle mit meinen blöden Fragen Nerven kann hab ich gleich noch eine... :)
Aus min/maxer Sicht:
Wird der Abstand zwischen 1070 und 1080 auf guten Custom Karten (Luft) eher kleiner oder eher grösser? Der 1080 tritt ja mit höheren Taktraten von Hause aus an hat aber nicht mehr viel Luft... Ist ja anzunehmen, dass der 1070 genauso hoch geht... was bleibt dann an Abstand zwischen den Karten Aufgrund deaktivierter Einheiten und Speicher ? Sorry wenn das irgendwo in dem Thread schon beantwortet wurde - habs nicht gefundenen...

Troyan
2016-06-11, 11:08:55
Die GTX1080 hat 20% mehr Bandbreite und 33% mehr aktive Einheiten. Taktnormalisiert liegt der Abstand also irgendwo zwischen 20%-33%.

Eventuell lassen sich GTX1070 Karten leicht höher takten, aber am Ende wird der Abstand nach Übertakten größer sein, da die GTX1080(FE) Karten einen niedrigen Standardtakt aufweisen.

Es ändert sich also nicht viel. Eine GTX1080FE wird mit einer guten GTX1070 Customkarte nicht erreichbar sein.
Nach Durchsicht des Computerbase-Test könnte es doch möglich sein. :D

scully1234
2016-06-11, 13:57:51
In nem Bios von EVGA entdeckt

https://www.chiphell.com/thread-1601090-1-1.html

BigKid
2016-06-11, 14:40:41
Die GTX1080 hat 20% mehr Bandbreite und 33% mehr aktive Einheiten. Taktnormalisiert liegt der Abstand also irgendwo zwischen 20%-33%.

Eventuell lassen sich GTX1070 Karten leicht höher takten, aber am Ende wird der Abstand nach Übertakten größer sein, da die GTX1080(FE) Karten einen niedrigen Standardtakt aufweisen.

Es ändert sich also nicht viel. Eine GTX1080FE wird mit einer guten GTX1070 Customkarte nicht erreichbar sein.
Nach Durchsicht des Computerbase-Test könnte es doch möglich sein. :D
Vielen Dank... Naja... Rechnen wir mal...
Eine GTX1080 FE bzw. ohne OC hat
Baseclock 1607 MHz, Boostclock 1733 MHz
Wenn die GTX1070 also Taktbereinigt 33% weniger Leistung hat müsste ein Takt von: 2137 Mhz erreicht werden... Wird vermutlich eng...

Grabhopser
2016-06-11, 15:09:30
Zumal die Bandbreite vorher schon dicht macht....

-/\-CruNcher-/\-
2016-06-11, 15:26:03
In nem Bios von EVGA entdeckt

https://www.chiphell.com/thread-1601090-1-1.html

Das sollte das gesamte Pascal Lineup sein das aus dem größten machbaren heraus nach unten hin heraus designed wurde :D

GP100 = Tesla Only
GP102 = 1080 TI ?/1070 TI / Titan / Geforce Pro ?
GP104 = 1080 Full ?/1070 Salvage / Competition RX490
GP106 = 1060 / Competition RX480
GP107 = 1050 TI ?
GP107F = 1050 ?
GP108 = 1045 ?

Mit Shipping von GP 100 (Professional/ Compute/ Server)/104 (Performance Consumer) haben sie angefangen das Shipping von 106 (Mainstream Consumer) ist im Anmarsch

so gesehen haben sie auch nichts an ihrer Maxwell Release Strategie verändert bis auf das sie GP107 nicht als erstes Preview released haben nur AMD hat eine Veränderung vorgenommen seit Fiji Release um Mainstream gleich zu gewinnen mit Polaris 10.

GP107F diese Bezeichnung ist relativ strange

die 1060 (GP106) sollte wieder bei der 980 (GM204) + ein wenig mehr non compute Performance zum balken gewinnen liegen ;)

Hakim
2016-06-11, 15:58:46
Du gehst von einem 1070Ti auf 102GP Basis aus?

-/\-CruNcher-/\-
2016-06-11, 16:11:06
vieleicht nennen sie es auch wieder Titan oder nehmen für diese Area was komplett neues hatte da ja die idee Geforce Pro einzuführen ;)

Ailuros
2016-06-11, 16:17:26
Du gehst von einem 1070Ti auf 102GP Basis aus?

Null Chance.

Troyan
2016-06-12, 00:36:43
Laut Zauba fängt nVidia an GP106 Karten zusammenzubauen: https://www.zauba.com/import-gp106-hs-code.html

192bit und 6GB werden wohl die ersten Varianten sein.

horn 12
2016-06-12, 07:52:03
Dies dauert damit aber nochmals einige Monate bis Karten lieferbar sind und bis dahin sollte AMD großteils abgegrast haben.

Dural
2016-06-12, 08:50:44
Perfekt, das gibt 192gb/s für die 1060.
Mit den 6gb und rund 5tflops dürfte das eine schöne runde karte geben. Und erst noch günstiger in der herstellung als eine rx480 sein.

AMD hat ihre klappe definitiv viel zu früh geöffnet, das könnte sich jetzt rächen.

-/\-CruNcher-/\-
2016-06-12, 09:05:30
Glaube sie haben wieder angefangen wirtschaftlich ordentlich durchzukalkulieren wie bei der GTX 970 *g* 6 GB ist so gesehen keine schlechte wahl selbst wenn es 5.5+500 sind ;)

noch ist keine Konsolen port Engine so extreme ineefizient das sie bei 1080p jedenfalls mehr bräuchte :D

Wenn sie dann irgendwan mal iihr neues AA vorstellen sollte der verbrauch vor allem in Richtung MSAA8x ja auch wieder etwas abgedämpft werden.

Eigentlich hätte die GTX 970 schon mit 6 GB Polster kommen müssen man kannte die Konsolen Daten ja und das einige Games keinen großen Optimierungsaufwand betreiben würden.

Nicht jeder schaft es so ein Streaming in Perfektion hinzubekommen wie Idtech momentan :D

5KZ584jWyM4

in Richtung 8ms schätzen sie ihre Leistung schon als schecht ein da müssen sich andere mal ne scheibe abschneiden ;)

ob man 4K auf einer RX480 wirklich fahren will ;)

9jYr56_-ftE

MadPenguin
2016-06-12, 09:06:32
Perfekt, das gibt 192gb/s für die 1060.
Mit den 6gb und rund 5tflops dürfte das eine schöne runde karte geben. Und erst noch günstiger in der herstellung als eine rx480 sein.
AMD hat ihre klappe definitiv viel zu früh geöffnet, das könnte sich jetzt rächen.

Schade, dass Nvidia trotzdem Mondpreise verlangen wird. Die RX480 scheint schon in einigen Fällen hart speicherlimitiert zu sein. Ein 192bit Interface wird sicherlich nicht hilfreich sein. Aber wir werden sehen :)

kuj0n
2016-06-12, 09:15:46
Schade, dass Nvidia trotzdem Mondpreise verlangen wird. Die RX480 scheint schon in einigen Fällen hart speicherlimitiert zu sein. Ein 192bit Interface wird sicherlich nicht hilfreich sein. Aber wir werden sehen :)
Mad trink erstmal einen Kaffee. Wir haben noch nicht einmal Benches gesehen.

Dural
2016-06-12, 09:31:37
Gp104 hat nur 256bit, das verhältnis ist bei gp106 somit besser.
Zudem nv einfach weniger bandbreite als amd benötigt.

reaperrr
2016-06-12, 09:46:12
Gp104 hat nur 256bit, das verhältnis ist bei gp106 somit besser.
Falls sie 8Gbps GDDR5 verwenden, der Chip 1536 ALUs hat und den gleichen Chiptakt fährt: Nein, das Verhältnis von Bandbreite zu Rohleistung wäre in dem Fall 100% identisch zur 1080.

Dural
2016-06-12, 10:13:44
Der chip hat nur 1280sp und somit die hälfte von gp104.

-/\-CruNcher-/\-
2016-06-12, 11:12:18
Naja die Bandbreite konnte AMD mir ihrer neuen DCE ab Polaris ja auch weiter reduzieren für so eine extreme krasse Cinematic Scene wie da bei Tomb Raider mit dem Close FOV und was ausschaut wie echte 4K texturen kommen die 8 GB jedenfalls nicht schlecht und die GTX 960 müsste schon ordentlich pagen, bis zum WIde FOV Gamepley jedenfalls wo die Anforderungen dann wieder nach unten gehen aber immernoch zu hoch liegen würden ;)

Interessante frage ob sie dort auf dem selben System bei 4K Stabil die 33.3ms halten würde, ich würde glauben mit der GTX 1060 ohne riesen lücken mit Mainstream System schwer schafbar ;)

4K@30 FPS bei echtem 4K da scheinen wir jedenfalls schonmal zu stehen :)

Die magischen 33.3 ms bei Tomb Raider in 4K das wird interessant zwischen RX480 8GB, GTX 1070 4GB, und GTX 1060 6GB :)

hier muss die 1070 ja schon sichtbar ordentlich wegpagen scheinbar, unspielbar

https://youtu.be/r9q4V_eCx-Q?t=480

Square Enix wird sich wohl nicht auf einen Texture Patch einlassen wie Ubisoft bei Farcry 4 damals für die GTX 970 ;)

Hoffentlich setzt Square Enix den gleichen Standard bei Final Fantasy 15 an :)

Die full 4K Workflows werden immer mehr das fällt vor allem auf der PS4 auf denke schon das man sich auch auf einen besseren output vorbereitet bei Sony und Microsoft ansonsten macht das keinen Sinn was hier passiert ;)

Nvidia kalkuliert für den PC Mainstream ganz schön an der Edge wieder einmal, das wird spannend.

Mancko
2016-06-12, 14:16:51
Dies dauert damit aber nochmals einige Monate bis Karten lieferbar sind und bis dahin sollte AMD großteils abgegrast haben.

Nvidia wird teasern und vermutlich mit abgespecktem GP104 dazwischen noch überbrücken. Der könnte dann sogar 8GB Speicher bekommen. Und wie wir alle wissen warten Kunden bei Nvidia gern auch mal ein paar wenige Monate. Umgekehrt kann man das nicht so sagen. Das ist halt der Vorteil des allgemeinen Sieger Images und der eindeutig stärkeren Brand, zumal man wohl locker bis Jahresende oben unangefochten sein wird. Das färbt natürlich nach unten in die Palette mit ab. Ich gehe jede Wette ein, dass Nvidia ab dem offiziellen Polaris Launch bzw. dessen Verfügbarkeit anfangen wird über das Internet zu leaken. Wenn sie ganz frech sind, dann präsentieren sie kurzerhand danach erstmal einen abgespeckten GP104 und geben einen Ausblick auf GP106 für Mainstream.

-/\-CruNcher-/\-
2016-06-12, 14:27:12
Würde bei ihrer Preis Stategie so nicht mehr klappen dafür müssten sie die Preise senken glaube das würden sie unter diesem Druck sogar machen es steht ja viel mehr auf dem Spiel als nur den Mainstream zu verlieren *g*

scully1234
2016-06-12, 17:53:44
Perfekt, das gibt 192gb/s für die 1060.
Mit den 6gb und rund 5tflops dürfte das eine schöne runde karte geben. Und erst noch günstiger in der herstellung als eine rx480 sein.


Interessant ist auch was Igor bezueglich der Skallierung der 1070 zusammengetragen hat, da koennte eine hypothetische GTX 1060 auf GP104 Basis, nochmal gut zulegen in Sachen Effizienz


Die 1070 Fan Edition läuft bei ca 75 Watt Leistungsaufnahme noch deutlich mit über 1 GHz Boost Clock und ist dabei nur ca. 20% langsamer als bei knapp 150 Watt!...

Der Sweet-Spot liegt dabei bei ca. 80 Watt und knapp unter 1,3 GHz.
.

maximus_hertus
2016-06-12, 18:01:38
Interessant ist auch was Igor bezueglich der Skallierung der 1070 zusammengetragen hat, da koennte eine hypothetische GTX 1060 auf GP104 Basis, nochmal gut zulegen in Sachen Effizienz

Das soll jetzt was in Sachen Effizienz bzgl. GP106 sagen? Der GP106 ist ja deutlich kleiner / schwächer, ergo muss man wieder (deutlich) höher takten aka schlechterer Effizienz => siehe nV's Folie bei ihrer Präsentation.

prinz_valium
2016-06-12, 18:09:09
vieleicht nennen sie es auch wieder Titan oder nehmen für diese Area was komplett neues hatte da ja die idee Geforce Pro einzuführen ;)

gp102 vollausbau wird die titan mit 24gb ram
gp102 salvage wird die 1080ti mit 12gb ram

dachte das wäre so sicher wie das amen in der kirche

außer man setzt widererwartend doch auf hbm und kein 384bit speicherinterface. dann werden wird wohl andere ram Bestückungen sehen

scully1234
2016-06-12, 18:23:35
Das soll jetzt was in Sachen Effizienz bzgl. GP106 sagen? Der GP106 ist ja deutlich kleiner / schwächer, ergo muss man wieder (deutlich) höher takten aka schlechterer Effizienz => siehe nV's Folie bei ihrer Präsentation.


Du weist also schon wie breit man den 1060 baut ,und wie hoch man ihn takten muss?

Angenommen er hat nicht deutlich weniger Cuda Cores als GP106 Vollausbau oder GP104/150 salvage, aber dafuer eine spuerbare Taktreduktion was ihm unter dem Sweetspot haellt...

x-force
2016-06-12, 19:09:36
Du weist also schon wie breit man den 1060 baut ,und wie hoch man ihn takten muss?


ja, denn der gp104 ist für nvidia als 1060er zu teuer, wenn es auch ein hoch getakteter 106er tut.
außerdem war schon bei maxwell die 960 halb so groß wie die 980 bei halber leistung und ähnlichem takt. nur die speicherproblematik gddr5 vs 5x könnte unsymmetrische chipdesigns ermöglichen. daher liegt es nahe, daß gp 106 bei etwa 1280 shadern landet und auf 128bit 5x setzt.

lies doch noch mal was ich vor format_c im gleichen thread geschrieben habe ;)

eine 104er unter der 1070 würde nur sinn machen, wenn man sehr viel verschnitt produziert, der teilbeschädigt ist.
dann würde man die aber auch wieder eher hoch takten und viel deaktivieren.

Screemer
2016-06-12, 19:28:22
Ich kann mir irgendwie schwer vorstellen dass nv bei gp106 auf 5x setzen wird. Das würde die Karten doch nur aus ihrem preisbereich heben.

Dural
2016-06-12, 21:53:34
Vorallem wir eine seite vorher gesehen haben das gp106 min. 192bit hat :rolleyes:

Rabiata
2016-06-13, 00:02:54
Ich kann mir irgendwie schwer vorstellen dass nv bei gp106 auf 5x setzen wird. Das würde die Karten doch nur aus ihrem preisbereich heben.
Kommt sehr drauf an, was GDDR5X mehr kostet gegenüber GDDR5. Das ist derzeit das Geheimnis von Micron und Nvidia. Aber der Link von Troyan auf die Zauba-Datenbank suggeriert schon stark ein 192Bit-Speicherinterface. Dann wird es wohl auch bei GDDR5 bleiben.

Ich lehne mich mal aus dem Fenster und tippe für GP206 auf einen Chip, der im Vollausbau 3/4 der Shader der GTX1070 hat, also 1536 Shader. Chipfläche runtergerechnet vom GP204 könnte knapp unter 200 mm² sein.
Die Salvage-Version könnte dann mit 1280 Shadern oder so kommen.

Hübie
2016-06-13, 00:52:34
Wie schließt du denn vom Interface, dessen Anbindung und gesamte Breite auf den verwendeten VRAM? GDDR5X hat genau so eine Flexibilität wie GDDR5 (clamshell). Das einzig logische wäre GDDR5 um nicht zu nah an die inhouse Konkurrenz heran zu geraten und natürlich die Kosten. Für einigen Millionen Einheiten (4-8 pro PCB) kommen selbst bei nur einem Dollar Differenz nette Sümmchen hier und da zusammen. Und wir wissen dass die Differenz nicht nur $ 1 ist. ;)

Rabiata
2016-06-13, 01:35:20
Wie schließt du denn vom Interface, dessen Anbindung und gesamte Breite auf den verwendeten VRAM?
Ausgangspunkt: Im Link von Troyan (https://www.zauba.com/import-gp106-hs-code.html) auf die Zauba-Datenbank ist von einem GP106 Board mit 6GB die Rede.

Feststellung: 6GB sind 3/4 von 8GB, das würde zu einem 192bit Speicherinterface passen, auch ohne "schiefe" Speicherkonfiguration.
Mit GDDR5 vom selben Typ wäre dann der Speicherdurchsatz 3/4 dessen der GTX 1070, das erscheint für das nächstkleinere Modell nicht verkehrt.
Auch würde damit die ganze GraKa etwas billiger ausfallen als mit 8GB.

Letztlich ist die Shaderanzahl Spekulation meinerseits, weil diese Zahlen recht gut zu dem ganzen "3/4 der GTX 1070" Motiv passen :smile:.

x-force
2016-06-13, 01:40:44
ja wenn man von 6gb ausgeht machen 192 bit natürlich sinn. in dem fall würde dann auch das normale gddr5 langen. bei 128 bit würde ich eher mit 5x rechnen, damit der chip nicht zu unausgewogen wird.

der 106er wird nur tonga schlagen müssen, bei entsprechendem takt sollten dafür 1280 shader reichen. also halber gp104. das hält auch die fläche klein. salvage dann ähnlich zur 950 maxwell.

Rabiata
2016-06-13, 02:09:47
der 106er wird nur tonga schlagen müssen, bei entsprechendem takt sollten dafür 1280 shader reichen. also halber gp104. das hält auch die fläche klein. salvage dann ähnlich zur 950 maxwell.
Ich schätze, Tonga wird so oder so nicht mehr lang relevant bleiben. Mit 359mm² Chipfläche laut Wikipedia bezweifle ich, daß der Chip noch lange hergestellt wird. Da dürfte Polaris nicht teurer, aber rundum besser sein.

Sobald Tonga abverkauft ist, bleibt GP 106 gegen Polaris. Ich spekuliere daß sich GP 106 in Preis und Leistung zwischen die beiden Polaris-Chips setzen könnte.
Polaris 10 wird er unterbieten können, zumindest die 8GB Variante von Polaris 10.
Über Polaris 11 wissen wir noch nicht viel, aber die bisherigen Ankündigungen lassen auf ein Chip-chen schließen, das nochmal eine Klasse unter GP 106 liegt.

Ravenhearth
2016-06-13, 02:57:20
Für Polaris11 sind 20 CUs im Gespräch, was sehr gut zu den spekulierten 120-150mm² passen würde.

Hübie
2016-06-13, 03:57:58
Ausgangspunkt: Im Link von Troyan (https://www.zauba.com/import-gp106-hs-code.html) auf die Zauba-Datenbank ist von einem GP106 Board mit 6GB die Rede.

Feststellung: 6GB sind 3/4 von 8GB, das würde zu einem 192bit Speicherinterface passen, auch ohne "schiefe" Speicherkonfiguration.
Mit GDDR5 vom selben Typ wäre dann der Speicherdurchsatz 3/4 dessen der GTX 1070, das erscheint für das nächstkleinere Modell nicht verkehrt.
Auch würde damit die ganze GraKa etwas billiger ausfallen als mit 8GB.

Letztlich ist die Shaderanzahl Spekulation meinerseits, weil diese Zahlen recht gut zu dem ganzen "3/4 der GTX 1070" Motiv passen :smile:.

Es könnte theoretisch auch GDDR5X sein. Das wollte ich damit sagen. ;)

Dural
2016-06-13, 09:09:17
Im Zauba Link steht das die Karten 192Bit haben, Augen auf ;)

scully1234
2016-06-13, 15:05:22
ja, denn der gp104 ist für nvidia als 1060er zu teuer, wenn es auch ein hoch getakteter 106er tut.
.

Wer sagt dir denn bitte das GP104/150 nicht der selbe Aufbau ist wie GP106/400 , und woher kennst du Nvidias Spielraum fuer den GP104 ?:wink:

Zumal falls er nur als Zwischenloesung agiert ,das sowieso irrelevant ist, und man Chips die nicht die Anforderungen von GP104/200 erfuellen, immer noch verwenden kann.

Maximale Ausbeute bei GP104,einen Gegenspieler fuer RX480, und zudem spaeter noch die Moeglichkeit auf den GP106/400 Core zu Switchen, ist wohl nicht der duemmste Einfall

Hübie
2016-06-13, 15:13:27
Im Zauba Link steht das die Karten 192Bit haben, Augen auf ;)

Noch mal: Wieso muss es dann GDDR5 sein? :confused:

GDDR5X können ebenso an 192 Bit angebunden werden.

scully1234
2016-06-13, 15:15:39
Noch mal: Wieso muss es dann GDDR5 sein? :confused:

.

Jensens Lederjacken sind zu teuer=)

Ne aber glaubst du wirklich der Core braucht selbst mit beschnittenem SI den ''hochpreisigen'' GDDR5X Speicher von der Bandbreite?

Lass den mal +/_ in GTX 980er Gefilden wildern ,und er hat ja auch noch die verbesserte Texturkompression,das duerfte sicher noch mit ordinaeren GDDR5 funktionieren...

Hübie
2016-06-13, 15:20:15
Natürlich wird die kein GDDR5X haben, aber dass erkennt man bestimmt nicht an 192 Bit.;)

scully1234
2016-06-13, 15:21:22
Achso darauf wolltest du hinaus=)

x-force
2016-06-13, 15:29:36
aber genau daran erkennt man es, denn 5x würde zu viel bandbreite an 192bit offerieren.das hat scully schon richtig erkannt.

Mancko
2016-06-13, 15:30:04
Wer sagt dir denn bitte das GP104/150 nicht der selbe Aufbau ist wie GP106/400 , und woher kennst du Nvidias Spielraum fuer den GP104 ?:wink:

Zumal falls er nur als Zwischenloesung agiert ,das sowieso irrelevant ist, und man Chips die nicht die Anforderungen von GP104/200 erfuellen, immer noch verwenden kann.

Maximale Ausbeute bei GP104,einen Gegenspieler fuer RX480, und zudem spaeter noch die Moeglichkeit auf den GP106/400 Core zu Switchen, ist wohl nicht der duemmste Einfall

Ich gehe davon aus, dass es eine 1060, eventuel TI, auf GP104/150 Basis geben wird. Die kommt vermutlich sogar vor dem GP106 und wird zum einen zur Überbrückung genutzt und um noch besser das Performance Segment abzudecken und zum anderen bleibt die m.E. auch mit GP106 vorerst erhalten um den oberen Performance Teil abzudecken. GP106 wird dann ganz klar Mainstream mit kleinerem DIE und vermutlich aber auch mäßigen Taktraten.

scully1234
2016-06-13, 15:45:30
aber genau daran erkennt man es, denn 5x würde zu viel bandbreite an 192bit offerieren.das hat scully schon richtig erkannt.

Huebie ging es nicht darum, sondern er wollte sagen ,das das SI selber keine Rueckschluesse ,auf den verbauten Ram Typ zulaesst,unabhaengig von der Leistung des eigentlichen Chips

Hübie
2016-06-13, 16:01:54
Genug Durchsatz gibt es nach wie vor nicht.

scully1234
2016-06-13, 17:55:08
Kaum spricht man von der Wueste....


https://www.chiphell.com/forum.php?mod=viewthread&tid=1601930&page=1#pid33618431

x-force
2016-06-13, 18:15:00
Genug Durchsatz gibt es nach wie vor nicht.

genug haben kann man nie, oder wie war das ;)

aus nvidias sicht sind 192bit an gddr5 sicherlich genug.

Hübie
2016-06-13, 18:35:07
Man muss ja wirtschaftlicher sein als in den voran gegangen Jahren. Von daher verständlich. Irgendwer muss ja die teuren Fahrzeuge und Gebäude finanzieren. ;)

Enttäuschend finde ich dass HBM2 sich, wenn überhaupt, erst nächstes Jahr durchsetzen wird. Vermutlich eher 2018, wenn die refreshes aufschlagen oder Volta gar für den Desktop kommt.

Troyan
2016-06-14, 12:28:26
Laut Fudzilla soll GP102 näher sein als angenommen: http://www.fudzilla.com/news/graphics/40901-nvidia-gp102-titan-coming-soon

woodsdog
2016-06-14, 12:34:37
1k$ als preispunkt ist ausgeschlossen wenn sich schon die 1080 für 750-800 Prima verkauft.

Troyan
2016-06-14, 12:39:01
In Amerika liegt die GTX1080FE bei $699. Eine GP102 Karte kann also bei $999 liegen...
GTX980TI war $649 gegenüber $999 für Titan X.

woodsdog
2016-06-14, 12:45:39
Das stimmt.
Ich bin über $ <> Eur gestolpert welcher im Kopf hing.

Dural
2016-06-14, 12:47:11
Die Titan wird sicher sogar weit über 1000.- kosten ;)

iuno
2016-06-14, 12:50:04
Da bin ich mir nicht mal so sicher. Vielleicht ist die 1k Marke eine Schwelle, die viele nicht uebertreten wollen.
Die Titan ist auch ganz im Gegensatz zur x80er Serie bisher nicht im Preis gestiegen. Ich denke, die Ti koennte weiterhin deutlich unter 1k kommen und die Titan nur etwas darueber.

Darueber hinaus gibt es zu dem Zeitpunkt vielleicht auch wieder direkte Konkurrenz.

Dural
2016-06-14, 13:16:07
Intel hat gerade ihre Extreme CPU deutlich erhöht, und das ist nur eine CPU ohne Memory, PCB, Kühler. NV wird gleich ziehen.

Zudem die neue Titan, sofern sie bald kommt einige Zeit Konkurenz los sein wird.

N0Thing
2016-06-14, 13:32:00
In Amerika liegt die GTX1080FE bei $699. Eine GP102 Karte kann also bei $999 liegen...
GTX980TI war $649 gegenüber $999 für Titan X.

Das spricht doch nur dafür, dass die nächste Titan deutlich über $999 einsteigen wird und eine 1080Ti dann für um die tausend Dollar, vielleicht nach einer Preissenkung der 1080 auch für $899 kommt.

Godmode
2016-06-14, 13:46:37
Endlich wieder mal Neuigkeiten zu GP102. Eventuell sehen wir das Ding ja wirklich schon im Zeitraum September - November.

Sunrise
2016-06-14, 14:00:50
Da bin ich mir nicht mal so sicher. Vielleicht ist die 1k Marke eine Schwelle, die viele nicht uebertreten wollen.
Die Titan ist auch ganz im Gegensatz zur x80er Serie bisher nicht im Preis gestiegen. Ich denke, die Ti koennte weiterhin deutlich unter 1k kommen und die Titan nur etwas darueber.

Darueber hinaus gibt es zu dem Zeitpunkt vielleicht auch wieder direkte Konkurrenz.
Die Titan könnte durchaus über $999 einsteigen, auch wenn sie "nur" auf GDDR5X setzt, denn bei >450mm² wird das Ding jetzt auch nicht gerade im Sonderangebot zu haben sein. Dass NV da einen Preisaufschlag von 50% schon einkalkuliert hat, sollte inzwischen klar sein.

Sie sind so oder so völlig konkurrenzlos, weil Vega wohl so schnell nicht kommen wird (was sehr schade ist).

NV wird dieses Fenster so gut nutzen wie möglich, nur übertreiben sollten sie es wirklich nicht mit dem Preis, denn dann wird aus den ohnehin wenigen richtigen Hardcore-PC-Gamern nämlich eine Sitzgruppe aus 10 Leuten, denen wirklich Geld völlig egal ist und ausschließlich Leistung zählt.

Es wird für den 10-Core Broadwell-E auch kaum Käufer geben, der Preis ist einfach nur abartig (und das sagt jemand, der damals 1500 DM für einen Slot1 PIII 650MHz Coppermine ausgegeben hat, nur um den bei VÖ direkt zu haben und den auf 825MHz zu übertakten, weil es einfach Spaß gemacht hatte).

Godmode
2016-06-14, 14:54:08
Wenn ich NV wäre, würde ich es folgendermaßen machen: Jetzt mal die ganzen Early-Adopters mit GP104 schröpfen. Dann GP102 als Titan vorstellen und wieder die Early-Adopters schröpfen. Dann die 1080 Ti vorstellen und GP104 im Preis anpassen. Damit würden sie dann bei GP104 eine erneute Kaufwelle auslösen. Titan Im September und die Ti im November. Aja und wenn GP102 wirklich schon im Herbst kommt, dann könnte GV104 schon nächstes Jahr aufschlagen, aber eher auch erst im Herbst.

Rampage 2
2016-06-14, 15:13:14
Meine Schätzungen zum GP106:

- 1280 oder 1536 SPs @ 1.6-1.8 GHz
- 48 ROPs (bei 192Bit-SI)
- 80-96 TMUs
- 192Bit-SI @ 8Gbps GDDR5 (= 192GB/sek. Bandbreite)
- 6GB VRAM und sonst keine anderen Ausbaustufen

Damit wäre das Teil schneller als oder zumindest gleichauf mit der GTX 980...

R2

Hübie
2016-06-14, 16:01:04
Endlich wieder mal Neuigkeiten zu GP102. Eventuell sehen wir das Ding ja wirklich schon im Zeitraum September - November.

Da kannste ein drauf lassen. ;)

MorPheuZ
2016-06-14, 23:09:45
... könnte GV104 schon nächstes Jahr aufschlagen, aber eher auch erst im Herbst.

Denkst du dass Vega der Refresh von Pascal ist? Oder anders gesagt, kriegt Pascal keinen Refresh? Das wäre auch das erste Mal dass dem so währe - im selben Prozess. 2017/18 wird noch eine Iteration nachgeschoben.

AnarchX
2016-06-14, 23:13:22
Volta steht für 2018 auf der Roadmap. 2017 wird wohl höchstens GV100 an HPC-Kunden ausgeliefert, wenn alles im Plan bleibt.
Mit GP102 und >10Gbps GDDR5X sollte man wohl noch in 2017 auskommen.

MorPheuZ
2016-06-14, 23:19:13
2018 hat auch 12 Monate. Wenn Volta eher Ende 18 kommt dann frage ich mich schon... Kommt auch darauf an was die Anderen machen.

Tamagothi
2016-06-14, 23:31:22
GP100 ist grade erst veröffentlicht und GV100 soll nächstes jahr kommen? :ucrazy2:

AnarchX
2016-06-14, 23:36:46
GP100 ist grade erst veröffentlicht und GV100 soll nächstes jahr kommen? :ucrazy2:
10nm wird wohl Anfang 2017 entsprechend reif sein, dass man da $10k GPUs fertigen kann. Mit Summit und Sierra gibt es zwei Supercomputer die mit Volta für 2017 angekündigt sind. Ebenso tauchte GV100 schon neben den GP10x GPUs in CUDA 2015 auf, sodass da wohl durchaus schon Samples existieren.

MorPheuZ
2016-06-14, 23:45:56
Das würde aber heissen dass 16nmFF sehr schnell abgelöst würde. Das habe wir schon anders gehört.

Complicated
2016-06-15, 00:07:55
https://www.olcf.ornl.gov/summit/
Summit will deliver more than five times the computational performance of Titan’s 18,688 nodes, using only approximately 3,400 nodes when it arrives in 2017. Like Titan, Summit will have a hybrid architecture, and each node will contain multiple IBM POWER9 CPUs and NVIDIA Volta GPUs all connected together with NVIDIA’s high-speed NVLink.Online geht er dann 2018, doch Volta wird in 2017 ausgeliefert.

Hübie
2016-06-15, 03:14:04
Korrekt. GP100 dient als Programmiergrundlage und zum Training des neuronalen Netzwerkes. GP100 Frühjahr '16, GV100 Spätherbst '17. Für Gamer: 0,0 Relevanz.
Pascal erhält mit Sicherheit ein Refresh. ;);) Aber erst mal wird das lineup 2016 vervollständigt.

Hakim
2016-06-15, 17:27:13
Wann könnte man eigentlich mit einer Ankündigung oder konkreten Informationen zum GTX1060 Rechnen, auffallend ruhig geworden um die Karte. Nicht das NV das erst am 28. Juni machen will :)

Sunrise
2016-06-15, 17:44:18
Das würde aber heissen dass 16nmFF sehr schnell abgelöst würde. Das habe wir schon anders gehört.
Schnell ist relativ, aber für HPC ist mehr Fläche entscheidend. Der Preis ist erstmal nebensächlich.

Skysnake
2016-06-15, 17:55:29
Ähmmm...

Not.

Also selbst da ist der Preis ganz sicherlich nicht nebensächlich, so lange es sich nicht um irgendwelche Prestigeprojekte handelt.

Hübie
2016-06-15, 18:49:35
Na du hast halt ein Budget in dass du das beste rein packen musst. Wenn du (übertrieben) mit zwei Chips á 150.000 € 50 TFLOPs erreichen kannst und im Gegenzug 50 á 3.000 € dann nimmst du genau welchen...? Richtig. ;)

Edit: Natürlich kommen in der Praxis so Sachen wie ecosystem dazu.

Die 1060 ist übrigens so interessant wie Birkenrinde. Schrottgurken interessieren hier keinen *auf-Logo-stiel*:sneak::ueye:

Sunrise
2016-06-15, 18:52:59
@Hübie:
Richtig, genau so wars gemeint. Bei $150k US und der entsprechenden Mehrleistung darfs auch mehr kosten, solange man damit durch die Fläche und weiterer Eigenschaften deutlich schneller wird.

Godmode
2016-06-15, 20:45:28
Die 1060 ist übrigens so interessant wie Birkenrinde. Schrottgurken interessieren hier keinen *auf-Logo-stiel*:sneak::ueye:

Eventuell sollte man Thread hier aufteilen, weil ich gucke auch immer hier rein und dann kommt wieder was zu 106, was mich Null interessiert. Wenn das gewünscht wird, kann ich das später machen.

woodsdog
2016-06-15, 21:12:27
lol - wie traaaaagisch...! :rolleyes:

Wenn eine TI/Titan so halbwegs absehbar ist gerne, ansonsten ist das halt "pascal" auch wenn es uninteressant ist.

und mal ehrlich... im PC-Spiele Forum redet man seit Jahren wegen der mittlerweile dusselige Aufteilung der Sub-foren gegen eine Wand... Im AMD Forum bleiben auch nach wiederholter Nachfrage halt einfach trotzdem threads mit Infos aus 2003-2011 gepinnt obwohl z.B. mit dem mit viel Aufwand gepflegtem FreeSync-TFT Thread ein qualitativ hochwertiger, informativer Kandidat liegen würde....

Was soll das Ziel sein?
- GP106 Specu Thread
- GP102 Specu Thread
- Pascal allgemein Specu Thread

Dann bitte auch für div AMD.

Unsinn IMO. Gäbe wichtigeres zu moderieren.

Hakim
2016-06-15, 22:31:08
Dann mach und teil auf, ist ja schlimm wenn sich Leute genötigt fühlen kund zugeben das ihnen der jeweilige Pascal nicht interessiert wenn man eine frage stellt.

Godmode
2016-06-16, 06:44:08
@Hakim, da ich zu GP106 nichts weiß, kann ich auch nichts dazu schreiben. Ich dachte es wäre die Leute hilfreich wenn man das aufteilt, daher mein Einwand. Das war jetzt wirklich nicht Böse gemeint, auch wenn es sich vielleicht so angehört hat.

GP102: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=573848

GP106: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=573847

Dural
2016-06-16, 10:00:16
Schnell ist relativ, aber für HPC ist mehr Fläche entscheidend. Der Preis ist erstmal nebensächlich.

Die fläche bleibt immer gleich, die dichte wird höchstens anders. ;)

Sunrise
2016-06-16, 10:31:04
Die fläche bleibt immer gleich, die dichte wird höchstens anders. ;)
Du hast mehr effektiven Platz/Fläche (durch die höhere Dichte, daher mehr Platz/Fläche für Transistoren), so ist das gemeint. Ist eben etwas umgangssprachlicher ausgedrückt. Die Maße des Die, die maximale Fläche die du meinst wird vom Reticle der Fab bestimmt, die bleibt in der Regel natürlich identisch. Wenn es um Rechenpower (HPC) geht, dann willst du möglichst Dicht und soviel reinpacken wie nur irgendwie möglich (TDP-Limit etc. natürlich berücksichtigt, was aber durch den Takt begrenzt werden kann), bis nahe zum Reticle-Limit, da dafür auch min. Preise bezahlt werden, die der Leistungssteigerung entspricht. Das sieht man am Besten bei Intel, die mit Knight Landing einen extrem großen Die auf 14nm produzieren.

Im Prinzip ist es in diesem Sektor komplett egal, wo und wie NV fertig, wenn das Ergebnis deutlich schneller und auch in anderen Bereichen besser ist. Noch deutlich mehr wird gezahlt, wenn kein Konkurrent Ähnliches bieten kann. Man arbeitet sich somit sukzessive in Preisregionen, die mit tatsächlichen Kosten fast nichtsmehr zu tun haben, und da verdient es sich dann richtig gutes Geld, sofern du garantierte Abnehmer dafür hast, und die Kalkulation insgesamt ein fettes Plus erwarten lässt, was bei NV der Fall ist.

Ob GV100 wirklich 10nm ist, ist meines Wissens aktuell aber immernoch unklar, wahrscheinlich eher nicht. Denn eventuell verdient NV auch einfach mehr, wenn sie die Großkunden jetzt erst mit P100 bedienen, damit sie eine Basis aufbauen können und dann wenn die Ausbeute auf 16nm bei >600mm² besser ist, sie alles über Anpassungen der Architektur usw. regeln und wirklich in höheren Mengen liefern können, weil der Prozess dann gereifter ist. Denn dieser Zeitplan ist recht eng gewählt (spricht für 16nm) und selbst Intel wird da nicht aufholen können. Das Risiko bei zwei Chips pro Node ist auch geringer, vor allem bei diesen Monstern die mit den neuesten Technologien aufwarten können. Die Verzögerungen bei Knight Landing sprechen Bände.

DiceZ
2016-06-16, 19:51:31
Hi zusammen,

ich habe eine etwas allgemeinere Frage, falls das hier vollkommen falsch ist möge es bitte jemand verschieben.

Ich verfolge jetzt schon länger die Diskussionen um die neue GK-Generation und über das Thema Speicherinterfaces wird ja immer mal wieder spekuliert.

Dabei wird ein 256Bit Interface für z.B. eine GTX1060 hier und da auch als "teuer" für die Preisklasse bezeichnet.

Wie kommt das?
Hat sich bei der Komplexität/den Kosten mit den neuen Chips und Speichertypen viel verändert? War Bandbreite bei den älteren DirectX Versionen noch wichtiger als heute?

Oder sind die heutigen "70er" Karten das was früher einmal die "60er" waren?

Ich selbst habe/hatte hier z.B.:

9600GT -> 256Bit (nur noch als Erinnerung)
GTX260 -> 448Bit (noch da, bzw. in der Familie)
GTX460 -> 256Bit (in meinem Rechner)

Ich bin mir nicht mehr sicher was ich damals bezahlt hab, aber bei der 460 waren es definitiv <200€

Seit der GTX460 habe ich die Entwicklung bei Hardware und APIs kaum noch verfolgt und die Karte steck immernoch im Rechner, aber das kam mir irgendwie merkwürdig vor.

Die GTX1070 hat 6(?) Jahre nach der GTX460 immerhin (oder gerade mal?) etwas mehr als das doppelte an Bandbreite...

Das ist irgendwie mehr Text geworden als geplant, ich hoffe man kann erkennen was ich meine...

Gruß
DiceZ

Skysnake
2016-06-16, 20:33:28
Du hast mehr effektiven Platz/Fläche (durch die höhere Dichte, daher mehr Platz/Fläche für Transistoren), so ist das gemeint. Ist eben etwas umgangssprachlicher ausgedrückt. Die Maße des Die, die maximale Fläche die du meinst wird vom Reticle der Fab bestimmt, die bleibt in der Regel natürlich identisch. Wenn es um Rechenpower (HPC) geht, dann willst du möglichst Dicht und soviel reinpacken wie nur irgendwie möglich (TDP-Limit etc. natürlich berücksichtigt, was aber durch den Takt begrenzt werden kann), bis nahe zum Reticle-Limit, da dafür auch min. Preise bezahlt werden, die der Leistungssteigerung entspricht. Das sieht man am Besten bei Intel, die mit Knight Landing einen extrem großen Die auf 14nm produzieren.

Im Prinzip ist es in diesem Sektor komplett egal, wo und wie NV fertig, wenn das Ergebnis deutlich schneller und auch in anderen Bereichen besser ist. Noch deutlich mehr wird gezahlt, wenn kein Konkurrent Ähnliches bieten kann. Man arbeitet sich somit sukzessive in Preisregionen, die mit tatsächlichen Kosten fast nichtsmehr zu tun haben, und da verdient es sich dann richtig gutes Geld, sofern du garantierte Abnehmer dafür hast, und die Kalkulation insgesamt ein fettes Plus erwarten lässt, was bei NV der Fall ist.

Ob GV100 wirklich 10nm ist, ist meines Wissens aktuell aber immernoch unklar, wahrscheinlich eher nicht. Denn eventuell verdient NV auch einfach mehr, wenn sie die Großkunden jetzt erst mit P100 bedienen, damit sie eine Basis aufbauen können und dann wenn die Ausbeute auf 16nm bei >600mm² besser ist, sie alles über Anpassungen der Architektur usw. regeln und wirklich in höheren Mengen liefern können, weil der Prozess dann gereifter ist. Denn dieser Zeitplan ist recht eng gewählt (spricht für 16nm) und selbst Intel wird da nicht aufholen können. Das Risiko bei zwei Chips pro Node ist auch geringer, vor allem bei diesen Monstern die mit den neuesten Technologien aufwarten können. Die Verzögerungen bei Knight Landing sprechen Bände.

Dann schau aber auch mal bitte, was die Top500 Rechner so verbaut haben. Da wirste gerade bei den großen eher nicht die Vollausbauten der CPUs finden. Oft sogar nicht mal die HighCoreCount Chips, sondern etwas aus dem Mittelfeld. Das hat auch seine Gründe. Heutige High-End-CPUs haben ein genau so mießes Flops/Byte Verhältnis wie GPUs...

Musste ich dieses Jahr erst schmerzlich feststellen.

Hübie
2016-06-17, 00:28:48
Hi zusammen,

ich habe eine etwas allgemeinere Frage, falls das hier vollkommen falsch ist möge es bitte jemand verschieben.

Ich verfolge jetzt schon länger die Diskussionen um die neue GK-Generation und über das Thema Speicherinterfaces wird ja immer mal wieder spekuliert.

Dabei wird ein 256Bit Interface für z.B. eine GTX1060 hier und da auch als "teuer" für die Preisklasse bezeichnet.

Wie kommt das?
Hat sich bei der Komplexität/den Kosten mit den neuen Chips und Speichertypen viel verändert? War Bandbreite bei den älteren DirectX Versionen noch wichtiger als heute?

Oder sind die heutigen "70er" Karten das was früher einmal die "60er" waren?

Ich selbst habe/hatte hier z.B.:

9600GT -> 256Bit (nur noch als Erinnerung)
GTX260 -> 448Bit (noch da, bzw. in der Familie)
GTX460 -> 256Bit (in meinem Rechner)

Ich bin mir nicht mehr sicher was ich damals bezahlt hab, aber bei der 460 waren es definitiv <200€

Seit der GTX460 habe ich die Entwicklung bei Hardware und APIs kaum noch verfolgt und die Karte steck immernoch im Rechner, aber das kam mir irgendwie merkwürdig vor.

Die GTX1070 hat 6(?) Jahre nach der GTX460 immerhin (oder gerade mal?) etwas mehr als das doppelte an Bandbreite...

Das ist irgendwie mehr Text geworden als geplant, ich hoffe man kann erkennen was ich meine...

Gruß
DiceZ

Das ist eine gute Frage. Die kann man auch nicht mit nur einem Punkt abarbeiten.
Oberflächlich beantwortet: Das sind zum einen Kostenfragen und zum anderen eine Frage aus technischen Kompromissen. Ein 256 Bit Interface bspw. besteht aus (2*32)*4 Controller und die müssen entsprechend mit allen GPC verdrahtet werden. Dann ist eben die Entscheidung ob die Transistoren* nicht auch in eine Kompression besser investiert werden und ob die ROPs überhaupt so viel Bandbreite ausnutzen können (ich schiele da zu GF110 mit der ...äh 48 Bit Exportschwäche glaub ich war das).
So ein Unternehmen wie NVIDIA ist ein kleiner Fisch im Haifischbecken und entsprechend müssen die immer zusehen stakeholder wie auch shareholder gleichermaßen zu befriedigen, was uns zu ganz irdischen Bedürfnissen führt. Kunden interessiert es häufig überhaupt nicht was die Zahlen da bedeuten, sondern wollen einfach dass deren aktuelles Bedürfnis befriedigt wird.

Ich hoffe das reicht dir als Statement. Sonst schnacken wir gern noch über Details oder Ergänzungen. :smile:

*Die Kosten pro Transistor steigen kontinuierlich an. Damals war es eventuell wirtschaftlicher den Platz "zu opfern".

=Floi=
2016-06-18, 14:06:15
was macht denn pascal eigentlich so schnell?

die 1070er hat schlappe 6,5gflop und bügelt alles alte nieder. wo lag vorher noch der bottleneck und warum steigt die shaderlast nicht extremer?

dildo4u
2016-06-18, 14:16:56
Das die 1070 besser läuft liegt an der Shaderlast neuerer Games,sie hat mehr Rechenleistung als Titan X.Je stärker die Games für AMD GPU's optimiert werden um so eher wird sich Pascal von Maxwell absetzen.

Star Wars liegt z.b Fury X und Pascal sehr gut,das wäre ein Beispiel für ein Game was massiv für die Konsolen optimiert wurde damit es dort mit 60fps läuft.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72805-evga-gtx-1080-sc-acx-3-0-review-7.html

Dural
2016-06-20, 09:20:00
jetzt fehlen nur noch die video ausgänge und einen passenend treiber und ich wäre zu frieden :biggrin:

Pascal-Flaggschiff jetzt als 250-Watt-PCIe-Lösung

http://www.computerbase.de/2016-06/nvidia-tesla-p100-pascal-flaggschiff-250-watt-pcie/


intressant: nv bringt auch eine 12GB version.

edit:
nur 1300MHz GPU takt.

edit2:
sehe ich richtig, sind das löt punkte auf dem PCB bei der slot blende? PCB wohl schon ready für quadro und geforce karten :biggrin:

Godmode
2016-06-20, 09:35:32
jetzt fehlen nur noch die video ausgänge und einen passenend treiber und ich wäre zu frieden :biggrin:



http://www.computerbase.de/2016-06/nvidia-tesla-p100-pascal-flaggschiff-250-watt-pcie/


intressant: nv bringt auch eine 12GB version.

edit:
nur 1300MHz GPU takt.

edit2:
sehe ich richtig, sind das löt punkte auf dem PCB bei der slot blende? PCB wohl schon ready für quadro und geforce karten :biggrin:

Und was willst du mit mikrigen 9 TFlops, wenn die 1080 auch schon 9 schafft? Das Ding hat viel zu wenig FP32 Rechenleistung für Spieler. Somit ist es noch klarer, warum sie GP102 brauchen.

Interessant wäre GP100 nur, wenn man das BIOS unlocken könnte und mit einem Wasserkühler 400W fahren könnte. Dann wären eventuell auch höhere Taktraten möglich. Mit 1,7 GHz wären es immerhin 35% mehr, auf die Stock 1080.

Kartenlehrling
2016-06-20, 09:56:47
Werden die kommenden HDR, Schatten und Anti-Aliasing nicht teilweise mit Half Precision FP16 abgearbeite, da sind doch 18,7 TFLOPS schon viel.

Make sure your rendering pipeline supports PBR and floating point surface formats right until the end of the frame.

y33H@
2016-06-20, 10:19:47
intressant: nv bringt auch eine 12GB version.Ja, das sind die mit einem Treffer im Package ^^

iuno
2016-06-20, 10:23:00
Warum nennen die die Steckkarte jetzt wie das Modul auch P100? :facepalm:

Ich finde GP100 sieht neben GP104 schon etwas enttauschend aus. Klar gibt es verhaeltnismaessig viel FP16 und FP64 Leistung, aber FP32 ist halt relativ gesehen eher schwach bei der TDP. GP104 schafft an die 50 FP32 FLOPs/Watt, GP100 nicht mal 40. Ineffizienter trotz HBM, und von NVLink profitiert man ja bei der PCIe Karte auch nicht. Dass der grosse Chip ineffizienter ist war bei Kepler (GK104 vs GK110) auch nicht der Fall.
Bei AMD war FP64/FP32 nicht annaehernd so teuer. Ich bin gespannt, ob die FP16 auch noch hinbekommen bei Vega.

Interessant ist, dass es auch salvage mit nur 3 Stacks gibt. Das Ding hat dann aber schon auch (noch) weniger Recheneinheiten oder etwa nicht?

Sunrise
2016-06-20, 10:24:11
jetzt fehlen nur noch die video ausgänge und einen passenend treiber und ich wäre zu frieden :biggrin:

http://www.computerbase.de/2016-06/nvidia-tesla-p100-pascal-flaggschiff-250-watt-pcie/

edit:
nur 1300MHz GPU takt.
Wie Godmode schon geschrieben hat, was willst du mit einem HPC-Chip, der nicht mehr Gaming-Leistung hat als GP104 und für den du dann auch noch deutlich mehr zahlen wirst? GP100 ist ein ziemlicher FP32-Leistungskrüppel, jeder GP102 oder theoretisch noch größer, aber optimiert für FP32 wäre meilenweit schneller.

GP100 ist absolut unbrauchbar für Gaming, wie schon mehrmals geschrieben. Für den Preis bekommst du wahrscheinlich fast zwei 1080er.

Skysnake
2016-06-20, 10:30:15
Warum nennen die die Steckkarte jetzt wie das Modul auch P100? :facepalm:

Ich finde GP100 sieht neben GP104 schon etwas enttauschend aus. Klar gibt es verhaeltnismaessig viel FP16 und FP64 Leistung, aber FP32 ist halt relativ gesehen eher schwach bei der TDP. GP104 schafft an die 50 FP32 FLOPs/Watt, GP100 nicht mal 40. Ineffizienter trotz HBM, und von NVLink profitiert man ja bei der PCIe Karte auch nicht.

Habe ich schon vorhergesagt, als die erstne Projektionen zu Pascal mit NVLink-Details bekannt wurden.

Derartige Links sind halt nicht umstonst.

Complicated
2016-06-20, 10:38:10
Warum nennen die die Steckkarte jetzt wie das Modul auch P100? :facepalm:


Bei AMD war FP64/FP32 nicht annaehernd so teuer. Ich bin gespannt, ob die FP16 auch noch hinbekommen bei Vega.
@P100
Ich vermute es soll einfach zeigen, dass es keine Gaming-Variante geben wird. Daher das fehlende G auch bei der PCIe-Version, die ja ebenfalls für HPC ist, nur eben für Standard-PCIe-Slots.

@FP16
Ich glaube davon kann man ausgehen, da Fiji schon Verbesserungen bei FP16 enthielt. Da wird AMD auch den Schritt zu Ende gegangen sein, schätze ich:
http://www.anandtech.com/show/10209/amd-announces-firepro-s9300-x2
And though the S9300 X2’s FP16 throughput is merely equal to its FP32 throughput, internally Fiji supports natively storing FP16 data types, which will significantly reduce register pressure on the card, and register pressure is almost always a concern for HPC kernel development.

iuno
2016-06-20, 10:56:23
Dass sie das "G" weglassen hat damit nichts zu tun, der Chip heisst trotzdem "GP100".
Die Teslas hiessen vorher K20, K40(X), K80, M4, M40 etc. und jetzt eben "P100" und "P100 for PCIe". Haette halt einen eigenen Namen besser gefunden, etwa "P90" oder auch "P100 X" oder eine groessere Zahl fuer das NVLink Modul. Aber da waren die Bezeichnungen ja auch vorher nicht ganz klar...

Troyan
2016-06-20, 11:01:41
Warum nennen die die Steckkarte jetzt wie das Modul auch P100? :facepalm:

Ich finde GP100 sieht neben GP104 schon etwas enttauschend aus. Klar gibt es verhaeltnismaessig viel FP16 und FP64 Leistung, aber FP32 ist halt relativ gesehen eher schwach bei der TDP. GP104 schafft an die 50 FP32 FLOPs/Watt, GP100 nicht mal 40. Ineffizienter trotz HBM, und von NVLink profitiert man ja bei der PCIe Karte auch nicht. Dass der grosse Chip ineffizienter ist war bei Kepler (GK104 vs GK110) auch nicht der Fall.
Bei AMD war FP64/FP32 nicht annaehernd so teuer. Ich bin gespannt, ob die FP16 auch noch hinbekommen bei Vega.

Interessant ist, dass es auch salvage mit nur 3 Stacks gibt. Das Ding hat dann aber schon auch (noch) weniger Recheneinheiten oder etwa nicht?

GP100 ist ein vollkommen anderes Biest als GP10x. Der Aufbau unterscheidet sich deutlich. Angefangen von den Interfaces, über HBM bis hin zum internen Aufbau des Chips. Er ist reiner Chip für den HPC Markt.

GP10x sind dagegen auf FP32 Berechnungen ausgelegt.

iuno
2016-06-20, 11:10:05
you don't say...

Trotzdem kann man sagen, dass durch die HPC goodies die Effizienz deutlich leidet und NVLink ist bei der Steckkarte nicht mal nutzbar. Die Einbussen ueberraschen etwas erklaeren aber deutlich, dass sie fuer den Rest noch GP102 brauchen.

Troyan
2016-06-20, 11:12:51
Wo drunter leidet? GP100 ist nicht für FP32 Märkte gedacht. Es macht keinen Sinn, die Effizienz in Anwendungsgebiete zu betrachten, für die der Chip nicht designt wurde.

GP102 ist einfach ein 1,5x größerer GP104. Der Aufwand ist "minimal" für einen zusätzlichen Chip.

Hübie
2016-06-20, 13:07:19
Es gibt dennoch genügend Anwendungsgebiete wo die FP32-Leistung abgerufen wird. Oder willst du darüber streiten? :|
Wie immer is das mit einem trade-off verbunden und GP100 ist eben nur vorrangig, mit dem erklärten Ziel neuronale Netzwerkberechnungen effizienter zu berechnen, designed worden. Nicht explizit. Kannst ja mal beim DFKI anrufen und fragen ob du damit herumspielen darfst. :P

deekey777
2016-06-20, 14:52:59
Faule Wissenschaftler verwenden immer FP64.

Ich verstehe jetzt nicht, was jetzt hier abgeht. Jemand schreibt einfach ohne weiterzudenken, dass er die P100 als Gamer-Grafikkarte wünscht, nicht mehr.


Lang ist es her, aber schon beim RV670 warb AMD ausdrücklich mit dem bzw. für den Mixed-Mode, um die bestmögliche Leistung zu bekommen.

Und jetzt was sinnvolles:

Die FX5800 Ultra war die erste Grafikkarte mit GDDR2 (die normale hatte DDR2, hatte kein gutes Ende, auch die 9800 Pro 256 DDR2 war nicht deer Bringer), 2004 setzten beide Hersteller mit GDDR3. Dann war es AMD der Vorreiter mit GDDR4 (Radeon X1950 XTX), GDDR5 (HD4870) und HBM (Fury X). Jetzt ist es wieder Nvidia mit GDDR5X (GTX1080) und HBM2 (P100).

Dural
2016-06-20, 15:17:45
du unterstellt mir das ich meine aussage ohne nach zu denken gepostet habe?

in wahrheit bin ich hier offensichtlich der einzige der denken kann. :rolleyes:
den ich fresse einen bessen das GP102 jeweils mit max OC an den GP100 ran kommen kann. GP100 wird ziemlich sicher 1:1 mit jedem MHz GPU Takt skalieren, das wird man mit GP102 wie auch GP104 vergessen können. Man hat mit dem ding qausi Bandbreite ohne ende, zudem könnten die 64SP ALUs und das Cache System sogar effektiver Arbeiten.

NV Link und DP können sie von mir aus deaktivieren, interessiert mich nicht.

Das ding dürfte bei ca. 1800MHz schon ca. 50% schneller sein als eine 1080. :rolleyes: Natürlich mit den 3840SP gerechnet.

Einziger Nachteil, GP100 könnte schon deutlich weniger OC Takt mit machen, dazu gibt es aber 0,0 Infos. DIe Zukunft wird es zeigen, oder auch nicht.

Zergra
2016-06-20, 15:24:13
Jetzt ist es wieder Nvidia mit GDDR5X (GTX1080) und HBM2 (P100).
Das mit HBM2 ist aber nur eine Vermutung. Da es die Karte erst dann zu kaufen gibt. Wenn du auf Ankündigungen anspielst wäre es wieder AMD. Denn HBM2 ist dort schon länger in der Roadmap. Also warten wir lieber auf den Release :rolleyes:

Godmode
2016-06-20, 15:59:40
du unterstellt mir das ich meine aussage ohne nach zu denken gepostet habe?

in wahrheit bin ich hier offensichtlich der einzige der denken kann. :rolleyes:
den ich fresse einen bessen das GP102 jeweils mit max OC an den GP100 ran kommen kann. GP100 wird ziemlich sicher 1:1 mit jedem MHz GPU Takt skalieren, das wird man mit GP102 wie auch GP104 vergessen können. Man hat mit dem ding qausi Bandbreite ohne ende, zudem könnten die 64SP ALUs und das Cache System sogar effektiver Arbeiten.

NV Link und DP können sie von mir aus deaktivieren, interessiert mich nicht.

Das ding dürfte bei ca. 1800MHz schon ca. 50% schneller sein als eine 1080. :rolleyes: Natürlich mit den 3840SP gerechnet.

Einziger Nachteil, GP100 könnte schon deutlich weniger OC Takt mit machen, dazu gibt es aber 0,0 Infos. DIe Zukunft wird es zeigen, oder auch nicht.

GP100 wird wohl aufgrund der hohen Packdichte weniger Takt mitmachen. Da GP102 aber wohl nur GP104 * 1,5 ist, wird dieser ähnliche Taktraten schaffen, natürlich nur mit entsprechendem Board und höherem Powertarget. Ein Stock GP102 wird wohl etwas niedriger Takten, als GP104.

Ob die feinere Granularität der 64 SP ALUs bei Spielen mehr bringt, muss sich wohl auch erst zeigen. Ich gehe davon aus, dass das bei Spielen nicht ein besonders großer Vorteil ist, sonst hätte man das auch bei GP104 gebracht. Ich wüsste jetzt außerdem nicht, das GP104 irgendwo Bandbreitenlimitiert ist?

reaperrr
2016-06-20, 16:51:31
Und was willst du mit mikrigen 9 TFlops, wenn die 1080 auch schon 9 schafft? Das Ding hat viel zu wenig FP32 Rechenleistung für Spieler. Somit ist es noch klarer, warum sie GP102 brauchen.

Naja, diese 9-TFLOP-Karte ist ja auch für den Profi/HPC Einsatz.

Für Spieler hätten sie theoretisch noch die Möglichkeit von Vollausbau (immerhin +7% pro MHz) und wieder 300W TDP (sollte den Takt der NVLink-Variante erlauben). Für eine Titan würde das vermutlich noch gerade so reichen, dank HBM2.

Aber GP102 macht natürlich trotzdem viel mehr Sinn, da ein GP104 * 1,5 logischerweise fast die 1,5-fache Leistung der GTX1080 in 270W TDP bei unter 500mm² schaffen sollte, was natürlich viel effizienter ist als GP100 für Desktop aufzulegen.

Troyan
2016-06-20, 20:31:02
Pascal im Notebook von Clevo auf der Computex: http://forums.anandtech.com/showpost.php?p=38270681&postcount=3949

Mehr News dazu: http://videocardz.com/61256/nvidia-geforce-gtx-1080m-to-feature-2048-cuda-cores

45% schneller als die 9090 der RX 470 - um das mal Einzuordnen.

Kriton
2016-06-20, 22:05:53
Faule Wissenschaftler verwenden immer FP64.

Ich verstehe jetzt nicht, was jetzt hier abgeht. Jemand schreibt einfach ohne weiterzudenken, dass er die P100 als Gamer-Grafikkarte wünscht, nicht mehr.


Lang ist es her, aber schon beim RV670 warb AMD ausdrücklich mit dem bzw. für den Mixed-Mode, um die bestmögliche Leistung zu bekommen.

Und jetzt was sinnvolles:

Die FX5800 Ultra war die erste Grafikkarte mit GDDR2 (die normale hatte DDR2, hatte kein gutes Ende, auch die 9800 Pro 256 DDR2 war nicht deer Bringer), 2004 setzten beide Hersteller mit GDDR3. Dann war es AMD der Vorreiter mit GDDR4 (Radeon X1950 XTX), GDDR5 (HD4870) und HBM (Fury X). Jetzt ist es wieder Nvidia mit GDDR5X (GTX1080) und HBM2 (P100).

GDDR5 gab es auch bei der 4850 (neben der DDR-Variante).

http://www.computerbase.de/2009-06/kurztest-gainward-radeon-hd-4850-gs-glh-und-gs-1gb/

Hübie
2016-06-21, 03:09:47
du unterstellt mir das ich meine aussage ohne nach zu denken gepostet habe?

in wahrheit bin ich hier offensichtlich der einzige der denken kann. :rolleyes:
den ich fresse einen bessen das GP102 jeweils mit max OC an den GP100 ran kommen kann. GP100 wird ziemlich sicher 1:1 mit jedem MHz GPU Takt skalieren, das wird man mit GP102 wie auch GP104 vergessen können. Man hat mit dem ding qausi Bandbreite ohne ende, zudem könnten die 64SP ALUs und das Cache System sogar effektiver Arbeiten.

NV Link und DP können sie von mir aus deaktivieren, interessiert mich nicht.

Das ding dürfte bei ca. 1800MHz schon ca. 50% schneller sein als eine 1080. :rolleyes: Natürlich mit den 3840SP gerechnet.

Einziger Nachteil, GP100 könnte schon deutlich weniger OC Takt mit machen, dazu gibt es aber 0,0 Infos. DIe Zukunft wird es zeigen, oder auch nicht.

Ich klopfe mir schon auf die Finger, aber kanns nicht lassen:
https://abload.de/img/lasergehirnv4xbu.png (http://abload.de/image.php?img=lasergehirnv4xbu.png)
:freak:

Ich hab wirklich keine Ahnung auf welchen Planeten du lebst. A) Gibt es keinen Vollausbau. B) ist deine Aussage schwammig. Wann genau soll ein GP102 nicht an GP100 rankommen? Spiele? Benchmarks? GP102 @OC, GP100 @Stock? Drück dich mal klarer und deutlicher aus!
Mein GM200 dürfte mit 2100 MHz auch schneller sein als GP104. Und nun? :rolleyes: Wo bleibt denn jetzt dein Denken? Ich sehe es nicht. Tut mir leid. Vielleicht denke ich zu wenig.

ps:
den ich fresse einen bessen
MMD. :freak:

@deeky777: Was sollte jetzt die Geschichtsstunde darstellen? :|

Skysnake
2016-06-21, 09:16:21
Mehr News dazu: http://videocardz.com/61256/nvidia-geforce-gtx-1080m-to-feature-2048-cuda-cores

45% schneller als die 9090 der RX 470 - um das mal Einzuordnen.
Die eine kupferfarbene Heatpipe sieht jetzt aber nicht so aus, als ob die von Anfang an so geplant gewesen wäre. :freak:

Ist das die GPU oder die CPU wo die drauf hockt?

EDIT: Ist die CPU. Ich habe den MXM Anschluss gefunden ;)

Welchen Sinn soll das bitte machen? Wird der GPU Kühler etwa so warm, und man will die CPU aufheizen? :ugly:

iuno
2016-06-21, 10:00:58
Ja, ist die CPU.
Naja, welchen Sinn soll das haben? Die CPU wird offenbar zu warm, und der linke Kuehler allein bekommt das nicht in gewuenschter Weise weg. Kurzer Blick ins ARK sagt, dass mobile Skylakes max. 45 W TDP haben, aber es wurden ja auch schon desktop CPUs in Notebooks verbaut, vielleicht sehen wir sowas hier.
Oder einfach OC. Skylake geht ja so schon gerne auch mal ueber die TDP hinaus.

Wenn man wuesste, was fuer eine CPU genau zum Einsatz kommt, koennte man so vielleicht auch grob auf den Verbrauch der 1080M schliessen ;p

Skysnake
2016-06-21, 11:25:28
For comparison, the next large acquisition of supercomputers for the US Department of Energy will not be until 2017 with production beginning in 2018. The US Department of Energy schedule is for a planned 200 Pflop/s machine called Summit at Oak Ridge National Lab by early 2018, a planned
150 Pflop/s machine called Sierra at Lawrence Livermore National Lab by mid - 2018, and a planned
180 Pflop/s machine called Aurora at Argonne National Lab in late 2018. (http://www.netlib.org/utk/people/JackDongarra/PAPERS/sunway-report-2016.pdf)

Also entweder ist P100 doch nicht so toll wie nVidia das verlautbaren lässt, oder irgend etwas anderes liegt im Busch. PizDaint soll dieses Jahr ja noch eine Aufrüstung auf P100 bekommen. Da ziemlich sicher in der PCI-E Variante, weil man das ja in eine Cray steckt.

Alles was da 2017 und eventuell sogar schon 2016 kommen wird, sind also eher "kleine" Testcluster, aber keine wirklich großen Brummer in den USA. Und man muss sich ja mal anschauen, wie alt die großen Kisten in den USA jetzt schon sind! Da wartet man nicht unbedingt länger als man muss.

Ich will son Ding mal in die Finger bekommen und eigene Erfahrungen machen....

EDIT:
Und Preise für P100
http://www.nextplatform.com/2016/06/20/nvidia-rounds-pascal-tesla-accelerator-lineup/

NVLink 10,5k$ PCI-E 5,5K$

Also NVLink ist ja mal echt ein "Schnapper"....

Wer will das Ding bitte zu den Preise haben? Sorry, aber sooo viel bringt NVLink nie und nimmer. Zu den Preisen ist das eine Totgeburt meiner Meinung nach.

EDIT2:
Slidecast zu P100 (http://insidehpc.com/2016/06/tesla-p100/)

Hübie
2016-06-21, 13:59:30
Hm? Hast du nicht mitbekommen, dass Pascal der Testballon für Volta is? Man bereitet auf dieser Hardwarebasis die Software und Hardware-Integration vor. "Mehr" nicht (Mehr in Anführungszeichen weil du sicher weißt was für eine Scheißarbeit das ist:D).

Also nein: Pascal is nich so toll.

Edit: Auch wenn du es dir nicht vorstellen kannst, ist Pascal - also P100 - schon jetzt ein Erfolg. Ich weiß, dass es krank ist. Aber in Instituten, Unis und großen Unternehmen sitzt das Geld hier locker. Die Europäer sind da noch etwas verbohrter.

Skysnake
2016-06-21, 14:04:53
Wenn den Institutionen das Geld "locker" sitzen würde, dann hätten wir große Testballons mit Pascal und nicht so kleine Dinger, wie man aktuell erwarten darf. Was sind schon hundert nodes oder so?

Vor allem, nur weil es Testsysteme gibt, heist das noch lange nicht, das man später mit Volta dann große Systeme sicher sehen wird. Gut ein zwei ja, aber das kann sich auch noch ändern....

NVLink stößt nämlich wohl bei so manch einem auf ziemliche Enttäuschung....

Hübie
2016-06-21, 14:14:30
Das erklärte Ziel steht in meinem Posting oben. Den Rest erledigt Volta. ;)

Skysnake
2016-06-21, 14:24:28
Wenn man aber zu sehr den Jubelperser macht, und dann in den Testsystemen sich nicht zeigt, dass das Prinzipiell gut ist, dann kann das eben auch schnell dazu führen, das es eben genau dabei auch bleibt. Testsysteme. Für nVidia ist bei den großen Ami-Deals da noch rein gar nichts in trockenen Tüchern. Das wurde so von denen auch schon gesagt, als man sich allgemein zum Vorgehen der Laps mit IB&nVidia + Intel&Cray geäußert hat.

Was ich ja auch immer recht fragwürdige finde ist ja nVidias Vergleich bezüglich Skalierung usw. Die Skalierung sieht meist höchstens mit 4 GPUs ok aus, und selbst da schon oft genug fragwürdig. Alles unter 80% Skalierung ist ineffizient.

Ganz zu schweigen davon, dass Sie eben aktuell die Schiene reiten mit von wegen Kosten außerhalb des Nodes zu sparen. Das mag zwar durchaus nicht ganz von der Hand zu weisen sein, aber wenn du son Fett node hast, dann musste den auch fetter anbinden als nen slim node, sonst rennste da auch wieder in Skalierungsprobleme rein.

Das ist nämlich auch so ein Punkt. Bei CPUs kennt man verdammt gut skalierende Produkte bis zu tausenden von Nodes. Wie sieht denn das bei P100 aus? Da sieht man nichts.

So eine einzelne Kiste oder auch ein Dutzend von denen ist doch völlig uninteressant..

Dural
2016-06-21, 14:36:17
GP100 wird wohl aufgrund der hohen Packdichte weniger Takt mitmachen. Da GP102 aber wohl nur GP104 * 1,5 ist, wird dieser ähnliche Taktraten schaffen, natürlich nur mit entsprechendem Board und höherem Powertarget. Ein Stock GP102 wird wohl etwas niedriger Takten, als GP104.

Ob die feinere Granularität der 64 SP ALUs bei Spielen mehr bringt, muss sich wohl auch erst zeigen. Ich gehe davon aus, dass das bei Spielen nicht ein besonders großer Vorteil ist, sonst hätte man das auch bei GP104 gebracht. Ich wüsste jetzt außerdem nicht, das GP104 irgendwo Bandbreitenlimitiert ist?

Wie gesagt, das muss sich erst noch zeigen. Ich habe nicht umsonst nur von 1800MHz gesprochen, das sind immerhin 300MHz weniger als es mit dem GP104 möglich sind.

Natürlich hätte der GP104 gerne mehr Bandbreite, genug kann man nie haben ;)

AffenJack
2016-06-21, 14:42:32
Und Preise für P100
http://www.nextplatform.com/2016/06/20/nvidia-rounds-pascal-tesla-accelerator-lineup/

NVLink 10,5k$ PCI-E 5,5K$

Also NVLink ist ja mal echt ein "Schnapper"....

Wer will das Ding bitte zu den Preise haben? Sorry, aber sooo viel bringt NVLink nie und nimmer. Zu den Preisen ist das eine Totgeburt meiner Meinung nach.


Nur sind das nicht die Kosten für Nvlink. Es sind die extrapolierten Kosten von DGX1. Nur ist da klar, dass DGX1 nicht den Kostenmaßstab stellen wird. Die ersten P100 lässt man sich halt gut bezahlen. In richtigen Systemen dürften die Kosten vielleicht bei 1-2k mehr als die PciE Version sein, wenn diese dann in Q1 17 kommen.

BigKid
2016-06-21, 15:24:06
Die eine kupferfarbene Heatpipe sieht jetzt aber nicht so aus, als ob die von Anfang an so geplant gewesen wäre. :freak:

Ist das die GPU oder die CPU wo die drauf hockt?

EDIT: Ist die CPU. Ich habe den MXM Anschluss gefunden ;)

Welchen Sinn soll das bitte machen? Wird der GPU Kühler etwa so warm, und man will die CPU aufheizen? :ugly:

Das sieht mir fast nach einem MSI Laptop aus...
Die Heatpipe ist bei denen seit einer Weile üblich... Es dient dazu die CPU/GPU nebenher mitzukühlen denn einer der Lüfter läuft wesentlich früher an als der andere... und so reicht es bei wenig lat wenn nur einer läuft... Auch lassen sich so kurzfristige Spitzen abfederdn... und ja ein wenig wird die GPU von der CPU mitgeheizt und umgekehrt...
In Summe kann aber so mehr wärme von der GPU abgeführt werden da die einfach deutlich mehr watt verbrät....

Troyan
2016-06-23, 14:00:08
In Japan geht am 1.07.2016 das erste System mit 1080 P100 Karten an den Start: http://www.scientificcomputing.com/news/2016/06/university-tokyo-utilize-new-sgi-supercomputer

Skysnake
2016-06-23, 22:50:02
240 P100 und nicht 1080...

Und da zwei in einem Node stecken sind es gerade mal 120 Nodes. Das Ding ist also ziemlich klein, und wenn man bedenkt, das zu den 120 GPU-Nodes noch 420 reine CPU-Nodes dazu kommen, dann ist das jetzt auch nicht gerade eine überzeugende Entscheidung.

Hübie
2016-06-24, 00:39:13
Dann such dir mal die Leistungsdaten anderer, vergleichbarer Rechenzentren von Universitäten. Das ist schon solide und für die sicher ein starker Gewinn. Ich weiß: Steht nicht AMD drauf :rolleyes:

Skysnake
2016-06-24, 00:54:34
Wenn knapp 22% der Knoten mit GPUs ausgerüstet sind findest du das toll?

Ein paar 4-5 musste ja eh wegrechnen, da man die für die Visualisierung der Ergebnisse eh immer braucht. Überzeugend ist das leider nicht, egal wer oder was da drin steckt.

Das sagt einem einfach, das entweder noch viel Lagacy Software da ist, die noch nicht protiert ist, oder gar keinen Nutzen daraus ziehen kann.

Da es ein SGI System ist, wird es sehr sehr sehr sehr sehr sicher P100 als PCI-E Karte sein, also ohne NVLink. Daher nochmals, wo soll das jetzt bitte toll sein?

In fast den gleichen Topf kannste den KNL Cluster in Texas schmeisen, und der hat irgendwas zwischen 400 und 500 KNL Knoten. Wobei man da schon immerhin anführen muss, dass die ein einheitliches System sich angeschafft haben. Dennoch ist das für ein "Vorzeigesystem" lächerlich klein zumal keine Fabric wohl verwendet wird, soweit ich mich da gerade richtig dran erinnern kann.

Godmode
2016-06-24, 06:40:37
Es zeigt das der Chip fertig ist und funktioniert und verkauft wird.

Dural
2016-06-24, 09:14:51
Gibt es in der Schweiz nicht schon ein System mit P100? Ich habe da mal was gelesen.

Edit:
Anfang 2018 Volta
2018 wollen die USA mit 200 PetaFLOPS an die Spitze
http://www.computerbase.de/2016-06/supercomputer-2018-wollen-die-usa-mit-200-petaflops-an-die-spitze/

Skysnake
2016-06-24, 12:00:03
Es zeigt das der Chip fertig ist und funktioniert und verkauft wird.
Naja, "verkauft".

Solche Cluster sind immer irgendwelche Deals die an sich erstmal wenig mit der allgemeinen Verfügbarkeit zu tun haben.

Und ja, Sie verkaufen das Ding, aber nicht als Vollausbau und nicht mit Fabric, und das nach jetzt einem Jahr, oder sind es schon 1 1/2 Jahren Verspätung? Da sollte man sich wirklich nicht auf die Schulter klopfen, wie toll man denn ist. Vor allem sollte man auch mal verfolgen, was Intel für eine Menge an Geld in die Portierung/Erneuerung von Codes für XeonPhi steckt. Die ganzen Events usw sind auch nicht kostenlos zu haben. Am Ende muss sich zeigen, wie schnell der HMC verschnitt produktiv genutzt wird und wie wenig Aufwand dabei notwendig ist. Wichtig wäre es da auch mal, endlich die Developerkisten besser verfügbar zu machen. Bei uns gibt es leider noch keine Kiste und es wird definitiv versucht eine zu bekommen.... So viel zu "Verfügbarkeit"...

@Dural:
Das ist PizDaint in der Schweiz. Das Ding wird mit der PCI-E Version! von P100 aufgerüstet, allerdings auch nicht komplett. Man integriert da ein Zweitsystem und hat dann einen kombinierten reinen CPU und CPU+GPU Cluster stehen. Mal schauen wie gut das Konzept aufgeht.

Da zeigt sich allerdings auch wieder ein Punkt, den ich kritikwürdig/kritisch finde. Die Installationen, die in nächster Zeit verfügbar sein sollen nutzen alle kein NVLink. DAbei soll doch NVLink so derb roXXXen. Da sollte man eigentlich ins Grübeln kommen, warum die Leute die ja die Dinger aus eigener Erfahrung kennen werden es nicht nutzen wollen/können.

Aber hey, warten wir mal ob wir bis zu ISC17 schon ein nVLink System relevanter größe sehen werden.

Dural
2016-06-24, 14:22:08
Du hast mein Link da oben schon gesehen? IBM + NV-/Link und kein Intel oder AMD.

Skysnake
2016-06-24, 14:35:56
Das hast du auch gelesen?
Aber hey, warten wir mal ob wir bis zu ISC17 schon ein nVLink System relevanter größe sehen werden.

In welchem Topic sind wir nochmals gleich? Ah ja richtig PASCAL und nicht VOLTA....

Wen interessiert denn bitte gerade Volta in 2018? Da geht noch viel Wasser den Bach runter. Und ob das Ding am Ende wirklich kommt steht heute noch nicht 100% sicher fest. Wenn du dir vom DOE etc. mal in letzter Zeit die Berichte zu Auroa, Summit und Coral angeschaut hättest, dann wüsstest du, das man zwar die Anforderungen/Erwartungen massiv runtergeschraubt hat und damit Intel, IBM und nVidia mehr Luft einräumt die Erwartungen zu erfüllen, aber Sie sagen selbst, dass Sie strickt die Milestones überprüfen werden, und dann jeweils entscheiden werden wie es weiter geht.

Von daher um nochmals auf deine Frage mit dem Schweizer System zurück zu kommen. Es gibt da noch kein System. Das soll erst jetzt dann irgendwann mal aufgerüstet werden. Da das gesamte System an sich schon steht, wird sich das aber wohl eher in Q416 anspielen, sofern nicht noch irgendetwas unerwartetes passiert.

Tarkin
2016-06-24, 20:54:18
Charlie schreibt: Serious problem hits Nvidia’s consumer Pascal GPUs (http://semiaccurate.com/2016/06/24/serious-manufacturing-problem-hits-nvidia-consumer-gpus/) wird/wurde das schon irgendwo diskutiert? Hat jemand Zugang?

iuno
2016-06-24, 21:41:42
Elkinator (https://www.forum-3dcenter.org/vbulletin/member.php?u=32262) hat wohl ein Abo.

Hübie
2016-06-24, 22:03:33
Das hast du auch gelesen?


In welchem Topic sind wir nochmals gleich? Ah ja richtig PASCAL und nicht VOLTA....

Wen interessiert denn bitte gerade Volta in 2018? Da geht noch viel Wasser den Bach runter. Und ob das Ding am Ende wirklich kommt steht heute noch nicht 100% sicher fest. Wenn du dir vom DOE etc. mal in letzter Zeit die Berichte zu Auroa, Summit und Coral angeschaut hättest, dann wüsstest du, das man zwar die Anforderungen/Erwartungen massiv runtergeschraubt hat und damit Intel, IBM und nVidia mehr Luft einräumt die Erwartungen zu erfüllen, aber Sie sagen selbst, dass Sie strickt die Milestones überprüfen werden, und dann jeweils entscheiden werden wie es weiter geht.

Von daher um nochmals auf deine Frage mit dem Schweizer System zurück zu kommen. Es gibt da noch kein System. Das soll erst jetzt dann irgendwann mal aufgerüstet werden. Da das gesamte System an sich schon steht, wird sich das aber wohl eher in Q416 anspielen, sofern nicht noch irgendetwas unerwartetes passiert.

Spinn doch nicht herum. 2014 konnte man grob 150-300 PFLOPs für Summit nennen, da es alles noch auf Projektionen basierte. Mit 200+ liegt man da also voll drin. Wenn du da mehr weißt, dann nehme ich gerne links entgegen. Hat aber, wie du schon richtig erkennst, nix mit Pascal zu tun.

Ich verstehe nach wie vor nicht was du auf NVLINK so herum hackst. Was wäre denn deiner Meinung nach denn in der Zeit* und den Kosten** besser? Bitte mit Begründung.

*ttm = time to market mein ich damit. **Kosten = Kostenstruktur

scully1234
2016-06-24, 22:15:36
Charlie schreibt: Serious problem hits Nvidia’s consumer Pascal GPUs (http://semiaccurate.com/2016/06/24/serious-manufacturing-problem-hits-nvidia-consumer-gpus/) wird/wurde das schon irgendwo diskutiert? Hat jemand Zugang?

Hat er wieder mal zu viel Sonne abbekommen, und glaubt er lockt mit so Aufmachern jemanden hinter seine Paywall

Hübie
2016-06-24, 22:22:13
Ja bei Charlie hat NVIDIA immer wieder massive Probleme. :rolleyes:

GP104 wurde jetzt zwar krass vorgezogen und man hat einen halbherzigen hardlaunch hingelegt, aber Probleme bei GP100 sollen jetzt wie genau aussehen? :| Afaik schreibt Elkinator für irgend so ein Wurstblatt. Wenn ich mich recht entsinne hatte er mal einen witzigen, total falschen Artikel über Pascal verfasst. =)

Edit: Diese "News" meinte ich: http://www.gulli.com/news/27012-hat-nvidia-schwierigkeiten-bei-der-produktion-der-pascal-chips-2016-01-18

Edit2: Ich kann ihn natürlich mit jemand anderes verwechseln. :D Dann nehme ich das obige natürlich heraus.

scully1234
2016-06-24, 22:26:53
Ja bei Charlie hat NVIDIA immer wieder massive Probleme. :rolleyes:



Eine Drama Queen seit eh und je , die beste unverhüllte Story ,war ja immer noch die Software Tesselation von Fermi;D

OBrian
2016-06-24, 22:47:01
aber Probleme bei GP100 sollen jetzt wie genau aussehen?wenn da in der Überschrift was von "consumer GPUs" steht, beträfe das dann nicht eher GP104 oder GP106?

iuno
2016-06-24, 23:03:33
Es soll um die Kapazitaeten bei TSMC gehen, das betraefe eigentlich alle Pascal Chips, wobei fuer einen bestimmten (GP100?) natuerlich auch gesonderte Vertraege geschlossen worden sein koennen, die Priorisierung versprechen, was bei der Marge vielleicht in Ordnung geht.

Auf das Geruecht wuerde ich aber aktuell mal nicht viel geben. Es gibt doch "genug" 1080/1070 aktuell oder? Zumal der Markt nach dem Launch-Hype wohl erstmal etwas gesaettigt ist, nach dem Polaris Launch gibt es vielleicht nochmal einen Boost von denen, die hofften, dass es billiger wird und danach sollte die Nachfrage konstant auf einem niedrigeren Niveau bleiben.

Hübie
2016-06-24, 23:10:55
wenn da in der Überschrift was von "consumer GPUs" steht, beträfe das dann nicht eher GP104 oder GP106?

Oh, ja. Und die Probleme bestünden wo drin? :confused:

iuno
2016-06-24, 23:17:47
Laut den Kommentaren im Forum soll es um schlechte Verfuegbarkeit gehen, die durch schlechte Yields oder allgemeine Kapazitaetsengpaesse bei TSMC zustande kommen sollen...

https://semiaccurate.com/forums/showthread.php?t=9208

Hübie
2016-06-24, 23:22:03
Da muss man ja mal schlechte yields definieren. Afaik sind die jetzt schon besser als bei GK104 seinerzeit. Letzteres trifft eher zu, da TSMC "zu geizig" war entsprechende Investitionen zu genehmigen.

Digidi
2016-06-24, 23:22:18
Ich glaube nicht das Appel dort blockt. Man denke nur das sehr viele auf einmal zu AMD überlaufen und dann kaum noch Polaris Chips für die MacBooks da wären? Das gibt alles keinen sinn.

Definiere zu Geizig. Solche Hallen wo die Wafer hergestellt werden können gut 1 Milliarde Euro kosten. So was baut man nicht mal eben so. Solche Investitionen sind wohl überlegt und zeugt von Klugheit von TSMC das sie nicht auf Masse setzen. Jetzt bestimmt TSMC wo es lang geht :D

=Floi=
2016-06-24, 23:26:33
GP104 wurde jetzt zwar krass vorgezogen und man hat einen halbherzigen hardlaunch hingelegt

das war wohl der beste launch eines YYXX4 chips. super marge und gute verfügbarkeit. die dinger verkaufen sich auch trotz des preises nocht extrem gut.

Hübie
2016-06-24, 23:55:19
Ich glaube nicht das Appel dort blockt. Man denke nur das sehr viele auf einmal zu AMD überlaufen und dann kaum noch Polaris Chips für die MacBooks da wären? Das gibt alles keinen sinn.

Definiere zu Geizig. Solche Hallen wo die Wafer hergestellt werden können gut 1 Milliarde Euro kosten. So was baut man nicht mal eben so. Solche Investitionen sind wohl überlegt und zeugt von Klugheit von TSMC das sie nicht auf Masse setzen. Jetzt bestimmt TSMC wo es lang geht :D

Definition von zu geizig: Zu hohe Ansprüche an ROI und zu taktische Relationen.

das war wohl der beste launch eines YYXX4 chips. super marge und gute verfügbarkeit. die dinger verkaufen sich auch trotz des preises nocht extrem gut.

Wenn ich nur 10 Chips habe... :rolleyes:

Kriton
2016-06-24, 23:56:23
das war wohl der beste launch eines YYXX4 chips. super marge und gute verfügbarkeit. die dinger verkaufen sich auch trotz des preises nocht extrem gut.

So gut sieht die Verfügbarkeit noch nicht aus, wenn ich einige Posts hier im Forum lese. Und die Umfrage liest sich nicht so, als würden sie sich extrem gut verkaufen.

Foobar2001
2016-06-25, 08:21:17
Wo drunter leidet? GP100 ist nicht für FP32 Märkte gedacht. Es macht keinen Sinn, die Effizienz in Anwendungsgebiete zu betrachten, für die der Chip nicht designt wurde.

GP102 ist einfach ein 1,5x größerer GP104. Der Aufwand ist "minimal" für einen zusätzlichen Chip.
Ich weiss das war nicht ernst gemeint, aber allein die Masken fuer die Chip-Herstellung in 16FF gehen in die Millionen.

Skysnake
2016-06-25, 08:57:10
Spinn doch nicht herum. 2014 konnte man grob 150-300 PFLOPs für Summit nennen, da es alles noch auf Projektionen basierte. Mit 200+ liegt man da also voll drin. Wenn du da mehr weißt, dann nehme ich gerne links entgegen. Hat aber, wie du schon richtig erkennst, nix mit Pascal zu tun.
[quote]
Es gab da zu den Systemen vom DOE glaub ich wars einen öffentlichen Report wo Sie über die Systeme und deren entwicklung gesprochen haben. Da war von Verzögerungen die Rede und eben auf Raunen bei ein paar Folien, das man mit den Erwartungen schon runter gegangen ist, aber man eben immer wieder Milestones hat, bei denen man kontrollieren wird, wie es denn jetzt aussieht. Und das man eben jetzt IBM&nVidia vs Cray&Intel hat, aber da noch nicht fest steht, was am Ende als "Sieger" dastehen wird.

In dem Zuge wurde das targert für Exascale auch auf 2023 geschoben, nachdem man ein ~halbes Jahr zuvor noch massig zusätzliche Gelder bewilligt bekommen hat.

In der Diskussion ging es auch darum, was man von einem BlueGene System auf ein IBM&nVidia System wechselt an einer der Einrichtungen, was einige immer noch verwundert hatte. Da ging hatte man etwas rumgeschwurbelt und so in etwa gesagt, das man im allgemeinen recht flexibel ist und sich auf den Erkenntnissen aus dem Projekt dann jeweils entscheiden wird, welches System wo wie hin passt und sich das auch noch durchaus ändern kann.

[quote]
Ich verstehe nach wie vor nicht was du auf NVLINK so herum hackst. Was wäre denn deiner Meinung nach denn in der Zeit* und den Kosten** besser? Bitte mit Begründung.

*ttm = time to market mein ich damit. **Kosten = Kostenstruktur
Aus genau einem Grund.

nVidia hat sich hingestellt und den neuen nVLink-Heiland verkündet und erzählt, wie toll das doch alles ist, und wie man richtig abroXXen wird, weil man ja etwas so unglaubliches geschaffen hat, wie es nur nVidia kann...

Ich war von Anfang an skeptisch, weil es im großen und ganzen einfach ziemlich unspektakulär ist aus meiner Sicht und zwar die wichtigen und schwerwiegenden Probleme angeht, Sie aber NICHT! löst meiner Meinung nach.

Weiste wenn man auf die Kacke haut, dann muss man auch liefern. Ist bei Intel und der Fabric genau das Gleiche. Da haben die auch auf die Kacke gehauen, wie toll das Ding wird und Nü?

Richtig, das Ding ist zwar immer noch gut, aber vor einem Jahr wäre es eine Macht gewesen. Also nichts mehr, wo man ohne groß darüber nachzudenken zuschlägt. Und die Fabric hat sich noch gar nicht gezeigt. Da steht also noch aus, ob das Ding überhaupt brauchbar ist, oder ein mittlerer Reinfall.

Was einem zu denken geben sollte ist, das Intel das für 250$ (?) raus haut. Das ist meinem Gefühl nach ziemlich wenig. Allerdings sitzen die QFP Stecker auf dem MB, wobei die ja nichtmal so teuer sind. Man wird es sich dennoch mal anschauen müssen. Man hat ja auch noch zwei Kabel. Nichtsdestotrotz sind das tendenziell eher kampfpreise. Das macht man nicht wirklich, wenn man die Konkurrenz rein durch Leistung schon platt macht.

Und ja, das ist alles dennoch besser als das was AMD macht, die liefern nämlich bis jetzt einfach noch gar nichts. :mad: Und falls du das mit der Leistungsaufnahme der Dual-Hawaii nicht mitbekommen hattest, da hat AMD sein Fett auch weg bekommen, und das werden Sie auch, wenn Sie ZEN verkacken, oder die APUs. Und Sie bekommen z.B. auch bei jeder Gelegenheit ihren GDS unter die Nase gerieben, den ich IMMER noch nicht für Sync zwischen Workgroups nutzen kann.... Also von daher, mir hier vorzuwerfen, ich würde irgend jemandem nicht seine Scheiße unter die Nase reiben kannste dir sparen :P

Mancko
2016-06-25, 10:11:52
Definition von zu geizig: Zu hohe Ansprüche an ROI und zu taktische Relationen.



Wenn ich nur 10 Chips habe... :rolleyes:

Danach sieht es aber offensichtlich nicht aus. Denn wir man schön in den Online Shops sieht ist es kein Problem eine FE zu bekommen. Sprich die Chips sind da und Nvidia wird ordentlich Kasse machen.

Digidi
2016-06-25, 16:02:51
Die Chips sind nicht da. Werden aber als verfügbar angezeigt. Geh mal ins CB Forum wo etliche auf Ihre Graikkarten warten obwohl Lieferbar in 3 Tagen angezeigt wurde.

Wenn die Karten wirklich so gut lieferbar sind, dann ist dies kein Verkaufsschlager, denn dann wären sie nicht lieferbar ;) . Nvidia erzeugt anscheinend einen künstlichen Mangel um die Preise hoch zu halten um richtig abzusahnen, gleichzeitig können Sie so gewinn aus ihrer Niedrigen Produktionsquote herausholen.

Hübie
2016-06-25, 16:38:24
Danach sieht es aber offensichtlich nicht aus. Denn wir man schön in den Online Shops sieht ist es kein Problem eine FE zu bekommen. Sprich die Chips sind da und Nvidia wird ordentlich Kasse machen.

Lebst du in einem Paralleluniversum? :rolleyes:

@Skysnake: Mir fällt halt immer nur auf dass du ständig gegen dass was NVIDIA machst anstinkst obwohl es keine (wirklich) besseren Alternativen gibt. NVLINK wurde mit Sicherheit nicht aus marketing-technischen Gründen "entwickelt".
(Wobei mir auffällt: Marketing und Technik in einem Satz ist... meh:freak:)

Troyan
2016-06-25, 16:40:44
Und nVidia hat einen ihrer Männer bei IBM untergebracht, um NVLink in Power9 CPUs zu bringen. :lol:

Dural
2016-06-25, 17:16:56
Also bei uns sind auch 1080 fe lieferbar, und sogar die g1, palit und zotac custom.

Kriton
2016-06-25, 18:05:44
Und die 1070?

Dural
2016-06-25, 18:09:28
Und die 1070?

Nicht so gut wie die 1080, aber auch eine 1070fe ist lieferbar.

Skysnake
2016-06-25, 19:02:49
Lebst du in einem Paralleluniversum? :rolleyes:

@Skysnake: Mir fällt halt immer nur auf dass du ständig gegen dass was NVIDIA machst anstinkst obwohl es keine (wirklich) besseren Alternativen gibt. NVLINK wurde mit Sicherheit nicht aus marketing-technischen Gründen "entwickelt".
(Wobei mir auffällt: Marketing und Technik in einem Satz ist... meh:freak:)
Ich stinker dagegen, weil es sowohl technisch als auch politisch immer wieder mittelklassige/beschissene Produkte/Entscheidungen/Geschäftsgebaren von Seiten nVidias aus gibt. Project Denver war z.B. gar nicht sooo schlecht. Ist aber nie gekommen. Sie mussten ja aber auch versuchen etwas eigenes zu bauen, statt lieber auf Standard-ARM zu setzen, davon aber etwas mehr und eben ein vernünftiges Ökosystem drum rum.

CUDA ist halt auch ein riesen Problem für mich. Ich habe mit CUDA gearbeitet und habe inzwischen sogar schon einen mehrtägigen Workshop für CUDA mitgehalten, aber verwenden will ich es eigentlich nicht. Wer begibt sich denn schon gerne freiwillig in Knechtschaft?

Würde nVidia OpenCL voll unterstützen, oder noch besser bei HSA mit machen und da auch mit auf die Tube drücken, dann wäre AMD wohl sehr sehr uninteressant für mich. Warum? Weil AMD es immer und immer wieder verkackt...

Von IBM+NVLink halte ich aber eben auch nichts. Wenn sollten Sie ein Project-Denver Reloaded mit NVLink bringen. DAS wäre wirklich cool und würde mich hundert mal mehr interessieren als Power+Pascal+nVlink. Die Power CPU ist einfach viel viel viel zu stark und selbst schon viel zu stark auf Paralelität angewiesen. Das beist sich einfach. Aber das war eben der einzige Partner den man wohl bekommen konnte....

Ich kritisiere eben auch die beste Lösung am Markt, wenn Sie meiner Meinung nach in sich schlecht ist. Denn mich interessiert nicht, was wir heute an HArdware haben, sondern das was uns die nächsten 5 oder eher 10-20 Jahre erwartet. Designs, bei denen man heute schon sieht, dass die innerhalb weniger Jahre voll vor die Wand fahren will ich nicht haben. Denn den beschissenen Code den wir heute entwickeln wird uns oft die nächsten 10-20 Jahre verfolgen, wenn nicht gar länger. Die Softwareentwicklung ist teilweise extrem behäbig und es wird nicht besser, weil die Systeme immer komplexer werden.

Skysnake
2016-06-26, 12:51:58
Bin gerade über folgenden Artikel gestolpert zu Power.

Power9 bringt PCI-E 4 und NVLink 2.

NVLink2 wird mit 25GBit SERDES laufen. Damit kann man dann auch direkt ausrechnen, wie die Bandbreite sich entwickelt ;)

Die NVLink2.0 SERDES werden auch für IBM und andere Nutzbar sein. Ich vermute mal sehr stark, dass das CAPI2/OpenCAPI sein wird. Damit ist der Overhead durch nVLink auch weniger schlimm als bisher angenommen.

IBM sollte mit Mellanox damit wohl der erste Anbieter von PCI-E 4 sein. Der Vorteil von NVLink rein für die Bandbreite ist damit dann aber ziemlich dürftig. 16 vs 25GBit/s eben. Was man sich noch anschauen muss ist, wie es mit den Latenzen aussieht. Und man hat natürlich den Zugriff auf den Speicher, den man mit PCI-E nicht hat. Mit CAPI was auf PCI-E auf der physikalischen Ebene setzt natürlich dann auch.

Der Memory Controller wandert in die CPU. Das ist eine SEHR! wichtige Erkenntnis. Damit lässt sich nämlich die CacheCohärenz und die Zugriffe durch NVLink/CAPI2 sehr einfach realisieren.

Nachteil an der Geschichte ist halt, dass die sehr großen L4 Caches in den externen Memory-Controllern eben wegfallen werden. Da man aber eDRAM ( GF14nm Finfet ) erwähnt wird man wohl einen Teil davon auf der CPU integrieren/beibehalten. (Interessant dürfte dabei btw. auch sein, warum AMD den eDRAM nicht für ihre GPUs benutzt...)

Power9 wird Octachannel DDR4 bieten. Damit sollte man, wenn ich das gerade richtig überblicke deutlich weniger MemoryBandbreite erreichen als mit Power 8. Im Vollausbau mit 8 Centaur Chip sollen da ja 230GB/s substaned an der CPU (76,8 GB/s schreiben und 153,6 GB/s lesen) anliegen und 410GB/s am DRAM (für umkopieren usw wohl). Power9 sollte wenn man DDR4 2400 annimmt auf nur noch 150GB/s kommen. An ein 16Channel Interface glaube ich jetzt eher nicht, wäre aber maximal möglich, da es Kisten mit 32DIMMS und 2 Sockeln gibt. Die Anzahl der DIMMS geht auch auf 16 pro Sockel runter. Power8 kann maximal 32 DIMMs verwalten. Viel entscheidender empfinde ich allerdings, das man mit dem Wegfall der Centaur Chips wohl auch die MAximal 128 MB L4 verlieren wird. Das ist schon ein ziemlicher Einschitt. Denn selbst in 14nm wird man so viel eDRAM wohl kaum mit auf dem DIE noch unterbekommen.

y33H@
2016-06-26, 12:56:53
Der DDR4-Controller beim Power8 sitzt schon in der CPU :confused:

Skysnake
2016-06-26, 13:00:52
Nein. Der DDR3/4 Memory Controller sitzt auf dem Centaur Chip. In der CPU sitzt ein MemoryInterfaceController, der ein propritäres Interface befeuert.

y33H@
2016-06-26, 13:43:19
Tatsache, sieht man im Hot Chips Paper, hatte ich falsch im Kopf: http://www.hotchips.org/wp-content/uploads/hc_archives/hc25/HC25.20-Processors1-epub/HC25.26.210-POWER-Studecheli-IBM.pdf

Skysnake
2016-06-26, 13:56:36
Kein Ding, das ist ja schon etwas extravagant gelöst ;)

Daher muss man bei den normalen Power8 Systemen die man über OpenPower usw kaufen kann auch ziemlich aufpassen. Da gibt es oft nur 2 Centaur Chips pro Sockel....

Btw. Was man auch mal erwähnen sollte. Ich habe irgendwo einen Bericht über die StudentClusterCompetition auf der ISC gelesen. Da war wohl auch ein Team mit Power+Pascal am Start. Da hies es, das Team hätte große Probleme damit gehabt, das Beast in der Powerbeschränkung zu halten und wären nicht mal dazu gekommen alle Benchmarks zu compilieren... Leider ging man nicht näher darauf ein. Aber sowas lässt natürlich das Vertrauen in die Lösung wachsen... Äh.. NOT!