PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP102 (Titan X + 1080 Ti) (Zusammenfassung im Startpost)


Seiten : [1] 2 3 4 5 6 7

Godmode
2016-06-16, 06:50:47
Alles zu GP102 hier rein.



Nachfolger von GM200
selber SP-Aufbau wie bei GP104
Enthusiast Leistungsklasse
3584 SPs organisiert in 28 SMs á 128 SPs (eventuell später eine Titan X Black mit 30 SMs und 3840 SPs)
~11 TFlop/s FP32 @ 1417 MHz Baseclock, 1531 MHz Boostclock
12 GB GDDR5X @10 GBps @ 384 Bit Speicherinterface
480 GB/s Speicherbandbreite
250W TDP
Diesize: ~480 mm2
Erscheinungsdatum im 2. August 2016
Preis: 1200$, 1400€


http://www.geforce.com/hardware/10series/titan-x-pascal

hellibelli
2016-06-16, 16:45:49
Das wird meine neue Graka wenn die Leistung stimmt
:-D

ilibilly
2016-06-16, 16:54:42
Könnte die erste 4k karte werden die sich auch konstant 60fps packt.,und 2ghz dürften dann schon drinn sein wenn der der ganze gp100 ballast wegfällt.

Raff
2016-06-16, 16:57:47
ca. 30-50 % schneller als 1080 Ti, abhängig vom Takt

1080. Non-Ti. :)

MfG,
Raff

Ravenhearth
2016-06-16, 16:58:58
Die Die-Size würde ich aber auf mehr als nur 400-450mm² schätzen, wenn GP104 schon 314mm² hat und GP102 50% oben drauf legt, also eher 450-500mm². Beim Speicher stehen 10Gbps ebenfalls noch nicht fest, da könnte ich mir auch bis zu 12GBps vorstellen, um eine Limitierung auszuschließen und bessere OC-Ergebnisse zu ermöglichen. Die 1080 ist durch 10Gbps ja deutlich limitiert.

Tamagothi
2016-06-16, 17:34:58
1,7 GHz werden bestimmt nicht in 250 Watt TDB hineinpassen. Mann sollte sich auf 1,4 GHz einstellen mit Boost 1,5 GHz.

basix
2016-06-16, 17:39:39
1,7 GHz werden bestimmt nicht in 250 Watt TDB hineinpassen. Mann sollte sich auf 1,4 GHz einstellen mit Boost 1,5 GHz.

Wieso? 180W*1.5 = 270W. So weit weg von 250W bist du nicht und grössere Chips sind meistens effizienter. Evtl. sinds dann halt nur 1.6 GHz, who cares :D

Godmode
2016-06-16, 18:26:32
Die Die-Size würde ich aber auf mehr als nur 400-450mm² schätzen, wenn GP104 schon 314mm² hat und GP102 50% oben drauf legt, also eher 450-500mm². Beim Speicher stehen 10Gbps ebenfalls noch nicht fest, da könnte ich mir auch bis zu 12GBps vorstellen, um eine Limitierung auszuschließen und bessere OC-Ergebnisse zu ermöglichen. Die 1080 ist durch 10Gbps ja deutlich limitiert.

Es skaliert nicht alles 1:1. SPs und SI skalieren wohl 1:1, aber die Display Engine, Videozeugs, etc. bleibt auch bei GP102 gleich groß. Da der Speichercontroller von GP104 für 10 Gbps entwickelt wurde, gehe ich auch bei GP102 von 10 Gbps aus. NV war nicht sehr großzügig was Speichertransferraten anging.


1080. Non-Ti. :)

MfG,
Raff

Thx, hab ich geändert.

Könnte die erste 4k karte werden die sich auch konstant 60fps packt.,und 2ghz dürften dann schon drinn sein wenn der der ganze gp100 ballast wegfällt.

Da der Chip eine größere Fläche hat, sollte auch die Wärmeableitung besser funktionieren. Und ja, ich gehe auch von ähnlich guter Taktbarkeit, wie bei GP104 aus.


1,7 GHz werden bestimmt nicht in 250 Watt TDB hineinpassen. Mann sollte sich auf 1,4 GHz einstellen mit Boost 1,5 GHz.

Stock TDP dann 250W und mit Overclocking dann eben 270W.

Ravenhearth
2016-06-16, 18:32:38
Es skaliert nicht alles 1:1. SPs und SI skalieren wohl 1:1, aber die Display Engine, Videozeugs, etc. bleibt auch bei GP102 gleich groß. Da der Speichercontroller von GP104 für 10 Gbps entwickelt wurde, gehe ich auch bei GP102 von 10 Gbps aus. NV war nicht sehr großzügig was Speichertransferraten anging.

An GM204 -> GM200 sieht man aber gut, dass 1:1-Skalierung hinkommt, oder nicht? Selbst wenn nicht, wären 450mm² wohl das Minimum. Mit der Angabe ~450mm² könnten wohl alle leben. :)

Hast du eine Quelle dafür, dass der MC nur für 10Gbps entwickelt wurde?

maximus_hertus
2016-06-16, 19:11:50
Imo Stock 250W, OC 300+W, wie bei der 980 Ti. Bisher war bei Karten mit dem Top-Dog Chip der Takt etwas niedriger angesetzt als die Topkarte mit dem x04er Chip.

GM200 / Titan X bzw. 980 Ti - typical Boost 1075 MHz
GM204 / GTX 980 - typical Boost 1216 MHz

GK200 / 780 Ti - typical Boost 928 MHz
GK204 / 770 - typical Boost 1085 MHz

Ich würde daher beim GP102 von einem typical Boost von 1500-1550 MHz ausgehen. Das wäre ungefähr im gleichen Verhältnis zur GTX 1080 wie bei Maxwell und Kepler zuvor.

basix
2016-06-16, 19:22:09
Ich würde daher beim GP102 von einem typical Boost von 1500-1550 MHz ausgehen. Das wäre ungefähr im gleichen Verhältnis zur GTX 1080 wie bei Maxwell und Kepler zuvor.

So in etwa wird es wohl sein. Geht er gleich gut (oder besser) wie die GTX1080 wird es 30-50% OC :crazy:

Ailuros
2016-06-16, 19:28:22
Alles zu GP102 hier rein.



Nachfolger von GM200 (check)
Enthusiast Leistungsklasse (check)
3840 SPs (check)
13 TFlop/s FP32 @ 1,7 GHz (moeglich klingt aber zu hoch...)
384 Bit Speicherinterface (check)
12-24 GB GDDR5X @10 GBps (12= check)
250W TDP (check)
Diesize: vermutlich zwischen 400-450 mm2 (~480)
Erscheinungsdatum möglicherweise im Herbst-Winter (check)
ca. 30-50 % schneller als 1080, abhängig vom Takt (40+%)


Alles stets IHMO. MSRP ab $999.

Agent117
2016-06-16, 19:33:18
Wo steht das denn mit den 3840SP? Gab es das mal aus sicherer Quelle?

Ansonsten würde ich gegen Big Vega eher etwas mehr in die Breite gehen an Nvidias Stelle,niedriger takten, dadurch etwas effizienter sein und mehr OC bieten. Bei den Verkaufspreisen spielen 450 oder 520mm² keine so große Rolle wegen den Kosten.

Ailuros
2016-06-16, 19:41:17
Wo steht das denn mit den 3840SP? Gab es das mal aus sicherer Quelle?

Ansonsten würde ich gegen Big Vega eher etwas mehr in die Breite gehen an Nvidias Stelle,niedriger takten, dadurch etwas effizienter sein und mehr OC bieten. Bei den Verkaufspreisen spielen 450 oder 520mm² keine so große Rolle wegen den Kosten.

http://emit.tech/EMiT2016/Ramirez-EMiT2016-Barcelona.pdf

Seite 11, Takt bei 780+MHz?

Ravenhearth
2016-06-16, 19:49:07
Sicher, dass das nicht einfach GP100 ist, bei dem DP-Wert?

maximus_hertus
2016-06-16, 19:50:03
Geht man von ca. +40% der 1080 Ti zur 1080 aus, wäre die 1080 Ti rund 2,24-2,38 x so schnell wie die "Vanilla" GTX 980. Die RX 480 wird ja knapp unterhalb der 980 geschätzt, ergo müsste AMD rund die 2,5 fache Performance der RX 480 bieten, um mit der 1080 Ti mitzuhalten.

Auch wenn es Milchmädchen pur ist, wäre das von 2304 Shader ausgehend rund 5760 Shader für Vega (Big). Da es selten 1:1 skaliert und auch der Takt eher etwas niedriger sein dürfte, wären selbst die kolportierten 6144 Shader für Vega (Big) wohl (zu) knapp, um die 1080 Ti zu schlagen bzw. bei der Performance gleichzuziehen.

Zu GP102 - da gibt es bestimmt 2 Varianten: Einmal die 1080 Ti für 999 USD und dann eine "Titan-artige" Karte zum neuen "Extreme Edition" Preis von 1500-1600 USD (mit Broadwell-E gleichgezogen ;) )

Ailuros
2016-06-16, 19:53:16
Sicher, dass das nicht einfach GP100 ist, bei dem DP-Wert?

Kann sein; jetzt moechte ich aber gerne wissen wo jeder in der Vergangenheit einen kleinen "die" auf dem Modul sah.... :P

prinz_valium
2016-06-16, 19:56:16
Alles zu GP102 hier rein.



Nachfolger von GM200
Enthusiast Leistungsklasse
3840 SPs
13 TFlop/s FP32 @ 1,7 GHz
384 Bit Speicherinterface
12-24 GB GDDR5X @10 GBps
250W TDP
Diesize: vermutlich zwischen 400-450 mm2
Erscheinungsdatum möglicherweise im Herbst-Winter
ca. 30-50 % schneller als 1080, abhängig vom Takt


ech jetzt?
kein jahr auf den topdog warten? das würde mich schon sehr überraschen.
aber ich würde es sehr begrüßen

MadManniMan
2016-06-16, 20:11:34
Wie wäre es mal mit IRGENDeiner Quelle? Vor 15 Jahren hätte mir das so gereicht, aber da war ich noch nicht volljährig :usad:

Godmode
2016-06-16, 20:47:19
An GM204 -> GM200 sieht man aber gut, dass 1:1-Skalierung hinkommt, oder nicht? Selbst wenn nicht, wären 450mm² wohl das Minimum. Mit der Angabe ~450mm² könnten wohl alle leben. :)

Hast du eine Quelle dafür, dass der MC nur für 10Gbps entwickelt wurde?

Ail meinte 480mm2.

Keine Quelle, aber bisher war es so, das x04 und x00, den selber Speicher verwendet haben.

ech jetzt?
kein jahr auf den topdog warten? das würde mich schon sehr überraschen.
aber ich würde es sehr begrüßen

He? GM200 gibt es seit Frühjahr 2015, das ist also dann über ein Jahr?


Wie wäre es mal mit IRGENDeiner Quelle? Vor 15 Jahren hätte mir das so gereicht, aber da war ich noch nicht volljährig :usad:

Gibt keine Quelle und ist nur die Spekulation, die schon überall herumschwirrt.

robbitop
2016-06-16, 20:56:04
ech jetzt?
kein jahr auf den topdog warten? das würde mich schon sehr überraschen.
aber ich würde es sehr begrüßen
Wieso ein Jahr?

GM200 (Titan X): März 2015
GM204 (980/970): September 2014

Sind 6 Monate. Bei gleicher Kadenz würde GP102 in etwa zum Jahreswechsel erscheinen.

iuno
2016-06-16, 20:58:41
http://emit.tech/EMiT2016/Ramirez-EMiT2016-Barcelona.pdf

Seite 11, Takt bei 1560+MHz.

WTF?
Drive PX-2 mit GP100? :eek:

Ailuros
2016-06-16, 21:01:50
WTF?
Drive PX-2 mit GP100? :eek:

Seit wann hat GP100 ein 1:3 ratio?

2 chips
8 TFLOPs FP64
24 TFLOPs FP16

irgend etwas stimmt hier nicht....

iuno
2016-06-16, 21:13:13
Ergibt trotzdem fuer mich noch keinen Sinn.

Seit wann geben wir die Rate zw. FP16 und 64 an?
32 sollte doch fuer die ALUs immer noch "nativ" sein?!

Ailuros
2016-06-16, 21:26:00
Damit es Sinn macht waeren es 6 TFLOPs FP32 / 12 TFLOPs FP16 pro chip. GP104 kann es nicht sein weil die FP64 Rate zu ehlendig waere.

MadManniMan
2016-06-16, 21:29:38
Gibt keine Quelle und ist nur die Spekulation, die schon überall herumschwirrt.

Ich will dem ja echt nicht die Attraktivität absprechen, aber irgendwie finde ich das schon arg unbefriedigend ¯\_(ツ)_/¯

iuno
2016-06-16, 21:33:38
Bei 4 TFLOPs FP64 wird der Chip ja wohl eher nicht in der DP Leistung beschnitten sein.

Damit es Sinn macht waeren es 6 TFLOPs FP32 / 12 TFLOPs FP16 pro chip. GP104 kann es nicht sein weil die FP64 Rate zu ehlendig waere.
6 TFLOPs FP32 bei 4 TFLOPs FP64?

Alternative|SP|Takt|FP64 TFLOPs|Rate FP64:FP32|FP32 TFLOPs|Rate FP16:FP32|FP16 FLOPs
1|3840|~1,5 GHz|4|1:1,5 :ugly: |6|1:2|12
2|3840|~1 GHz|4|1:2|8|1:1,5 :ugly: |12
3|3840|~1,5 GHz|4|1:3|12|1:1|12

Ich denke, Variante 3 macht am meisten Sinn...? :uponder:

Wobei ich es schon uebel faende, wenn der Chip ohne HBM und mit 3840 SP noch auf 1,5 GHz laufen kann, das ist ja beim GP100@P100 offensichtlich nicht der Fall ohne die 300 Watt Marke zu durchbrechen.

Ausserdem ergibt es allgemein fuer mich keinen Sinn. Warum GP102 auflegen, wenn er auch dick FP64 Leistung hat? Keinen Bock/kein Vertrauen in HBM?

Ailuros
2016-06-16, 21:47:14
Keine Ahnung was sie angestellt haben, es muessen ja auch nicht alle FP64 FLOPs von den GPUs kommen :P Das oder sie takten die FP64 SPs hoeher als den Rest des cores so in etwa 1050MHz FP64, 780MHz FP32 welches aber ziemlich absurd klingt.

iuno
2016-06-16, 21:54:06
Daran habe ich auch kurz gedacht, aber es sind doch (bei GP100) gar keine dedizierten ALUs, dachte ich?
War nicht irgendwo zu lesen, dass dort FP64 Berechnungen geloopt werden?

Vielleicht ist es auch Einstellungssache, entweder/oder und die Takte sind allgemein anders, je nachdem was man will ;D

Ist schon noch etwas suspekt, ich bin gespannt

Ailuros
2016-06-17, 09:00:57
Daran habe ich auch kurz gedacht, aber es sind doch (bei GP100) gar keine dedizierten ALUs, dachte ich?
War nicht irgendwo zu lesen, dass dort FP64 Berechnungen geloopt werden?

Natuerlich sind es dedizierte FP64 SPs. 32SPs/cluster.

Vielleicht ist es auch Einstellungssache, entweder/oder und die Takte sind allgemein anders, je nachdem was man will ;D

Ist schon noch etwas suspekt, ich bin gespannt

Dass der FP64 Takt hoeher liegt als der core Takt muss ich erst sehen bevor ich es glaube.

Godmode
2016-06-17, 09:03:48
FP64 Taktraten sind normalerweise niedriger, da der Chip bei FP64 Berechnugen viel stärker ausgelastet wird. Zumindest war es bei GK110 so.

Ailuros
2016-06-17, 09:11:42
FP64 Taktraten sind normalerweise niedriger, da der Chip bei FP64 Berechnugen viel stärker ausgelastet wird. Zumindest war es bei GK110 so.

Bei B3D denken sie auf einen Tippfehler; damit es aber stimmt liegen in der Folie dann zwei angebliche Tippfehler drin. Einmal FP64 8 TFLOPs und einmal dass es 2*3840 cores sind. Falls ja, wie daemlich sind nochmal die marketing-Affen bei NV genau?

iuno
2016-06-17, 09:19:47
Natuerlich sind es dedizierte FP64 SPs. 32SPs/cluster.
Woher weisst du das so sicher? Weil NV das im Blockdiagramm so einzeichnet? Im alten Thread war sich Nakai damit noch unsicher:

Es gibt eine nette Folie, welche darstellt wie FP64 funktioniert.

FP16 werden pro Takt immer Op-Paare geschedult. Eventuell müssen diese die gleiche OP sein, was sehr naheliegend ist.

FP32 wird immer pro Takt einmal geschedult.

FP64 alle zwei Takte.


Warum sind es bei FP64 immer eine OP alle zwei Takte? Auf den Blockdiagrammen sind aber nur 32 FP64-Units pro SM eingezeichnet. Ergo wäre die Rate nur 1:4.

Die SIMDs bei Fermi waren immer in Paaren angeordnet. Kurz pro SM gab es 32 SPs (2x[2x8]). Für FP64 gab es nur 16 SPs (2x[1x8]), ergo wurden zwei FP32-SPs zu einer FP64-SP zusammengefasst. Womöglich wurde pro Takt geschedult.

Bei Kepler gibt es anscheinend dedizierte FP64-Einheiten. Grundsätzlich wäre es möglich FP32 und FP64 beliebig zu kombinieren. Die Warp Dispatcher können jedoch niemals den Peak für FP32 und FP64 gleichzeitig erreichen. Die grundsätzliche Designphilosphie war eher, völlige Auslastung der Dsipatcher als der SPs.

Maxwell hat das wieder entzerrt, indem die Anzahl der SPs und die Anzahl der Dispatcher ausgeglichen wurde. Hat Maxwell dedizierte FP64-SPs? kA, laut Damien und Hardware.fr scheint es noch so.

Und nun haben wir eine Dispatcher-Latenz für FP64. Man kann nur alle 2 Takte FP64 issuen, was sehr stark darauf hindeutet, dass FP64 eher durch loopen der FP32-Einheiten erreicht wird. Das geht eher in Richtung GCN.

Umso mehr ich GP100 anschaue, umso mehr sieht man eine GCN-artige Designphilosophie.

€: Und vom NV Devblog:



Source: https://devblogs.nvidia.com/parallelforall/inside-pascal/

Ich bin ratlos...wie passt das zusammen?

Link?

Warum sollte Nvidia dann die FP64 ALUs extra einzeichnen und auch noch extra so benennen? Es waere ja eine Weiterentwicklung, die sie so 'verheimlichen'.
http://pics.computerbase.de/7/1/5/8/3/9-1080.3618039559.jpg

Verkuppeln wir halt 2 FP32-Einheiten und nennen es eine FP64-Einheit. Oder unsere FP64-Einheit kann mit doppelter Rate FP32 und wir zählen sie als zwei FP32-Einheiten. Oder sowas.

Dann hätte man eine Rate von 1:4.

Sind es nur 32 FP64-Einheiten und eine Issue-Rate von 2clk, dann ist es 1:4. Das geht nur, wenn es 64 FP64-Einheiten sind, um den vollen Durchsatz zu erreichen.

Ich sage es nochmal, eine der beiden Folien ist Mist. Oder ich lege etwas völlig falsch aus.

Oder hast du da inzwischen etwas Belastbares um das aufzuklaeren?

Dass der FP64 Takt hoeher liegt als der core Takt muss ich erst sehen bevor ich es glaube.
Das habe ich auch nicht behauptet ;p

Ailuros
2016-06-17, 09:26:05
Weil ich es fuer Kepler und Maxwell vom Maul des Loewen gehoert habe. Wieso sollte ein Zwischenfurz wie Pascal bei so relativer kurzer Entwicklungszeit ploetzlich fundamentalere Aenderungen haben?

iuno
2016-06-17, 09:31:54
Maxwell war auch eein Zwischenfurz, komplett auf Gaming ausgelegt. Das trifft ja auf die kleinen Pascal Chips offensichtlich auch zu, ist ja kaum mehr als ein geshrinkter Maxwell.
In der Zwischenzeit haette man da exklusiv fuer die Grossen schon was machen koennen. Aenderungen, die urspr. fuer Volta vorgesehen waren, koennen (und sollten) es ja dort rein geschafft haben. GP100 unterscheidet sich ja von der Architektur her schon von GP104.

Sunrise
2016-06-17, 11:33:11
Ich denke auch, dass erst Volta diese fundamentalen Änderung hat. Die ganzen Zwischenschieber sind mir da auch eher suspekt. Allerdings habe ich auch nichts Belastbares, nur eben dass NV Volta schon immer als Nachfolger von HPC-Kepler sah und Pascal dann bzgl. HPC noch reingeschoben wurde.

Irgendwas müssen sie bei Volta relativ zu GP100 ja ändern, wenn der deutlich schneller wird, aber schon GP100 über den 600mm^2 klebt. Und an 10nm glaube ich noch nicht.

stinki
2016-06-17, 11:42:26
Bei 4 TFLOPs FP64 wird der Chip ja wohl eher nicht in der DP Leistung beschnitten sein.


6 TFLOPs FP32 bei 4 TFLOPs FP64?

Alternative|SP|Takt|FP64 TFLOPs|Rate FP64:FP32|FP32 TFLOPs|Rate FP16:FP32|FP16 FLOPs
1|3840|~1,5 GHz|4|1:1,5 :ugly: |6|1:2|12
2|3840|~1 GHz|4|1:2|8|1:1,5 :ugly: |12
3|3840|~1,5 GHz|4|1:3|12|1:1|12

Ich denke, Variante 3 macht am meisten Sinn...? :uponder:

Wobei ich es schon uebel faende, wenn der Chip ohne HBM und mit 3840 SP noch auf 1,5 GHz laufen kann, das ist ja beim GP100@P100 offensichtlich nicht der Fall ohne die 300 Watt Marke zu durchbrechen.

Ausserdem ergibt es allgemein fuer mich keinen Sinn. Warum GP102 auflegen, wenn er auch dick FP64 Leistung hat? Keinen Bock/kein Vertrauen in HBM?

Wurden die Deep-Learning Rechenleistung (FP16) von Nvidia nicht immer nur mit Faktor 3/2 zu FP32 angegeben oder verwechsle ich das bzw. irre ich mich da...
war das Faktor 3 von INT8 Leistung zu FP32 Leistung??? ... ich werde alt...mein Gedächnis...

Noch ne Idee:
FP64: 3840 mit ~1GHz = 4TFlops
FP32: 3840 mit ~1.5GHz = 6TFlops (2*FP64)
FP16: 3840 mit ~1.5GHz = 12TFlops (2*FP32)

Also 1:2:4 Ratio aber FP64 Takt nur 2/3 FP32 Takt...macht doch Sinn, oder?...

iuno
2016-06-17, 11:50:26
Wurden die Deep-Learning Rechenleistung (FP16) von Nvidia nicht immer nur mit Faktor 3/2 zu FP32 angegeben oder verwechsle ich das bzw. irre ich mich da...
Nein, sowohl Tegra X1 als auch GP100@P100 haben 2:1 FP16:FP32 Leistung

Noch ne Idee:
[...]
Also 1:2:4 Ratio aber FP64 Takt nur 2/3 FP32 Takt...macht doch Sinn, oder?...
Ja, das meinte ich in #29, ist aber genauso strange wie die anderen Moeglichkeiten ;)

prinz_valium
2016-06-17, 13:34:23
nvm

Dural
2016-06-17, 14:13:58
ist das schon GP102 auf dem Foto?

Der Die finde ich etwas zu gross für GM204

iuno
2016-06-17, 14:29:38
Mit nur 8*GDDR wohl kaum. Das ist das selbe alte Bild, was schon oefter gezeigt wurde.

Die Angaben aus diesem PDF beissen sich im Uebrigen auch ganz boese mit den damals genannten Daten.

http://o.aolcdn.com/dims-shared/dims3/GLOB/crop/1213x629+186+0/resize/630x327!/format/jpg/quality/85/http://o.aolcdn.com/hss/storage/midas/93a3592747228781215e75502439c896/203210477/0104_px2specs.jpg
http://pics.computerbase.de/7/1/6/1/1/2-1080.1267185001.jpg
Sind das eigentlich normale MXM Module?


Hier das Bild vom ersten "echten" Modul, wohl mit GM204
http://scr3.golem.de/screenshots/1601/NvidiaDrivePX2Hintergrund/MO4B8303.jpg
Und hier das mit GP106?
http://pics.computerbase.de/7/1/6/1/1/1-1080.4253138975.jpg

Wo ich nochmal die alten, offiziellen Infos angesehen habe wundere ich mich, dass Ailu da ueberhaupt von GP102 ausgeht.

Zusammen sollen die vier Chips eine Rechenleistung von 8 Teraflops bei einfacher Genauigkeit liefern, wobei unklar ist, wie sich der Wert zusammensetzt. Die thermische Verlustleistung des Drive PX 2 beträgt 250 Watt
Da hat wohl einfach einer aus FP32 FP64 gemacht und aus DL-TOPS (int8?!) FP16

Das wuerde alles erklaeren und das PX 2 setzt auch weiterhin auf 2*GP106 oder etwas kaputtes wie GP104-150 = 104-400/2

stinki
2016-06-17, 14:48:58
Und aus "2x1280-core Pascal GPU" dann "2x3840-core Pascal GPU"???
War der total besoffen???

iuno
2016-06-17, 15:03:54
Keine Ahnung, da ist offenbar gehoerig was daneben gegangen.
Ich will nicht ewig drauf rumreiten, Fehler koennen ja mal passieren.

Es gibt aber genug offizielle Angaben zum PX 2, da haetten wir uns auch nicht so auf diese Randinfo einschiessen duerfen ;D Ich hatte halt auch nicht mehr im Kopf, wie viel dazu schon gesagt wurde, nur dass wir davon ausgegangen sind, dass GP106 verwendet wird.

Jetzt koennen wir das PX 2 ja aus diesem Thread lassen und uns wieder dem Thema widmen ;p

Dural
2016-06-17, 16:35:27
ist schon sehr komisch... :rolleyes:

Edit:
Vielleicht auch ein schreibfehler, 2x 1920SP / GP104 drauf. Deswegen auch die vorab Hardware mit GM204.

Godmode
2016-06-17, 21:00:36
Natürlich äußerst unwahrscheinlich, aber was wäre eigentlich, wenn GP102 wirklich ein Dual-GPU Dings ist, aber nicht mit AFR sondern NVLink Verbindung und als eine GPU für das OS?

robbitop
2016-06-17, 21:18:16
IIRC genügt Bandbreite und Latenz von nvlink dafür nicht (dass es vollständig transparent für die Anwendung läuft).

Aber machbar wäre sowas inzwischen sicherlich dank Interposer.

Ailuros
2016-06-18, 18:04:28
Keine Ahnung, da ist offenbar gehoerig was daneben gegangen.
Ich will nicht ewig drauf rumreiten, Fehler koennen ja mal passieren.

Es gibt aber genug offizielle Angaben zum PX 2, da haetten wir uns auch nicht so auf diese Randinfo einschiessen duerfen ;D Ich hatte halt auch nicht mehr im Kopf, wie viel dazu schon gesagt wurde, nur dass wir davon ausgegangen sind, dass GP106 verwendet wird.

Jetzt koennen wir das PX 2 ja aus diesem Thread lassen und uns wieder dem Thema widmen ;p

Ach ich sass nur etwas aufrecht weil ich dachte dass ich etwas mehr ueber 102 entdeckt hatte.

iuno
2016-06-20, 11:06:32
Da P100 for PCIe mit 250 Watt TDP nur bis 1,3 GHz taktet wird auch die Notwendigkeit fuer GP102 klarer.
GP104 schafft schon annaehernd so viele FP32 FLOPs wie GP100, mit OC sogar mehr und das bei deutlich weniger Verbrauch.

Wenn man davon ausgeht, dass GP102 den ganzen Ballast abwirft, aber gleich viele SP wie GP100 hat und die Effizienz ggue. GP104 nicht sinkt, sollte man bei etwa 12,5 TFLOPs bei 250 Watt raus kommen. Das entspraeche bei den 3.584 SP wiederum ~1,75 GHz.
Alleine um auf diese 12,5 TFLOPs zu kommen, braeuchte man mit GP104 >2,4 GHz.
Im Prinzip koennte die Effizienz aber sogar noch steigen. Die vollen 3.840 SP mit etwas niedrigerem Takt sollten ja auch gut in 250 Watt unterkommen.

Ailuros
2016-06-20, 11:40:18
1.75GHz klingt verdammt optimistisch fuer eine default Frequenz, ausser sie wollen ueber die 250W Verbrauchsgrenze steigen welches ich momentan ausschliesse. IMHO boost nicht hoeher als 1600+ und default FP32 TFLOPs irgendwo bei 11.5. Bei theoretisch +50% Bandbreite fuer die groesste GP102 SKU (vs. GTX1080) ist dieser der wichtigere Faktor als nur sterile FP32 FLOPs unter der Vorraussetzung dass man nicht so daemlich ist und zumindest einen Tausender auf den Ladentisch legt um in 1080p zu zocken :freak:

iuno
2016-06-20, 11:51:25
Die zugrundeliegenden bzw. notwendigen Annahmen hatte ich ja genannt.
Wie gesagt die Titan sollte schon die vollen 3850 SP haben, dann würden 1,6G auch für die theoretischen 12,5TF reichen.
Vielleicht ist das aber auch Wunschdenken und die Titan wird wieder fast so obsolet wie zuvor

Ailuros
2016-06-20, 12:16:09
Die zugrundeliegenden bzw. notwendigen Annahmen hatte ich ja genannt.
Wie gesagt die Titan sollte schon die vollen 3850 SP haben, dann würden 1,6G auch für die theoretischen 12,5TF reichen.
Vielleicht ist das aber auch Wunschdenken und die Titan wird wieder fast so obsolet wie zuvor

3840SPs der Haarspalterei zu Liebe und es werden auch nur so viele beim $1400 Titan sein. Beim salvage part wird es beim default Takt einen Schuss unter 10 TFLOPs liegen.

iuno
2016-06-20, 12:17:24
Ja, um das nochmal klarzustellen sprach ich schon vom Vollausbau/dem Topmodell.
Insofern koennte es durchaus eine groessere Luecke zwischen Ti und Titan geben, was einerseits wuenschenswert waere, andererseits wohl auch wieder einen ziemlich deutlichen Preisanstieg nach sich zoege.

Ailuros
2016-06-20, 12:29:34
Gut dann vereinfacht wird wohl die volle GP102 SKU gegenueber der GTX1080 um ein einstelliges Prozentual niedrigeren Takt haben, aber dafuer ungefaehr 50% mehr Bandbreite und bis zu 40% mehr Einheiten.

Hübie
2016-06-27, 14:03:23
Auf dem Drive PX2 passt GP100 in der Form so nicht rauf und NVLINK kann nicht angebunden werden. Das bedürfe ein komplett neu designtes Motherboard und so eines ist mir nicht bekannt. Die Anschlüß die da oben zu sehen sind, sind reguläre PCIE Interfaces. Nun lasst mal eure Fantasie spielen, wie man auf 2 x 3840 SP kommt. :D

Edit: Hatte den Thread hier aus den Augen verloren, daher die späte Antwort.

iuno
2016-06-27, 14:19:10
Wir hatten das mit den 2x3840SP@PX-2 schon als Fehler abgetan, lies nochmal die Posts. Ich kann mir beim besten willen nicht vorstellen, dass zwei Chips vom Kaliber GP102 auf dem PX-2 untergebracht werden sollen. Es gibt zu viele offizielle Infos, die dagegen sprechen.

GP100 waere theoretisch auch nicht problematischer anzubinden als GP102, wie kommst du darauf? Der Chip hat ja noch ein normales PCIe Interface, NVLink faellt dann halt flach, was solls? GP102 wird bestimmt keine aussergewoehnliche FP16/64 Leistung bringen, fuer so ein Einsatzgebiet wuerde man trotzdem GP100 nehmen. Aber nicht beim PX2.
Das ist auch imho nicht PCIe, sondern MXM, was schon nochmal ein kleiner Unterschied ist ;)
Das trifft genau die 82x105 mm mit 256 Bit GDDR5 bis max. 200 Watt von MXM-B. Das wird man natuerlich nicht ausfahren, da das komplette PX-2 Modul eine TDP von 250 Watt hat

Hübie
2016-06-27, 15:47:58
Öhm. Mobile PCI Express Module :D Der Bus ist und bleibt PCIE. GP100 wirds auf keinen Fall. Zum einen wegen der Verschwendung, zum anderen wegen der TDP / des PT.

iuno
2016-06-27, 16:36:02
Der Datenbus ja, ueber eine PCIe-spezifizierte Schnittstelle ziehst du aber keine 200 Watt.

Nein, aber GP102 genausowenig. IMHO 100% GP106.

Das PX-2 wurde schon mit GM204 gebaut und vermutlich von Partnern getestet. Dann hat man das Board umgebaut auf einen bisher unbekannten (vermutlich Pascal-) Chip, der aber kleiner ist als GP104. Warum sollte man das machen wenn es nicht die geplante finale Loesung ist? Leistung vom Vorserienmodell waere damit auch vergleichbar (GM204/GP106), Effizienz wird halt weiter steigen.

Hübie
2016-06-27, 18:06:17
Na ja warum nimmt man ein Modul, wenn es nicht modular sein braucht? ;) Die 200 Watt kommen halt über die zusätzlichen Pins. Meine Arbeit am Institut hat mich gelehrt dass man Standards missachten kann wenn man etwas Properitäres baut. Und ich denke dass auch hier nichts in Stein gemeißelt ist *schieltzur295X2*
Es kann also durchaus eine skalierbare Lösung von GP106, GP104 zu GP102 sein.

AnarchX
2016-06-29, 18:52:44
Both GP102 and GP106 will be out next quarter according to my information..with GP107/8 being delayed a bit.
https://forum.beyond3d.com/posts/1926988/

So ein GP102 ist doch das richtige für ein Back-to-School Geschenk... ;D

Loeschzwerg
2016-06-29, 18:56:16
GP102 in Q3? Nicht schlecht, ich wäre da eher von Q4 ausgegangen.

Ailuros
2016-06-29, 18:59:01
https://forum.beyond3d.com/posts/1926988/

So ein GP102 ist doch das richtige für ein Back-to-School Geschenk... ;D

Ich much mal mit Erinyes wieder privat plaudern, denn mein Zeug zeigt einen Furz ueber 200mm2 fuer GP106. Sonst fuer 102 war wir hier etwas schneller als er diesmal ;)

scully1234
2016-06-29, 21:13:36
https://forum.beyond3d.com/posts/1926988/

So ein GP102 ist doch das richtige für ein Back-to-School Geschenk... ;D


Ich wuerds mir selber schenken, nachdem ich back to Work war=)

Aber falls da Chips rumliegen waere es eigentlich auch dumm die vergammeln zu lassen, und es nimmt von oben her Druck weg von der GP104 Sparte, weil wohl doch einige Kaufwillige eher dort zu langen, ganz gleich wie teurer es wird

Godmode
2016-06-29, 21:28:59
GP102 in Q3? Nicht schlecht, ich wäre da eher von Q4 ausgegangen.

Je früher, desto besser. Im August kommt ja Deus Ex und später dann Dishonored und dafür könnte ich GP102 gut gebrauchen.

Einzig der Preis wird wohl happig werden.

Sunrise
2016-06-29, 21:43:21
https://forum.beyond3d.com/posts/1926988/

So ein GP102 ist doch das richtige für ein Back-to-School Geschenk... ;D
Das wäre ein ganz schönes Brett.

Durch das Copy&Paste-Design, das sie bereits bei GM204 und GM200 anwenden konnten und jetzt noch erweitern scheint es wohl immens einfacher zu sein, diese Designs nicht alle nur in kürzester Zeit fertigzustellen, sondern auch von den Fabs im Prinzip mit ähnlichem Ergebnis (success) zurückzubekommen.

Soviel GPUs in dieser kurzen Zeit ist nicht minder beeindruckend.

Godmode
2016-06-29, 23:02:21
Mich würde da wirklich interessieren, ob da noch viel Hand angelegt werden muss, oder ob die Tools dann einfach einen größeren Chip ausspucken mit fetterem Interconnect und allem drum und dran. Wird heutzutage noch viel von Hand optimiert, oder machen das wirklich alles schon die Werkzeuge? Die Grundkomponenten scheinen ja wirklich sehr ähnlich zu sein. (ALUs, TMUs, Speicherinterface, Displayengine, ...)

Spannungsversorgung, Clock-Gateing, etc. könnte wohl beim größeren Chip viel extra Arbeit bereiten, oder? Als Laie, kann ich solche Ding aber überhaupt nicht einschätzen.

Mancko
2016-06-29, 23:23:07
https://forum.beyond3d.com/posts/1926988/

So ein GP102 ist doch das richtige für ein Back-to-School Geschenk... ;D

Puh... Das wäre dann aber schon eine richtig dreiste Nummer gegenüber der Konkurrenz. So richtig glauben mag ich das bzgl GP102 noch nicht. Aber ich traue denen das zu. JHH will viel Geld verdienen und Platz für ne fette Titan mit 1000 Euro aufwärts ist ja noch. Wir werden sehen.

Bei GP106 bin ich mir relativ sicher, dass der bald kommt und das der gut dastehen wird. AMD hat Nvidia regelreicht dazu eingeladen. Erinyes spricht von ca. 200mm bzw. knapp darunter und von einem Taktvorteil für Nvidia. Das wär dann aber richtig hässlich für AMD.

Wenn GP102 voll auf Gamer fokkusiert designed ist wie GP104, dann wird es für AMD in Zukunft immer schwieriger, denn dann ist Nvidia an dem Punkt wo sie die Produktlinien Professional auf der einen und Gaming auf der anderen Seite voneinander trennen. Den Luxus kann sich AMD mit dem begrenzten R&D nicht mehr leisten und dann laufen die schon Gefahr, dass Nvidia in beiden Welten die besseren GPUs ausliefern kann. In der Vergangenheit hat ja AMD durchaus auch mal davon profitiert, dass Nvidia's Gaming GPU zu viel Ballast vom Professional Segment an Board hat.

Mancko
2016-06-29, 23:25:36
Mich würde da wirklich interessieren, ob da noch viel Hand angelegt werden muss, oder ob die Tools dann einfach einen größeren Chip ausspucken mit fetterem Interconnect und allem drum und dran. Wird heutzutage noch viel von Hand optimiert, oder machen das wirklich alles schon die Werkzeuge? Die Grundkomponenten scheinen ja wirklich sehr ähnlich zu sein. (ALUs, TMUs, Speicherinterface, Displayengine, ...)

Spannungsversorgung, Clock-Gateing, etc. könnte wohl beim größeren Chip viel extra Arbeit bereiten, oder? Als Laie, kann ich solche Ding aber überhaupt nicht einschätzen.

Mal schauen wie der GP106 und GP102 Launch verläuft. Wenn es reibungslos abgeht und in dem bisher vermuteten Zeitfenster, dann scheint mir Nvidia mittlerweile signifikante Teile des R&Ds in Simulationsfarmen und ähnliches gesteckt zu haben. Vermutlich sogar Serverfarmen mit eigenen GPUs. Vielleicht denkt JHH irgendwann mal so einen Deep-Learning Rechner dahin zu packen, der sich das Testen und Validieren neuer GPUs selber beibringt :)

Disconnected
2016-06-29, 23:33:34
Wenn man es hochrechnet, könnte man von der ersten GPU für sorgenfreies UHD Gaming ausgehen. 12 GB sprechen allerdings mehr für eine 1080 Ti als für eine Titan III. Preislich dürften sie trotzdem ordentlich hinlangen.

Dural
2016-06-29, 23:38:52
Das wird doch seit jahren gemacht, die können jede neue gpu, bevor sie überhaupt existiert fast zu 100% simulieren. Nv wird jetzt schon ziemlich genau wissen was volta leisten wird.

Edit:
Finde die quelle leider nicht mehr, aber irgend ein nv mensch meinte doch mal das sie heute 2 jahre zum voraus eine gpu bis auf 1% genau simulieren können.

scully1234
2016-06-30, 00:55:15
650yVg9smfI

TheGood
2016-06-30, 09:18:37
Wie ist denn die Erwartungshaltung zur Architektur der GP102 ?? Wird sie sich am GP 100 orientieren oder ebenfalls nur ein GM200 (der wars glaub) auf Speed, so wie der GP104 ??

Mancko
2016-06-30, 09:38:21
Wie ist denn die Erwartungshaltung zur Architektur der GP102 ?? Wird sie sich am GP 100 orientieren oder ebenfalls nur ein GM200 (der wars glaub) auf Speed, so wie der GP104 ??

Wenn es schlecht für AMD läuft, dann ist GP102 ein komplett auf Gaming ausgerichteter Chip ohne den Professional Ballast so wie GP104. Dann wird kein unnötiger Platz auf dem DIE für Dinge verbraten die dem Gamer keinen Mehrwert bringen. Dann wird es für AMD schwierig.

iuno
2016-06-30, 09:42:17
GP102 wird sicher ein größerer GP104 und hat mit GP100 weniger zu tun. Das ist ha gerade der Grund warum das ding gebaut wird, alles andere ergäbe keinen Sinn

Hübie
2016-06-30, 09:52:47
Wie ist denn die Erwartungshaltung zur Architektur der GP102 ?? Wird sie sich am GP 100 orientieren oder ebenfalls nur ein GM200 (der wars glaub) auf Speed, so wie der GP104 ??

Man erwartet so ziemlich alles mit Faktor 1,5 ggü. GP104.
Aus der Küche riecht es nach 478 mm², 3840 ALUs, 384 Bit Busbreite (512 denkbar, aber NV-untypisch), 240 TMU, 96 ROPs, 1.433 MHz Coreclock und so weiter. Was sein kann ist, dass Caches überproportional anwachsen. Schlimm wird der Preis :uroll:

Godmode
2016-06-30, 10:15:41
Man erwartet so ziemlich alles mit Faktor 1,5 ggü. GP104.
Aus der Küche riecht es nach 478 mm², 3840 ALUs, 384 Bit Busbreite (512 denkbar, aber NV-untypisch), 240 TMU, 96 ROPs, 1.433 MHz Coreclock und so weiter. Was sein kann ist, dass Caches überproportional anwachsen. Schlimm wird der Preis :uroll:

Siehe Post 1. da steht schon alles, was von Ailuros bestätigt wurde.

scully1234
2016-06-30, 10:19:50
384 Bit Busbreite (512 denkbar, aber NV-untypisch),:

Ich denke man wird die Bandbreite mit schnelleren GDDR5X zupflastern =)

Hübie
2016-06-30, 10:27:31
Siehe Post 1. da steht schon alles, was von Ailuros bestätigt wurde.

Nich gesehen, sorry. Ich bin es nicht gewöhnt dass der Startbeitrag gepflegt wird. :redface:

W4RO_DE
2016-06-30, 22:12:48
Also geht hier das Meinungsbild momentan in Richtung "Kein HBM für GP102"?

Spasstiger
2016-06-30, 23:42:34
Ich kann mir einen GP102 nur bei einer Performanceansetzung oberhalb des GP100 vorstellen. Die Daten aus dem Startposting wären ja bestenfalls gleichauf mit GP100 zu sehen. Dafür braucht es keinen anderen Chip als GP100. Speziell im Enthusiast-Segment, wo die Marge über den Verkaufspreis statt über die Herstellungskosten gesteuert werden kann.

Ravenhearth
2016-07-01, 00:04:44
Natürlich würde sich ein separater Chip lohnen. GP100 hat über 600mm² statt vielleicht 470mm², verfügt über teuren HBM statt 384 bit-GDDR5X und hat wohl eine schlechtere Energieeffizienz durch den ganzen Compute-Ballast.

mczak
2016-07-01, 00:34:26
Natürlich würde sich ein separater Chip lohnen. GP100 hat über 600mm² statt vielleicht 470mm², verfügt über teuren HBM statt 384 bit-GDDR5X und hat wohl eine schlechtere Energieeffizienz durch den ganzen Compute-Ballast.
Wobei die möglicherweise schlechtere Energieeffizienz durch den "Compute-Ballast" (realistischerweise sehe ich da nichts was wirklich zusätzlich Strom verbrauchen würde ausser dem verdoppelten Register-File) locker wieder aufgehoben würde eben durch die Verwendung von HBM...
Aber ob sich das lohnt ist sowieso eigentlich bloss eine Frage der Stückzahl. Wenn der Chip bloss für 1000$+ Karten sein soll sind die zu erwartenden Stückzahlen wohl eher gering, je billiger desto grösser die Stückzahlen und desto lohnender...

Hübie
2016-07-01, 01:09:34
Ich kann mir einen GP102 nur bei einer Performanceansetzung oberhalb des GP100 vorstellen. Die Daten aus dem Startposting wären ja bestenfalls gleichauf mit GP100 zu sehen. Dafür braucht es keinen anderen Chip als GP100. Speziell im Enthusiast-Segment, wo die Marge über den Verkaufspreis statt über die Herstellungskosten gesteuert werden kann.

Es ist schon etwas komplexer als du denkst. GP100 hat eine große Fläche. Da musst du Takt und Spannung genau so gut drüber bekommen wie unter einer kostengünstigeren Variante um äquivalentes binning und yields zu haben. Wird nur nicht der Fall sein.
Der Verkaufspreis steuert sogar recht wenig, wenn du diesen nicht gerade wie bei GP104 zu hoch ansätzt - damit hält man sich nämlich den "Mob" vom Leib. Die Performancesteigerung wird vornehmlich über den Takt statt finden, wirst sehen. (Wobei es keine Vergleiche geben wird...).

Edit: Marktwirschaftlich ist GDDR5X einfach viel zu attraktiv um den auszublenden. Volta wird ebenfalls GDDR5X beinhalten.

Ravenhearth
2016-07-01, 01:53:29
Spannend ist, wie hoch der Speicher takten wird. Mit den kolportierten Taktraten des Chips käme man beim Vollausbau auf ~30% mehr Rohleistung als bei GTX 1080. Dadurch würden schon 10 Gbps an 384 bit reichen, um einem Speicherlimit wie bei der GTX 1080 größtenteils aus dem Weg zu gehen, da man 50% mehr Bandbreite hätte. Aber sobald man übertaktet, läuft man wieder voll rein, und mehr als 10% Speicher-OC war bei der 1080 oft nicht drin. Daher wären 12 Gbps eigentlich notwendig, um genügend Spielraum zu haben, wenn man den GP102 auf 1080-Frequenzen und höher bringen möchte. Wird ja schließlich ein ziemliches Premium-Produkt. Bei der Salvage-Variante könnte Nvidia wieder 10 Gbps nutzen, um die beiden voneinander abzugrenzen.

Hübie
2016-07-01, 02:00:34
Ich lege da keine Hand ins Feuer aber unter der Hand hat man 12 Gbps schon lupenrein erhalten. Vielleicht eine yield-Geschichte?
Auch 14 Gbps waren drin, aber wohl noch zu stark am "Rauschen".

Rampage 2
2016-07-04, 01:24:18
Ich lege da keine Hand ins Feuer aber unter der Hand hat man 12 Gbps schon lupenrein erhalten. Vielleicht eine yield-Geschichte?
Auch 14 Gbps waren drin, aber wohl noch zu stark am "Rauschen".

Kann es sein, dass NV absichtlich "langsamen" GDDR5X-Speicher (10 statt 12 Gbps) verbaut hat? Wegen GP102?

Das ergibt aber keinen Sinn, denn wenn GP102 sowieso 12 oder gar 14 Gbps bieten wird, dann wäre auch bei einem GP104 mit schnellerem Speicher dennoch genug Abstand zum GP102 vorhanden...

Was ich auch nicht verstehe: Was spricht gegen HBM für GP102? Schließlich ist der Chip für das Enthusiast-Segment konzipiert...

R2

Ailuros
2016-07-04, 12:52:06
Was ich auch nicht verstehe: Was spricht gegen HBM für GP102? Schließlich ist der Chip für das Enthusiast-Segment konzipiert...

R2

Wenn GP102 HBM2 haette, haette er einen Grund weniger das fuer seine Existenz sprechen wuerde. Wieso braucht diesmal NV einen GP102 und kommt nicht einfach wie in der Vergangenheit nur mit GP100 fuer high end desktop aus?

Hübie
2016-07-04, 13:21:59
Kann es sein, dass NV absichtlich "langsamen" GDDR5X-Speicher (10 statt 12 Gbps) verbaut hat? Wegen GP102?

Das ergibt aber keinen Sinn, denn wenn GP102 sowieso 12 oder gar 14 Gbps bieten wird, dann wäre auch bei einem GP104 mit schnellerem Speicher dennoch genug Abstand zum GP102 vorhanden...

Was ich auch nicht verstehe: Was spricht gegen HBM für GP102? Schließlich ist der Chip für das Enthusiast-Segment konzipiert...

R2

Das ist zu spekulativ. Ich vermute dass man noch nicht genug Ausbeute für die höheren Frequenzen hat. Das sind ja zwischen 10 Gbps <-> 12 Gbps schon 250 MHz und bei 14 Gbps reden wir schon von 500 MHz Unterschied. Reine Vermutung meinerseits.

Wenn GDDR5X zu hoch getaktet wird überträgt dieser wahrscheinlich partiell im GDDR5-Modus (double prefetch), was den Geschwindigkeitseinbruch erklären könnte. Aber auch das ist nur eine These meinerseits. :)
Den Rest hat Ailuros ja deutlich genug gesagt.

N0Thing
2016-07-04, 13:26:12
Kann es sein, dass NV absichtlich "langsamen" GDDR5X-Speicher (10 statt 12 Gbps) verbaut hat? Wegen GP102?

NV hat absichtlich 10Gbps GDDR5X verbaut, weil der ausreichende Bandbreite liefert und 12Gbps GDDR5X sicherlich deutlich teurer gewesen wäre. Nur für mehr Abstand zu einem GP102 hat man das bestimmt nicht gemacht.

Ravenhearth
2016-07-04, 18:39:18
Die GTX 1080 hat eindeutig eine Limitierung durch die Bandbreite. Allein durch Speicher-OC erhöht sich die Performance deutlich.

Mancko
2016-07-04, 18:51:29
Die GTX 1080 hat eindeutig eine Limitierung durch die Bandbreite. Allein durch Speicher-OC erhöht sich die Performance deutlich.

Das kann doch Nvidia egal sein. Ist ja nicht so, dass sie irgendeine Konkurrenz dort gerade haben.

Ich denke auch, dass sie ganz bewusst 10Gbps GDDR5X verbaut haben. Spart Kosten, ist vermutlich auch besser verfügbar als 12Gbps GDDR5X Speicher, und netter Nebeneffekt ist und bleibt ein ordentlicher Abstand zu Folgeprodukten. Ist im Sinne einer Salamitaktik eindeutig zu bevorzugen. Ich weiß den Kunden schmeckt es nicht so aber wo keine Konkurrenz ist, ist eben auch kein Druck. Nvidia ist äußerst geschickt darin, über die Einnahmen bzw. das Geschäft von morgen bereits nachzudenken. Da ist nichts einfach so Zufall. Das ist alles fein säuberlich durchgetaktet einschließlich Abwägungen wieviel OC sie bei dem ein oder anderen Produkt zulassen wollen oder wieviel Speicher verbaut wird.

Hübie
2016-07-04, 19:01:58
Was macht euch so sicher, dass 12 Gbps schon verkauft werden? :confused:

basix
2016-07-04, 20:07:59
Denk ihr das folgende ist für GP102 wahrscheinlich?


3840 Shader full (später oder als Titan in sehr kleinen Mengen und zu horrenden Preisen)
3584 Shader salvage (Titan? Ti?)
ca. 1.5-1.6GHz durchschnittlicher Boost
384 Bit
12 GByte @ 12 GT/s
Salvage bringt GTX 1080 FE +30-35%
Full bringt GTX 1080 FE +40-45%


Sollte eigentlich in 250W Platz haben, wenn der Speicher nicht übermässig säuft.

N0Thing
2016-07-04, 20:20:22
Die GTX 1080 hat eindeutig eine Limitierung durch die Bandbreite. Allein durch Speicher-OC erhöht sich die Performance deutlich.

Das war bei bisher nahezu allen Grafikkarten so, mal mehr, mal weniger deutlich. Wenn man alleine durch Speicher-OC keinen Performancegewinn hätte, wäre die Bandbreite zu hoch angesetzt, wenn es um eine (für den Hersteller) sinnvolle Ausstattung geht.

Mehr geht ja immer, aber vor allem mit Blick auf Kosten, Verfügbarkeit und Leistungsaufnahme, gibt es einen sinnvollen Bereich bei der Performance und da ist man meiner Ansicht nach bei der GTX 1080 ganz gut aufgestellt. Ist ja auch abseits des Preispunktes nicht das Topmodell.

Godmode
2016-07-04, 20:47:34
Denk ihr das folgende ist für GP102 wahrscheinlich?


3840 Shader full (später oder als Titan in sehr kleinen Mengen und zu horrenden Preisen)
3584 Shader salvage (Titan? Ti?)
ca. 1.5-1.6GHz durchschnittlicher Boost
384 Bit
12 GByte @ 12 GT/s
Salvage bringt GTX 1080 FE +30-35%
Full bringt GTX 1080 FE +40-45%


Sollte eigentlich in 250W Platz haben, wenn der Speicher nicht übermässig säuft.

Auf Seite 1 stehen die Specs, die von Ail schon fast bestätigt wurden. Ich denke nicht das wir Speicher mit 12 GT/s sehen werden. Warum meinen hier soviele das GP102 mehr Bandbreite bekommt?

Gegen 12 GT/s sprechen:
- Kosten
- mehr Stromverbrauch, verglichen mit 10 GT/s
- Die Memorycontroller von GP102 werden wohl die gleichen sein, wie schon bei GP104 und die werden wohl für 10 GT/s ausgelegt worden sein.

Ich hätte zwar auch gerne Speicher mit 12 GT/s, aber glauben tue ich nicht daran. Wenn du GM204 und GM200 vergleichst, bzw. GK104 und GK110, siehst du sehr schön, dass beim großen und kleinen Chip immer der selbe Speicher verbaut wurde, nur eben eine unterschiedliche Anzahl an Chips.

basix
2016-07-04, 20:59:15
Gegen 12 GT/s sprechen:
- Kosten
- mehr Stromverbrauch, verglichen mit 10 GT/s
- Die Memorycontroller von GP102 werden wohl die gleichen sein, wie schon bei GP104 und die werden wohl für 10 GT/s ausgelegt worden sein.

Ich hätte zwar auch gerne Speicher mit 12 GT/s, aber glauben tue ich nicht daran. Wenn du GM204 und GM200 vergleichst, bzw. GK104 und GK110, siehst du sehr schön, dass beim großen und kleinen Chip immer der selbe Speicher verbaut wurde, nur eben eine unterschiedliche Anzahl an Chips.

Naja bei GM204 / GM200 war 7.0 Gbps mehr oder weniger State of the Art. Gab es damals überhaupt erhältlichen 8.0 Gbps ausserhalb Sampling? Wenn GP102 erst gegen Ende Jahr kommt wieso nicht gleich schnelleren Speicher? Ich würde behaupten den Mehrverbrauch durch den Speicher holst du dir durch die bessere Effizienz auf Chipseite wieder rein (z.B. 5% weniger GPU Clock nötig für selbe Leistung). Zudem wollen all die OCer und Enthusiasten befriedigt werden, die würden die 50 Euro Aufpreis bestimmt bezahlen ;)

Das wäre zudem doch eine einmalige Möglichkeit, die Titan Käufer bei Laune zu halten. Titan mit 12 Gbps und super exklusiv (Preis ist eh fast egal, Marge hat man auch genug), Ti mit 10 Gbit und halt "standard". Um nicht das Spiel Titan X vs. 980 Ti zu wiederholen (ich wäre mir verarscht vorgekommen, noch mehr als bei Ur-Titan vs. 780 Ti). Den 10 Gbps Speicher bekommt man vielleicht auf 11 Gbps und fertig, Titan bleibt unangefochten.

Ich würde mir zwar erhoffen, dass auch die Ti mit >10Gbps kommt, einfach um nicht zu limitieren.

Agent117
2016-07-04, 22:39:13
Gegen 12 GT/s sprechen:
- Kosten
- mehr Stromverbrauch, verglichen mit 10 GT/s
- Die Memorycontroller von GP102 werden wohl die gleichen sein, wie schon bei GP104 und die werden wohl für 10 GT/s ausgelegt worden sein.

Ich hätte zwar auch gerne Speicher mit 12 GT/s, aber glauben tue ich nicht daran. Wenn du GM204 und GM200 vergleichst, bzw. GK104 und GK110, siehst du sehr schön, dass beim großen und kleinen Chip immer der selbe Speicher verbaut wurde, nur eben eine unterschiedliche Anzahl an Chips.

Naja man weiß ja nicht ob Nvidia bei der 1080 doch auf höher taktenden Speicher gehofft hat und sich mangels Verfügbarkeit mit 10 GT/s zufriedengeben musste. Die GTX 1070 hat immerhin mehr Bandbreite pro Flop Rechenleistung. Auch wissen wir nicht ob der MC nur 10 GT/s mitmacht, ich halte es für deutlich wahrscheinlicher dass er mehr mit macht. Ich habe fast null Ahnung von solchen Treibern in MCs aber es würde mich wundern wenn die Quad Data Rate bei GDR5X soviel mehr Signalqualität erfordert dass das ein PHY der 8GT/s im DDR Mode schafft nicht mehr als 10GT/s im QDR Mode auf die Beine bekommt....wissen tu ich es allerdings nicht.

Die Kosten werden mit der Zeit ja auch für GDR5X deutlich fallen.
Beim Stromverbrauch wird man sehr wahrscheinlich wieder bei 250W rauskommen. Alles was da rein passt und ein ausgewogenes Verhältnis von Bandbreite zu Rechenleistung bietet wird man nehmen und wenn 12GT/s GDR5X bei x Flops ausgewogener sind als als 10GT/s bei x + 5 bis 10% Flops wird man das dann nehmen. Für die Karte ist UHD ja wichtiger als für die 1080 . Kosten spielen bei über 700$ Verkaufspreis auch keine so große Rolle mehr.

Ravenhearth
2016-07-04, 23:47:31
Das war bei bisher nahezu allen Grafikkarten so, mal mehr, mal weniger deutlich. Wenn man alleine durch Speicher-OC keinen Performancegewinn hätte, wäre die Bandbreite zu hoch angesetzt, wenn es um eine (für den Hersteller) sinnvolle Ausstattung geht.

Mehr geht ja immer, aber vor allem mit Blick auf Kosten, Verfügbarkeit und Leistungsaufnahme, gibt es einen sinnvollen Bereich bei der Performance und da ist man meiner Ansicht nach bei der GTX 1080 ganz gut aufgestellt. Ist ja auch abseits des Preispunktes nicht das Topmodell.

Die GTX 1080 ist aber ungewöhnlich stark limitiert. Sie hat fast 40% mehr Rechenleistung als die GTX 1070, aber nur 25% mehr Speicherbandbreite (die bei GDDR5X etwas ineffizienter genutzt wird) und nur 20% mehr Performance.

Hübie
2016-07-05, 00:05:57
Auf Seite 1 stehen die Specs, die von Ail schon fast bestätigt wurden. Ich denke nicht das wir Speicher mit 12 GT/s sehen werden. Warum meinen hier soviele das GP102 mehr Bandbreite bekommt?

Gegen 12 GT/s sprechen:
- Kosten
- mehr Stromverbrauch, verglichen mit 10 GT/s
- Die Memorycontroller von GP102 werden wohl die gleichen sein, wie schon bei GP104 und die werden wohl für 10 GT/s ausgelegt worden sein.

Ich hätte zwar auch gerne Speicher mit 12 GT/s, aber glauben tue ich nicht daran. Wenn du GM204 und GM200 vergleichst, bzw. GK104 und GK110, siehst du sehr schön, dass beim großen und kleinen Chip immer der selbe Speicher verbaut wurde, nur eben eine unterschiedliche Anzahl an Chips.

Dreimal darfst du raten auf welchen Chips man schon 14 Gbps validieren konnte :D Wie gesagt vermute ich da eine noch nicht ergibiege Ausbeute, weshalb man das zurück hält. Was andere da manchmal fantasieren (weil man Salamitaktik fährt etc) ist deren Realität, aber nicht die Wirklichkeit.*

*Wirklichkeit:
In Wirklichkeit sind es Ursache- und Wirkungszusammenhänge aus Investitions- und Risikobereitschaft. Also schon bedeutend komplexer als es in so simple Verschwörungstheorien zu packen.
Wenn ein jegliches Unternehmen Zugriff auf unendliche Resourcen (Geld) hätte, würden die wohl schon alle Produktionsstraßen auf 7 Nanometer umgestellt haben. Und das schon 1996. :P

Troyan
2016-07-05, 00:32:56
Wer eine gute Nachtgeschichte von Theo Valich lesen will:
http://vrworld.com/2016/07/05/nvidia-gp100-titan-faster-geforce-1080/

N0Thing
2016-07-05, 01:29:57
Die GTX 1080 ist aber ungewöhnlich stark limitiert. Sie hat fast 40% mehr Rechenleistung als die GTX 1070, aber nur 25% mehr Speicherbandbreite (die bei GDDR5X etwas ineffizienter genutzt wird) und nur 20% mehr Performance.

Ich habe auf die schnelle keinen guten Vergleich zur GTX 1070 gefunden, in der Launch-Analye zur GTX 1080 (http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1080/launch-analyse-nvidia-geforce-gtx-1080-seite-2) sieht man aber, dass sich die GTX 1080 trotz nahezu gleicher Speicherbandbreite von der GTX 980Ti deutlich absetzen kann, die zusammen mit der Titan X das absolute High-End der letzten Generation darstellt.
Wie gesagt, Nvidia hätte vielleicht auch GDDR5X mit 12Gbps verbauen können, nur hätte das Nvidia nicht viel gebracht und dem Kunden wahrscheinlich auch nicht, wenn man neben der Performance auch Abwärme und Lautstärke in Betracht zieht.

Ravenhearth
2016-07-05, 01:41:20
Ja, im Vergleich mit der alten Generation schon, aber man muss mit der neuen vergleichen. Und da ist es Fakt, dass die GTX 1080 im Vergleich mit der GTX 1070 verhältnismäßig schlecht skaliert.
Ein größeres Problem als Stromaufnahme und Abwärme war aber wohl die Verfügbarkeit, 12 Gbps gibts wohl noch nicht in ausreichenden Mengen.

Godmode
2016-07-05, 08:19:00
Wer eine gute Nachtgeschichte von Theo Valich lesen will:
http://vrworld.com/2016/07/05/nvidia-gp100-titan-faster-geforce-1080/

Das glaube ich erst wenn ich es sehe. Wie passt dass den alles zusammen? DGX-1 soll ja erst im nächsten Jahr richtig breit ausgeliefert werden und auf der anderen Seite will man schon im August die Pascal Titan vorstellen? :confused:

Weiters schreibt er von 50% auf die 1080. Wie soll das gehen mit GP100? Das Ding erreicht mit 1,5 GHz 11,5 TFlop/s in FP32. Dann müsste GP100, ausgehend von den 8,8 TFlop/s der 1080, ebenfalls mit ca. 1,73 GHz takten. Möglich ist das nur, wenn die 300W TDP von GP100 für FP64 Rechenlast gemeint ist, die ja bekannterweise deutlich mehr Energie verbraucht, als FP32 Rechenlast. Die GP100 ALUs sind wohl noch etwas besser auslastbar, dann könnte man vielleicht sogar mit 1,6 GHz auskommen.

Wie gesagt, das glaube ich erst, wen ich es sehe.

Dural
2016-07-05, 09:10:07
Soll ich mich mal selber Zitieren :freak:

Es bleibt spannent... oder auch nicht ;)

y33H@
2016-07-05, 09:11:01
Aha, man ist bei Nvidia also CPU-limitiert ... haben die armen Engineers kein 4K-Display oder ist DSR im Treiber kaputt? ;D

Mancko
2016-07-05, 09:15:09
Wer eine gute Nachtgeschichte von Theo Valich lesen will:
http://vrworld.com/2016/07/05/nvidia-gp100-titan-faster-geforce-1080/


21. August? Das wäre aber extrem früh. Da ist Vega noch weit weg m.E. Valich schreibt allerdings, dass sie einen GP100 mehr oder weniger dafür verwenden. Sprich bis auf ECC und Speicherinterface kaum Anpassungen. Das würde bedeuten, dass sie vermutlich in Q1/Q2 2017 nochmal einen Big DIE bringen mit angepassten DP/SP Verhältnis.

Mancko
2016-07-05, 09:17:52
Das glaube ich erst wenn ich es sehe. Wie passt dass den alles zusammen? DGX-1 soll ja erst im nächsten Jahr richtig breit ausgeliefert werden und auf der anderen Seite will man schon im August die Pascal Titan vorstellen? :confused:


Ich dachte es wäre anders herum. P100 für die breite OEM Kundschaft ab 2017 und DGX-1 ab Juni. Sprich Nvidia will die geringeren Stückzahlen erstmal selber für Premium Kunden nutzen und den eigenen Server verkaufen und alle anderen können dann ab 2017 starten.

Mancko
2016-07-05, 09:18:32
Aha, man ist bei Nvidia also CPU-limitiert ... haben die armen Engineers kein 4K-Display oder ist DSR im Treiber kaputt? ;D

Theo denkt vermutlich an Full-HD ;D

Godmode
2016-07-05, 09:19:14
21. August? Das wäre aber extrem früh. Da ist Vega noch weit weg m.E. Valich schreibt allerdings, dass sie einen GP100 mehr oder weniger dafür verwenden. Sprich bis auf ECC und Speicherinterface kaum Anpassungen. Das würde bedeuten, dass sie vermutlich in Q1/Q2 2017 nochmal einen Big DIE bringen mit angepassten DP/SP Verhältnis.

Er schreibt, as GP102 nur GP100 ohne NVLink ist, ich sehe da nichts von einem weiterem Big Die mit angepassten DP/SP Verhältnis zumindest nicht in seinem Text.

Wie gesagt, ich tue das ganze jetzt mal als Fud ab. Wo ist Ailuros wenn man ihn braucht?

Nightspider
2016-07-05, 09:21:28
Ein zeitiger GP102 würde natürlich den Preis von GTX1080 und 1070 weiter drücken. Das wäre toll.
Ob Nvidia überhaupt wieder eine Titan für 1200 Euro in den Markt drücken kann wenn eine Karte mit ~40% der Leistung nur 250 Euro kostet muss sich erstmal zeigen.

iuno
2016-07-05, 10:00:50
Ob Nvidia überhaupt wieder eine Titan für 1200 Euro in den Markt drücken kann wenn eine Karte mit ~40% der Leistung nur 250 Euro kostet muss sich erstmal zeigen.
Ich bin mir unsicher, ob du das gerade ernst meinst. Die Preise fuer Titanen war schon immer so exorbitant und das was du ansprichst waere ein voellig normales Verhaeltnis. Wie soll bitte eine 250 € Karte Einfluss auf die Titan nehmen koennen?

2013: 7950 mit ~60-70% der Titan Leistung fuer 250 €
https://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/7/
2015: 290 mit ~60% der Titan X-Leistung fuer <300€
https://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/

Ich glaube einige vergessen das hier oft. Die originale Titan war damals lachhafte 25-30% vor Tahiti und hat fast das Dreifache gekostet :rolleyes:
Insofern waeren 1.200 € fuer die Titan P ueberhaupt kein Problem. Zumal NV die guten Chips gar nicht an Spieler verkaufen will, als Quadro gehen die noch fuer deutlich mehr weg. Fuer den Rest gibt es dann die Ti.

Wer eine gute Nachtgeschichte von Theo Valich lesen will:
http://vrworld.com/2016/07/05/nvidia-gp100-titan-faster-geforce-1080/
Sollte ja einfach nachvollziehbar sein. Einfach eine P100 for PCIe kaufen und schauen ob GP102 drauf steht :P
Ich glaube nicht daran. 50% auf GP104 bekommt man mit diesem GP100 bei angemessenem Verbrauch nicht hin. Ich lasse mich aber gern eines Besseren belehren ;p

Dural
2016-07-05, 10:21:31
Die Titan lief Stock aber auch auf Sparflamme, wie jede Titan bis jetzt ;)

Und übrigens, anders erwarte ich es diesmal auch nicht.

Godmode
2016-07-05, 10:28:50
Ich glaube nicht daran. 50% auf GP104 bekommt man mit diesem GP100 bei angemessenem Verbrauch nicht hin. Ich lasse mich aber gern eines Besseren belehren ;p

Man sollte noch bedenken, dass die 300W TDP von GP100 wohl nur für FP64 gilt. Ich glaube aber auch nicht an die These, dass GP102 == GP100 - NVLink + PCIe.

iuno
2016-07-05, 10:31:20
Man sollte noch bedenken, das die 300W TDP von GP100 wohl nur für FP64 gilt.
Die TDP gilt, egal welche Berechnungen gemacht werden. Nvidia hat einen sehr guten Boost-Mechanismus. Wenn "nur" FP16/32 berechnet werden und das deutlich spart ggue. FP64 kann der Boost dementsprechend weiter hoch. Das ist auch bei P100 wuenschenswert. Insofern haette man da in diesem Falle schon auch hoehere Taktraten/Peak Performance angeben koennen

Godmode
2016-07-05, 10:58:31
Die TDP gilt, egal welche Berechnungen gemacht werden. Nvidia hat einen sehr guten Boost-Mechanismus. Wenn "nur" FP16/32 berechnet werden und das deutlich spart ggue. FP64 kann der Boost dementsprechend weiter hoch. Das ist auch bei P100 wuenschenswert. Insofern haette man da in diesem Falle schon auch hoehere Taktraten/Peak Performance angeben koennen

Ok, da hast natürlich Recht. Ich wollte eigentlich genau das selbe sagen, also das bei FP32 der Boost höher ausfallen kann, als bei FP64.

Mancko
2016-07-05, 11:35:43
Er schreibt, as GP102 nur GP100 ohne NVLink ist, ich sehe da nichts von einem weiterem Big Die mit angepassten DP/SP Verhältnis zumindest nicht in seinem Text.


Ich habe auch nicht gesagt das er von einem weiteren DIE spricht. Ich habe von einem weiteren DIE gesprochen. Wenn GP102 im Prinzip ein GP100 mit dem DP Overhead ist, dann wird es einen weiteren Chip in 2017 geben ala Maxwell der den DP Ballast nicht dabei hat. Das ist so sicher wie das Amen in der Kirche. Da müsste die Konkurrenz sonst total verkacken, dass sich Nvidia erlauben kann einfach GP100 zu verkaufen. Das glaube ich dann doch eher nicht. Vermutlich ist aber bereits GP102 näher an GP104 als an GP100 und seine Story Bogus.

Godmode
2016-07-05, 13:05:39
Ich habe auch nicht gesagt das er von einem weiteren DIE spricht. Ich habe von einem weiteren DIE gesprochen. Wenn GP102 im Prinzip ein GP100 mit dem DP Overhead ist, dann wird es einen weiteren Chip in 2017 geben ala Maxwell der den DP Ballast nicht dabei hat. Das ist so sicher wie das Amen in der Kirche. Da müsste die Konkurrenz sonst total verkacken, dass sich Nvidia erlauben kann einfach GP100 zu verkaufen. Das glaube ich dann doch eher nicht. Vermutlich ist aber bereits GP102 näher an GP104 als an GP100 und seine Story Bogus.

Wie ich weiter oben schrieb, glaube ich auch nicht an seine Story. Anderseits, wenn er schreibt er hat Quellen? Abwarten heißt wohl die Devise.

Edit: Das einzige was ich mir vorstellen könnte: Sie bringen jetzt GP100 wirklich als Titan P und mit HBM2 Speicher und in teuer wie gehabt. Etwas später könnten sie dann GP102 mit GDDR5X nachschieben, aber eben dieses mal mit deutlich mehr Leistungsunterschied zwischen Titan und 1080 Ti.

Ailuros
2016-07-05, 13:18:52
Er schreibt, as GP102 nur GP100 ohne NVLink ist, ich sehe da nichts von einem weiterem Big Die mit angepassten DP/SP Verhältnis zumindest nicht in seinem Text.

Wie gesagt, ich tue das ganze jetzt mal als Fud ab. Wo ist Ailuros wenn man ihn braucht?

Das Theo ein Trottel ist brauch ich nicht zu bestaetigen. Sonst ist es nicht das erste Mal wo jemand von NV vor einem high end launch dem top dog eine Leistungssteigerung goennt die dem Bandbreiten-Unterschied gleich liegt. 480GB/s (10Gbps@GDDR5X) vs. 320GB/s sind eben +50%; wenn Du jetzt in Realitaet einen Unterschied von 42 oder 43% sehen wirst, wird auch kein Hahn danach kraehen.

Sonst um Deine Frage zu beantworten: ich schaufel Millionen fuer andere um meinen Almosen-Lohn zu gerechtfertigen ;)

Dural
2016-07-05, 14:06:16
:rolleyes:

Titan @ GP100 @ 16GB @ 3840SP @ ~ 1400MHz
1080Ti @ GP102 @ 12GB @ 3584SP @ ~ 1450MHz

Godmode
2016-07-05, 15:23:31
:rolleyes:

Titan @ GP100 @ 16GB @ 3840SP @ ~ 1400MHz
1080Ti @ GP102 @ 12GB @ 3584SP @ ~ 1450MHz

@GP100: Das wären gerade mal 21% mehr Flops als bei GP104... vor allem wenn GP100 im DGX1 schon mit 1,5 GHz läuft.
@GP102: Das wären gerade mal 17% mehr Flops als bei GP104...

:rolleyes: zurück

Das Theo ein Trottel ist brauch ich nicht zu bestaetigen. Sonst ist es nicht das erste Mal wo jemand von NV vor einem high end launch dem top dog eine Leistungssteigerung goennt die dem Bandbreiten-Unterschied gleich liegt. 480GB/s (10Gbps@GDDR5X) vs. 320GB/s sind eben +50%; wenn Du jetzt in Realitaet einen Unterschied von 42 oder 43% sehen wirst, wird auch kein Hahn danach kraehen.

Sonst um Deine Frage zu beantworten: ich schaufel Millionen fuer andere um meinen Almosen-Lohn zu gerechtfertigen ;)

Also ist jetzt was dran an der GP100 Titan These oder ist das Theos Hirngespinst?

Dann musst eben die Millionen für dich selber schaufeln, so mache es ich zumindest. :wink:

scully1234
2016-07-05, 15:26:24
Sonst um Deine Frage zu beantworten: ich schaufel Millionen fuer andere um meinen Almosen-Lohn zu gerechtfertigen ;)

Bisher nix angekommen hier=)

Theo wird halt sein Infos etwas "ausgeschmückt" haben, um daraus nen Artikel zu machen.

Kurz und knapp kann er sich ja ausrechnen, wo er in etwa landen wird.Wenns dann 10% weniger sind, fällt das beim Release als ungenau Quelle ,sowieso hinten runter.

Klicks gab es doch trotzdem...

Dural
2016-07-05, 15:29:15
Tja sie haben auch gerade mal "65Watt" (185 auf 250W) zur Verfügung, auf 300W gehen sie sicher nicht, ich kann es mir jedenfalls nicht vorstellen.
Was erwartest du den?

und übrigens:

Die Titan lief Stock aber auch auf Sparflamme, wie jede Titan bis jetzt ;)

Und übrigens, anders erwarte ich es diesmal auch nicht.

:rolleyes::wink:

scully1234
2016-07-05, 15:36:46
Ich sag mal so mit 40% über den jetzigen Karten wäre schon n guter Schnitt, aber mit ner 50er Überschrift gibt's halt mehr Interessenten für den Artikel selbst, das weiß doch auch Theo

PHuV
2016-07-05, 16:04:00
2013: 7950 mit ~60-70% der Titan Leistung fuer 250 €
https://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/7/
2015: 290 mit ~60% der Titan X-Leistung fuer <300€
https://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/

Ich glaube einige vergessen das hier oft. Die originale Titan war damals lachhafte 25-30% vor Tahiti und hat fast das Dreifache gekostet :rolleyes:

Bei den Titanen ging es ja nicht nur um Leistung. Ich hab mit die X wegen der 12 GB VRam gegönnt.

Wenn die neuen Titan wirklich auf der Gamescon vorgestellt wird, dann hat sich der Tripp dahin für mich ja schon gelohnt. :tongue: Ich fliege da ja dieses Jahr nur wegen meinem Jüngsten hin, der will da unbedingt hin.

Hübie
2016-07-05, 18:29:13
Man nehme Gerüchte, Halbwahrheiten und Wahrheiten, mixe diese kräftig, suche sich ein Event und strickt einen Artikel. So etwa diesen Eindruck hinterlässt der Artikel im Groben auf mich.

wolik
2016-07-05, 18:40:49
16 GB HBM2. Ok. NVLink ? Ob Quad Systems dann Limitierung bei 16/8/8/8 PCIe 3.0 umgehen können ? Für 1080 ich hatten nur müde Lächeln. Jetzt wird interessant.

basix
2016-07-05, 19:06:11
Wenn das Gerücht mit HBM2 stimmt, wieso sollten +50% gegenüber GP104 nicht drin liegen? Sagen wir mal man gewinnt auf der Karte overall 10% Effizienz, dann wärs mit 180W * 1.5 / 1.1 = 245W doch sehr gut möglich ;)

Und evtl. wissen sie ja mehr von Vega als wir, deshalb wird noch performance rausgequetscht ;D

Thomas Gräf
2016-07-05, 22:59:55
Wenn das Gerücht mit HBM2 stimmt, wieso sollten +50% gegenüber GP104 nicht drin liegen? Sagen wir mal man gewinnt auf der Karte overall 10% Effizienz, dann wärs mit 180W * 1.5 / 1.1 = 245W doch sehr gut möglich ;)

Und evtl. wissen sie ja mehr von Vega als wir, deshalb wird noch performance rausgequetscht ;D

Näh, Vega10 wird seit den News heut mit 1070/80 Performance spekuliert.
Wird der 14/16'er Prozess überhaupt einen richtig guten 4k tauglichen Chip hervorbringen?

Troyan
2016-07-05, 23:03:31
Wenn das Gerücht mit HBM2 stimmt, wieso sollten +50% gegenüber GP104 nicht drin liegen? Sagen wir mal man gewinnt auf der Karte overall 10% Effizienz, dann wärs mit 180W * 1.5 / 1.1 = 245W doch sehr gut möglich ;)

Und evtl. wissen sie ja mehr von Vega als wir, deshalb wird noch performance rausgequetscht ;D

Vega darf erstmal an die 165W GTX1080 herankommen. Zur Zeit ist diese nämlich zwischen 80-100% schneller als eine RX 480 beim selben Stromverbrauch. :freak:

Sollten die Gerüchte um Q3 und "back to school" wirklich stimmen, tut einem AMD irgendwie leid. Soviele Worte, solch eine Arroganz gegenüber nVidia und von Polaris11 ist nichts zu sehen und Polaris10 liegt gerade in den letzten Bereichen der "15 Minuten Ruhm".

basix
2016-07-05, 23:49:17
Näh, Vega10 wird seit den News heut mit 1070/80 Performance spekuliert.
Wird der 14/16'er Prozess überhaupt einen richtig guten 4k tauglichen Chip hervorbringen?

Also wenn ich die Benches einer GTX 1080 Flanders Edition anschaue und dort +50% rechne in 4K wäre das für mich absolut eine 4K Karte. In den meisten Spielen 50-80 Fps und das auf höchsten Detaileinstellungen.

Und noch zu Vega: Es soll ja laut Spekus noch einen ca. 6k Shader Vega geben. Das wäre ja dann definitiv in Schlagweite. Limitierungen aufgrund Stromverbrauch etc. muss sich halt noch zeigen.

maximus_hertus
2016-07-06, 00:04:09
Vega darf erstmal an die 165W GTX1080 herankommen. Zur Zeit ist diese nämlich zwischen 80-100% schneller als eine RX 480 beim selben Stromverbrauch. :freak:

Sollten die Gerüchte um Q3 und "back to school" wirklich stimmen, tut einem AMD irgendwie leid. Soviele Worte, solch eine Arroganz gegenüber nVidia und von Polaris11 ist nichts zu sehen und Polaris10 liegt gerade in den letzten Bereichen der "15 Minuten Ruhm".

nV hat einen großen Vorsprung, sicherlich. Aber 165W für die 1080 sind es trotzdem nicht, eher 180W ;)

Für mich sieht es so aus: GTX 1080 Performance bei 300W für unter 500 Euro? Gekauft :) 800+ Euro sind einfach viel zu viel (für mich).

Für den Weltmarkt jedoch zu wenig, wenn man sich die massiven Lieferschwierigkeiten anguckt.

Welche Gerüchte bzgl. Q3 meinst du? Wird es dann eine (lieferbare) GTX 1070 für 379 USD geben? Oder was passiert in Q3?

Troyan
2016-07-06, 00:23:12
Es sind rund 165W nach der Einwärmphase: http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

Hardware.fr kommt sogar auf 155W. Da der Boost die Karte stärker einbremst, liegt sie (deutlich) unter der TDP-Angabe.

Zu den Gerüchten über GP102 und Q3:
https://forum.beyond3d.com/posts/1928645/
https://forum.beyond3d.com/posts/1928661/

Schaffe89
2016-07-06, 00:40:15
Das 3D Center kommt auf 171 Watt gemittelt und die rx480 steht bei 162 Watt.
Nvidias Karte ist etwa 75% schneller, also etwa 70% effizienter.
Die 1060 kommt mit 120 Watt TDP, wenn sie wieder so sparsam wie die GTX 960 wird, dann zieht sie wohl ~100 Watt.
Wenn die Karte dabei noch knapp vor der rx480 ist, dann ist bei AMD wirklich die Kacke am dampfen.
Pascal GP102 könnte aufgrund des breiten Chips mit weniger Takt dann nochmal etwas effizienter sein.

Dural
2016-07-06, 09:08:15
Vega? die können froh sein wenn sie überhaupt GP104 erreichen, wenn die Gerüchte stimmen mit 400mm2+ Die und HBM :rolleyes:

GP102 und GP100 scheint keine Konkurrenz zu haben, auch nächstes Jahr nicht. Jensen hat das vor Jahren schon vorhergesagt, er meinte das die Differenz zu AMD immer wie grösser wird da sie nicht mehr die Mittel haben die Heute nötig sind... Aber Geiz ist ja Geil... :rolleyes:

MadManniMan
2016-07-06, 09:27:14
Das 3D Center kommt auf 171 Watt gemittelt und die rx480 steht bei 162 Watt.

Was mich seit ein paar Tagen beschäftigt: ja, die 1070/80 KANN effizient sein - aber die meisten Karten da draußen werden ineffiziente OC-Boliden sein.

Wie bewertet man sowas?

Godmode
2016-07-06, 09:30:16
@Dural: OT: Vega würde ich schon etwas effizienter als Polaris einschätzen:
- größerer Chip
- eventuell wieder HBM wie schon bei Fiji um Powerbudget einzusparen?


Was noch für GP100 als Titan sprechen könnte: Die jetzige Titan X hat 12 GB VRAM. Eine potenzielle 1080 Ti auf GP102 Basis, hätte folglich 12 GB VRAM, aufgrund des 384 Bit GDDR5X SIs. Wenn die Titan P auf GP100 setzen würde, hätte man 16 GB VRAM und somit mehr als bei der alten Titan X.

Dural
2016-07-06, 09:50:37
Ich hoffe mal, sonst werden wir meine genannten 1500.- für eine Titan Garantiert sehen. :frown:

24GB wären sonst auch noch möglich, oder gibt es den GDDR5X Speicher nicht so gross?

mr coffee
2016-07-06, 09:54:48
Glaubt ihr wirklich das GP102 / die neue Titan noch dieses Jahr kommen? nVidia wäre doch in der jetzigen Situation schön blöd die Zügel anzuziehen. Sie könnten noch wunderbar die 1080 melken.
Meine MSI ist gestern gekommen (noch nicht ausgepackt) und ich überlege ob ich sie behalten soll, falls wirklich im August die TI kommen sollte ...

Godmode
2016-07-06, 09:56:01
Ich hoffe mal, sonst werden wir meine genannten 1500.- für eine Titan Garantiert sehen. :frown:

24GB wären sonst auch noch möglich, oder gibt es den GDDR5X Speicher nicht so gross?

24GB müsste gehen, kommt mir aber etwas verdammt viel vor. ^^

Also ich rechne mittlerweile auch eher mit 1000 Euro für die 1080 Ti und 1400-1500 Eur für die Titan.

Glaubt ihr wirklich das GP102 / die neue Titan noch dieses Jahr kommen? nVidia wäre doch in der jetzigen Situation schön blöd die Zügel anzuziehen. Sie könnten noch wunderbar die 1080 melken.
Meine MSI ist gestern gekommen (noch nicht ausgepackt) und ich überlege ob ich sie behalten soll, falls wirklich im August die TI kommen sollte ...

Anscheinend kommt dieses Jahr noch ein großer Chip, eventuell sogar zwei. Also ich habe absolut kein Interesse an der 1080. Das Ding bringt mir selbst mit 2,0 GHz keine spürbare Mehrleistung (+11%), gegenüber meiner Titan X. Ich kaufe sowas einfach nicht und somit kann NV nur mit GP100 oder GP102 mit mir Geld verdienen.

Dural
2016-07-06, 10:05:27
Bist du sicher das solche Chips Lieferbar sind? Oder meinst du einfach hinten 12 weitere drauf löten wie bei der TX?

Thunder99
2016-07-06, 10:23:33
Denke eher GP100 kommt wenn für Consumer wenn sie nicht genug verdienen mit den Business Leuten

yamo
2016-07-06, 11:51:38
Glaubt ihr wirklich das GP102 / die neue Titan noch dieses Jahr kommen? nVidia wäre doch in der jetzigen Situation schön blöd die Zügel anzuziehen. Sie könnten noch wunderbar die 1080 melken.
Meine MSI ist gestern gekommen (noch nicht ausgepackt) und ich überlege ob ich sie behalten soll, falls wirklich im August die TI kommen sollte ...
Wenn Du auf die TI spekulierst, hol Dir doch ne EVGA. Mit etwas Glück kannst Du dann per Step Up upgraden.
Denke eher GP100 kommt wenn für Consumer wenn sie nicht genug verdienen mit den Business Leuten
Was macht NV denn mit dem GP100-Ausschuß? Keine Ahnung wie die Yields sind, aber da dürfte doch einiges übrig bleiben. Könnte doch sein, daß NV den Abfall einfach teildeaktiviert als Titan auflegt um Godmode abzumelken:D. Zum Wegschmeißen ist das ja auch zu schade;)

Godmode
2016-07-06, 11:53:49
Bist du sicher das solche Chips Lieferbar sind? Oder meinst du einfach hinten 12 weitere drauf löten wie bei der TX?

Einfach hinten drauf, wie schon bei der TX.

Thunder99
2016-07-06, 12:01:19
Den teildeaktivierten Scheiß verkauft sich doch gut bei den Unternehmenskunden :freak:

Nochmal zurück zum Anfang. Wenn der GP102 existieren sollte dann sehe ich den als Gamer Lösung an und GP100 nur für den Business Bereich. Da nvidia lange nichts liefern konnte dürfte der Bedarf hoch genug sein um die Investition zu decken.

Teildeaktiviert als Ti Lösung und voll als Titan ? Lösung. Bei 384bit GDDR5X könnte man ja 12GB und 24GB anbieten. Letztere Lösung als 1499$ Produkt

Ailuros
2016-07-06, 13:34:11
Das was ich gehoert habe deckt sich mehr oder weniger mit einer Tabelle die bei chiphell vor einigen Wochen erschien. GP102 bedient sowohl Titan als auch 1080Ti, beide haben einen 250W TDP bzw. 6+8pin board form factor, MSRPs von 1399 und 999, 24 vs. 12GB und eine die area von knapp 480mm2. Irgendwo ueber 11Mrd. Tranistoren bei >1650 boost.

Ravenhearth
2016-07-06, 13:38:15
Wie viele Einheiten sind beim Salvage aktiv?

Hübie
2016-07-06, 13:42:01
Auf eine Vorstellung im August würde ich keine Wetten platzieren, noch weniger auf eine Vorstellung auf der Gamescom. Das nur mal am Rande.

Zur Entwirrung: Es wird eine Steckkarte vom GP100 geben, aber ob ich da einen Monitor anschliessen kann um das neueste Far Cry 6 drauf zu daddeln bezweifel ich ganz stark. GP102 gleicht mehr einem aufgeblähten GP104, als einem destillierten GP100.

yamo
2016-07-06, 13:45:35
Ay, wenn Ailuros das vertellt ist wohl was dran. Einpreisung erscheint mir auch logisch. Aber warum so früh?

Hübie
2016-07-06, 13:51:04
Wenn ein Produkt fertig ist, ist es eben fertig. Man war bei NV wohl selbst überrascht.

@Ravenhearth: Die Ti hat offenbar zwei SM-Cluster weniger->3584 von 3840 ALUs. Entsprechend auch weniger TMUs.

yamo
2016-07-06, 13:59:43
Aber das macht doch keinen Sinn, wenn AMD keine Konkrrenz aufstellen kann.

Hübie
2016-07-06, 14:06:26
Doch. Innovation ist immer ein volkswirtschaftlicher Motor. Intel hat nach Bulldozer doch auch nicht halt gemacht (auch wenn die Leistungskurve abgeflacht ist).

Edit: Ich weiß gerade nicht wer das letztes Jahr sagte, aber einer von NVIDIA (evtl Petersen) antwortete auf die Frage was man von der Konkurrenz erwartet "Which competition??". Anmaßend, ich weiß.

Sunrise
2016-07-06, 14:07:27
Wenn ein Produkt fertig ist, ist es eben fertig. Man war bei NV wohl selbst überrascht.
So sieht es aus. Auch wird NV sich dadurch (GP104) keine Konkurrenz machen, da sie die Preise für GP102 einfach sehr hoch festlegen werden. Hier schlagen sowieso nur Leute zu, die das Maximum an Leistung wollen und die Marge wird bei den entsprechenden Preisen auch identisch bleiben können.

NV kann problemlos einen GP104 mit 50% mehr Einheiten und breiterem 384bit GDDR5X-Interface bauen und das dann min. mit einem Preisaufschlag auf $999 US für die abgespeckte Variante und $1399 US für die ganz fette Titan anbieten.

Die Mehrkosten für GDDR5X, größerem Die und Platine müssen da anteilig eigentlich nur aufgewogen werden und die Marge bleibt auch extrem hoch.

Wenn die Titan zuerst kommt hat man bei noch schlechten Yields von so einem großen Die sogar soviel Platz, dass das Ding praktisch doppelt so teuer ist wie der größte GP104-Ausbau.

Und das wird auch allemal billiger als GP100, der ziemlich sicher selbst als Salvage niemals in den Desktop kommt, weil die Dinger im Pro-Markt noch viel teurer verkauft werden können.

Niemand bezahlt alles Ernstes >$2000 US oder mehr für eine High-End GPU im Desktop-Markt mit dieser geringen Mehrleistung. Da ist GP102 noch fast ein Schnäppchen und für NV auch viel lukrativer als GP100 zu Dumping-Preisen an Endkonsumenten bzw. Spieler zu verkaufen.

Thunder99
2016-07-06, 14:10:25
Danke Ail :) Das scheint in der Tat am plausibelsten.

@Hübi: Wenn es nur 2 SM weniger sind scheint der Performance Abstand nicht so gravierend sein wie zwischen 1070 und 80?!

Hübie
2016-07-06, 14:14:06
Quadro macht übrigens mit GP100 keinen Sinn, da man die Expertise dieses Chips hier wenig bis gar nicht benötigt...
Mein Tipp: GP100 als Tesla mit kleinem Format, 225-250 Watt für app. $ 5000. Dazu vllt. SLi-artige Verbinder für ein kleines NVLink Interface. Das jedoch als reinste Spekulation meinerseits.

@Thunder99: Das sind 256 ALUs. Aber nein. So überproportional wird es nicht, da man nicht auf zwei Speichersorten zurück greift.

y33H@
2016-07-06, 14:16:57
August/Gamescom ist vor allem Pascal Mobile.

VooDoo7mx
2016-07-06, 14:21:53
Aber das macht doch keinen Sinn, wenn AMD keine Konkrrenz aufstellen kann.

Was hat AMD damit zu tun? Seit wann orientiert sich nVidia bei den High End Produkten an AMD? Hat nvidia bei den letzten Titan Produkten irgendwas bei AMD interessiert? War es bei der 980Ti so?

Vom extrem lukrativen Enthusiast Markt hat nVidia locker mindestens 95% Marktanteil. Klar gibt es da ein paar verstrahlte AMD Fanboys die eine Fury X haben, aber im Gegensatz zu den ganzen 980Ti/Titan ist das verschwidnend gering.

Und warum sollte nicht nicht nvidia den Markt mit lukrativen $999 oder $1399 SKUS abgreifen wo man komplett konkurrenzlos ist. Da liegt das fette Geld. AMD muss sicher locker 50 RX480 verkaufen um so viel Gewinn wie nVidia bei eienr Pascal Titan macht.

Also abschließend: Wayne AMD?

Hübie
2016-07-06, 14:24:31
August/Gamescom ist vor allem Pascal Mobile.

Das kann natürlich sein, daran habe ich gar nicht gedacht.

Ailuros
2016-07-06, 14:27:51
Ay, wenn Ailuros das vertellt ist wohl was dran. Einpreisung erscheint mir auch logisch. Aber warum so früh?

Frueh mit beschissenen yields; wenn alles stimmt dann hat selbst die Titan nicht alle clusters aktiv :P

yamo
2016-07-06, 14:37:33
Frueh mit beschissenen yields; wenn alles stimmt dann hat selbst die Titan nicht alle clusters aktiv :P
HarHar;D Sorry für OT

Ailuros
2016-07-06, 14:48:16
HarHar;D Sorry für OT

Spass beiseite, wenn es keinen hw bug geben sollte, dann brauchen sie einfach wie ueblich einen metal spin fuer die sehr komplizierten chips (100, 102) damit diese mit anstaendigen yields auch im Vollausbau ankommen koennen.

Ob's stimmt keine Ahnung, aber Charlie hat schon etliche seiner ueblichen writeups veroeffentlicht ueber Probleme fuer die Pascal chips. Was fuer Probleme steht natuerlich nicht drin ausser man bezahlt als subscriber. 50-50 Chance dass er recht hat, denn es hatten ihn auch alle verarscht als er behauptete dass der MC auf Fermi kaputt ist und am Ende hatte er doch leider reicht.

Thunder99
2016-07-06, 14:52:32
Frueh mit beschissenen yields; wenn alles stimmt dann hat selbst die Titan nicht alle clusters aktiv :P
Titan Classic reloaded? :freak:

Hoffentlich nicht. Weil damals musste man sich schon "verarscht" vorkommen lassen musste, dass eine Ti Version voll aktiviert war und billiger. Gut dafür ja in der DP Performance beschnitten aber das juckte ja damals keinen Gamer. Edit: Gehe aber davon aus, dass es ein Vollausbau geben wird :)

Die Ausbeute sollte aber dennoch für eine Titan gut genug sein für ein Vollausbau bei einer Die-Größe <500mm² :confused:

yamo
2016-07-06, 14:55:03
Ich schieß mal ins Blaue und sage Titan kommt mit leicht deaktivierten SMP´s als GP100, weil sie den ganzen Rest loswerden KÖNNEN für Mondpreise. 2017 können sie den ganzen Shit neu auflegen, weil AMD nix hat.

Ailuros
2016-07-06, 15:00:18
Ich schieß mal ins Blaue und sage Titan kommt mit leicht deaktivierten SMP´s als GP100, weil sie den ganzen Rest loswerden KÖNNEN für Mondpreise. 2017 können sie den ganzen Shit neu auflegen, weil AMD nix hat.

GP100 hat momentan nicht mehr als 56 clusters bzw. 3584SPs aktiv http://www.anandtech.com/show/10433/nvidia-announces-pci-express-tesla-p100

Vollausbau waere 60 clusters bzw. 3840SPs.

Uebrigens kommt der Vogel schon naechsten Monat aber schhhhhhhhh wenn jemand fragt ich weiss nicht woher es kommen koennte......(ok jetzt rastet mir Godmode noch ganz aus....:D )

prinz_valium
2016-07-06, 16:03:15
GP100 hat momentan nicht mehr als 56 clusters bzw. 3584SPs aktiv http://www.anandtech.com/show/10433/nvidia-announces-pci-express-tesla-p100

Vollausbau waere 60 clusters bzw. 3840SPs.

Uebrigens kommt der Vogel schon naechsten Monat aber schhhhhhhhh wenn jemand fragt ich weiss nicht woher es kommen koennte......(ok jetzt rastet mir Godmode noch ganz aus....:D )

da wäre ich echt positiv überrascht. das komplette lineup von mid range bis enthusiast innerhalb von 2 Monaten rauszubringen ist etwas, was es zuletzt in der fermi era gab :eek:

langsam habe ich mittleid mit amd

Sunrise
2016-07-06, 16:14:20
...Die Ausbeute sollte aber dennoch für eine Titan gut genug sein für ein Vollausbau bei einer Die-Größe <500mm² :confused:
Wenn du $1399 US für eine Titan verlangen kannst, dann reicht dir auch ein mangelhafter Yield aus.

Bei einem Preis von sagen wir mal $7000 US pro 300mm 16nm FF Wafer und einer Diegröße von 484mm (22x22mm) bekommst du genau 114 Dies, von denen wir sagen wir mal für Titan-Tauglichkeit einen 20%-Yield haben.

Bei also 22 "guten Dies" wäre man bei über $300 US pro Titan-Die. Das kannst du zwar so nicht rechnen, da NV auch die Salvages verkaufen kann, aber rechne mal fest damit, dass NV das Ding auf jedenfall veröffentlichen wird, und zwar so schnell als möglich, um damit mehr Geld zu verdienen.

Wenn GP102 fertig ist, wird NV ihn ihm August bringen, ohne Wenn und Aber.

Thomas Gräf
2016-07-06, 16:40:24
Hu das geht ja plötzlich ab.
Währe es auch denkbar das TSMC so richtig Bock hat auf solch "Schnellfeuer" um sich GloFo vom Hals zu halten?
Aber wie Ihr schon geschrieben habt, iwie war das ja schon zu riechen das AMD nicht so viel reißen wird.
Jo vom Top Dog zum Hot Dog, neneee.

Korvaun
2016-07-07, 07:52:04
GP102, ja bitte, je eher desto besser!

Wenn GP102 wirklich nur ein aufgebohrter GP104 ist, dann war der ja auch so gut wie fertig mit der Fertigstellung von GP104. Da GP104 ja offensichtlich gut läuft sollte bei GP102 eigentlich kein großer Mist passieren, mal abgesehen von schlechten yields wegen der großen Die-Fläche.

Fraglich ist allerdings ob TSMC aktuell genügend Kapazität hat um auch noch GP102 zu prodden, GP104 ist ja noch nicht wirklich gut verfügbar (customs) und GP106 noch gar nicht am Markt. Eine sauteure Titan-GP102 (1500$) kann ich mir aber im Frühherbst sehr gut vorstellen. Eine neue Ti-GP102 dann als direkter Konter wenn AMD Vega10 vorstellt, außer für Vega10 reicht auch ne normale 1080, dann könnte die Ti-GP102 auch recht teuer werden ;)

z.B.
599$ 1080 custom
699$ 1080 founder

899$ 1080Ti custom
999$ 1080Ti founder

1299$-1499$ Titan (je nach Jensens Lust und Laune)

Hübie
2016-07-07, 09:10:22
GP100 hat momentan nicht mehr als 56 clusters bzw. 3584SPs aktiv http://www.anandtech.com/show/10433/nvidia-announces-pci-express-tesla-p100

Vollausbau waere 60 clusters bzw. 3840SPs.

Uebrigens kommt der Vogel schon naechsten Monat aber schhhhhhhhh wenn jemand fragt ich weiss nicht woher es kommen koennte......(ok jetzt rastet mir Godmode noch ganz aus....:D )

Leere schon mal dein Postfach. :D
GP102 soll afaik 30 SM-Cluster a 128 SP haben.

Godmode
2016-07-07, 09:16:46
GP100 hat momentan nicht mehr als 56 clusters bzw. 3584SPs aktiv http://www.anandtech.com/show/10433/nvidia-announces-pci-express-tesla-p100

Vollausbau waere 60 clusters bzw. 3840SPs.

Uebrigens kommt der Vogel schon naechsten Monat aber schhhhhhhhh wenn jemand fragt ich weiss nicht woher es kommen koennte......(ok jetzt rastet mir Godmode noch ganz aus....:D )

Welchen Vogel meinst du? GP102 oder GP100? Und siehst du noch eine Möglichkeit für GP100 als Spielerkarte?

Ach, Grafikkarten machen mich schon länger nicht mehr verrückt. Vor allem ist das Wetter momentan so schön und neben der Schufterei gehe ich dann Abends lieber raus, als zu Spielen.

Leere schon mal dein Postfach. :D
GP102 soll afaik 30 SM-Cluster a 128 SP haben.

Das klingt recht vernünftig.

Hübie
2016-07-07, 12:21:40
Scully123 wird's jedenfalls freuen. Wobei ich September als Zeitraum habe. Preisfrage: Hardlaunch oder nicht?
Vorstellung auf der gamescom wäre jedoch was ganz neues. Meines Erachtens nach ist die Messe recht unbedeutend, aber kann auch daneben liegen...

mr coffee
2016-07-07, 19:13:34
Wenn Du auf die TI spekulierst, hol Dir doch ne EVGA. Mit etwas Glück kannst Du dann per Step Up upgraden.


Keine schlechte Idee - aber ich konnte nicht widerstehen da kurzfristig keine EVGA verfügbar war. Also hab ich die MSI ausgepackt ...

Bin trotzdem gespannt, was der GP102 bringt und wann dieser kommt.

Godmode
2016-07-08, 07:47:52
Scully123 wird's jedenfalls freuen. Wobei ich September als Zeitraum habe. Preisfrage: Hardlaunch oder nicht?
Vorstellung auf der gamescom wäre jedoch was ganz neues. Meines Erachtens nach ist die Messe recht unbedeutend, aber kann auch daneben liegen...

Freue tue ich mich natürlich auch auf was neues, vor allem wird das die erste richtige 4k GPU. Einziger Unterschied zu früher ist, dass ich das ganze mittlerweile viel gelassener sehe.

Also wenn man sich ansieht wie die 1080 vorgestellt wurde und ebenso wie die 1060 vorgestellt wurde, dann kann man eher von einem Paperlaunch ausgehen.

Ailuros
2016-07-08, 11:22:38
Leere schon mal dein Postfach. :D
GP102 soll afaik 30 SM-Cluster a 128 SP haben.

Das hat keiner bezweifelt; dass alle 30 beim launch bei der groessten SKU aktiv sein werden bezweifel ich eher.

Sonst ingesamt ging es mit 106/102 relativ schnell da beide GP104 als Basis hatten. Heisst in Klardeutsch dass alle jegliche Thesen fuer mehr DP auf 102 bzw. jeglicher Form von HBM schnell begraben koennen.

mironicus
2016-07-09, 10:51:19
Gibt es eigentlich dieses Jahr noch nichts mit HBM-Speicher von NVidia?

gravitino
2016-07-09, 11:00:50
Alles zu GP102 hier rein.



Nachfolger von GM200
selber SP-Aufbau wie bei GP104
Enthusiast Leistungsklasse
3840 SPs organisiert in 30 SMs á 128 SPs
12 TFlop/s FP32 @ 1,6 GHz
384 Bit Speicherinterface
12 GB GDDR5X @10 GBps
250W TDP
Diesize: ~480 mm2
Erscheinungsdatum im Herbst 2016, eventuell schon im August (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11092573&postcount=162)
ca. 40+% schneller als GTX 1080
1080 Ti für 999 $
Titan 10 für 1300-1500 $


Pascal hat nur 64 FP32 Einheiten pro SM. Eine Titan wird es wahrscheinlich nicht geben, solange ATI das Gap zu NVIDIA nicht schließen kann.

Gibt es eigentlich dieses Jahr noch nichts mit HBM-Speicher von NVidia?

Ich glaube ehrlich gesagt nicht, dass ein GP102 mit 30 SMs daherkommt, weil dann könnte man jar gar nicht mehr exklusiv die Tesla P100 verkaufen. NVIDIA hat bereits den Fehler gemacht, dass die Tesla M40 und die Titan X bis auf den RAM baugleich sind, sodass z.B. Baidu von NVIDIA keine Titan X mehr in großen Mengen bekommt und die teuere M40/M4 Kombo kaufen soll. Wenn ich wetten müsste:

25 SMs 12 GB GDDR5X

Das ist immernoch 1,25 x schneller als die 1080, die zumindest in unseren Benchmarks ca. 45% schneller als die Titan X in Single-Precision ist. Ergo, 1,24 x 1,45 ~ 1,8 x Titan X FP32 Performance ist doch durchaus für 1200€ verkaufbar.

Wie wäre es mal mit IRGENDeiner Quelle? Vor 15 Jahren hätte mir das so gereicht, aber da war ich noch nicht volljährig :usad:

@MadManniMan Greetings

crux2005
2016-07-09, 11:44:00
Die Vögel zwitschern mir 28, aber evtl. meinen sie die morgigen Lotto Zahlen.

Thunder99
2016-07-09, 11:49:07
Gibt es eigentlich dieses Jahr noch nichts mit HBM-Speicher von NVidia?
Anscheinend nur für GP100 also für die Professionellen Karten

Eine Ti mit 28 wäre völlig im Rahmen wenn dann die Titan mit 30 kommen würden :) :D

TheCounter
2016-07-22, 05:02:56
"Neue" Infos:

http://i.imgur.com/igQYlEg.jpg (https://www.pcper.com/news/Graphics-Cards/NVIDIA-Announces-GP102-based-TITAN-X-3584-CUDA-cores?utm_source=twitterfeed&utm_medium=twitter)

Ab 2. August in dem USA/Europa verfügbar.

dildo4u
2016-07-22, 05:58:52
https://blogs.nvidia.com/blog/2016/07/21/titan-x/

iuno
2016-07-22, 06:13:19
Weder Seite noch Video erreichbar, nächstes Mal bitte ordnungsgemäß archivieren :P
Nvidia gibt Gas...

Considering the prices of GeForce GTX 1080 cards with such limited availability, the $1200 price tag MIGHT NOT seem so insane.
:ulol:
250 Watt inzwischen auch wieder bestätigt

-=Popeye=-
2016-07-22, 06:18:57
Quatsch keinen Mist... hier geht beides.

iuno
2016-07-22, 06:26:21
Quatsch keinen Mist... hier geht beides.

Schon überkritisch am frühen Morgen? Bist ja nicht mal angesprochen :rolleyes:
Der Beitrag wurde auch mehr als einmal bearbeitet. Zum blog komme ich aber immer noch nicht durch.
Hier die Produktseite: http://www.geforce.com/hardware/10series/titan-x-pascal
Keine Überraschungen

horn 12
2016-07-22, 07:07:54
So schnell und dann auch sofort ab 2-ten August verfügbar
Hammer was NV dieses Jahr alles raushaut
Da kann einem AMD echt leid tun

Hätte die GP102 GPU nicht vor November - Dezember 2016 erwartet!

AnarchX
2016-07-22, 07:38:11
12 Mrd. Transistoren laut Video.
Aber schon eine etwas merkwürdige Einführung, da launcht man das Pascal Flagschiff mal so nebenbei. :|

Godmode
2016-07-22, 07:42:41
Da wird es wohl in ein paar Monaten dann nochmal eine Titan X Black geben, mit 3840 SPs.

Triniter
2016-07-22, 07:44:36
Damit war jetzt irgendwie mal absolut nicht zu rechnen. Ich bin absolut von den Socken, jetzt noch ne schöne TI ankündigen und läuft.

MilesEdgeworth
2016-07-22, 07:46:22
Interessant, dass der Takt doch so "niedrig" bleibt verglichen mit den kleineren Pascal Chips. Der Chip dürfte dafür einiges an Übertaktungspotential haben, auch wenn mit ziemlicher Sicherheit die Leistungsaufnahme explodieren wird.
Aber Wahnsinn, dass der schon so schnell kommt, respektable Leistung.:)

M4xw0lf
2016-07-22, 07:52:42
Die Mehrleistung gegenüber der 1080 wird da aber nicht gigantisch titanisch. Könnte sich tatsächlich leistungsmäßig überhaupt nicht lohnen für 1080-Besitzer (vom Preis mal ganz zu schweigen).

Godmode
2016-07-22, 07:58:44
Mit Wakü und Modbios sollten wieder 2 GHz möglich sein, genau wie schon bei der 1080. Das wären dann ca 14,3 TFLop/s. Ausgehend von meiner 1,5 TX wären das ca. 55% mehr Rechenleistung, rein auf TFLop/s bezogen. Mit den leichten Verbesserungen bei Pascal, wäre das schon ein ganz nettes Upgrade, aber auch kein Weltenzerstörer.

So gesehen wäre ein voller GP100 auch ganz nett als Spielerchip und ich könnte mir durchaus vorstellen, dass dieser noch später nachkommt, aber zu noch viel höheren Preisen.

4Fighting
2016-07-22, 08:05:30
Da wird es wohl in ein paar Monaten dann nochmal eine Titan X Black geben, mit 3840 SPs.


diese Befürchtung habe ich auch - deswegen bin ich derweil noch unentschlossen:(

AffenJack
2016-07-22, 08:07:00
Verkauf nur über Nvidias Seite? Das sieht nach sehr geringen Stückzahlen aus, die man gerade liefern kann. Die Taktraten sind auch sehr niedrig, hätte da doch etwas mehr erwartet. Wird aber trotzdem natürlich erstmal das schnellste was es gibt. Aber der Launch ist schon etwas merkwürdig.

Godmode
2016-07-22, 08:15:03
diese Befürchtung habe ich auch - deswegen bin ich derweil noch unentschlossen:(

Viel böser wäre, wenn sie später GP100 mit 16 GB HBM2 und 3840 SPs bringen würden. Und lustig das sie GP102 anscheinend wirklich unter dem Titan X verkaufen. ^^

Triniter
2016-07-22, 08:40:43
Viel böser wäre, wenn sie später GP100 mit 16 GB HBM2 und 3840 SPs bringen würden. Und lustig das sie GP102 anscheinend wirklich unter dem Titan X verkaufen. ^^
Komisch ist es schon das wieder 12 GB verbaut werden. Nicht das die 12 GB zu wenig wären aber mit 16 hätte ich jetzt schon gerechnet allein schon weil damit ein gewisses Delta zum Vorgänger gewesen wäre.

hellibelli
2016-07-22, 08:53:45
Überraschend das Sie jetzt doch so zügig vorgestellt wurde. Allerdings auch enttäuschend was die Leistung angeht. Ich hätte mir mind. 50% Mehrleistung gegenüber einer 1080 Zotac AMP Extreme! gewünscht und das ohne Wasser oder BiosMod.

Wird eine 1080 TI da bessere Leistungswerte für Grafikhuren wie mich mitbringen, oder ist die Titan X jetzt das schnellste was es im kommenden Jahr geben wird?

Spasstiger
2016-07-22, 08:54:38
Für eine Titan in einer neuen Fertigungsnode ziemlich handzahm. Und wie erwartet steigt auch der Preis. Dafür überraschend früh am Markt.

Rancor
2016-07-22, 09:03:20
Naja erstmal warten wohin die Karte boostet. Wir wissen ja dank Boost 3.0, das man auf die angegeben Taktraten ehh nix geben kann. Zum jetzigen Zeitpunkt ist die Karte aber irgendwie sinnlos. Nvidia braucht ja noch irgendetwas um VEGA zu kontern, oder sie sind so arrogant, das Sie davon ausgehen, das AMD ehh nix geschissen bekommt.
Imho ein Fehler wenn man sich die RX 480 anschaut.

Sunrise
2016-07-22, 09:11:18
Verkauf nur über Nvidias Seite? Das sieht nach sehr geringen Stückzahlen aus, die man gerade liefern kann. Die Taktraten sind auch sehr niedrig, hätte da doch etwas mehr erwartet.
Die Stückzahlen waren doch abzusehen? Es sind immerhin 480mm², das drückt natürlich auf die Yields. Nicht annähernd so schlimm wie GP100, aber doch nochmal deutlich stärker als bei GP104. Zusätzlich kommt dazu, dass TSMC wohl kapazitätsmäßig voll ausgelastet ist.

Der hohe Preis ist IMHO die einzige Überraschung, und resultiert eben aus jenen genannten Gründen. Das sind nämlich immerhin $300 US mehr als spekuliert, denn einen Salvage, der sich bei $999 eigentlich recht wohl gefühlt hätte, nun für $1200 zu verkaufen ist schon ordentlich. Das heißt dann wahrscheinlich $1500 für den vollen Chip.

Alles andere war ja Monate im Voraus schon bekannt, +50% mehr Einheiten, dadurch 25-35% Mehrleistung (je nach Takt/Einheiten).

Das lässt AMD natürlich ein gigantisches Scheunentor offen für Vega - und das werden sie hoffentlich nutzen. Wobei Vega10 erstmal nur mit der 1080 konkurrieren wird können, für GP102 braucht AMD was Größeres.

Disco_STFU
2016-07-22, 09:14:47
1200 Dollar vor Steuern, läuft dann wohl auf 1500€ hinaus?

Spasstiger
2016-07-22, 09:18:23
Wahrscheinlich handelt es sich sogar um einen Salvage-Part des GP102. 67% mehr Transistoren als GP104, aber nur 40% mehr CUDA-Cores und ein 50% breiteres Speicherinterface.
So kann NV noch eine Titan X Black auflegen und die Preisschraube mangels Konkurrenz auf 1500-2000 US-$ hochdrehen.

StefanV
2016-07-22, 09:23:05
Ob nVIdia schon mehr Infos über Vega hat als wir und sich dachte, dass man schnell noch die Titan launcht, die Leute abkassieren kann, bevor 'die anderen' was passendes auf den Markt bringen?

maximus_hertus
2016-07-22, 09:24:05
1200 Dollar vor Steuern, läuft dann wohl auf 1500€ hinaus?

Wenn man die bisherigen Umrechnungen betrachtet, landet man bei rund 1330 (wie würden 1337 klingen?) Euro Endkundenpreis.

Spasstiger
2016-07-22, 09:27:18
Wenn der Chip fertig ist, wird natürlich veröffentlicht. Ergibt keinen Sinn, den Chip zurückzuhalten, wenn man schon Geld damit verdienen kann. Ich denke mit AMD hat das nichts zu tun.

Disco_STFU
2016-07-22, 09:27:19
Dann gibts in 6 Monaten bestimmt eine TItan X Black für 1500(+) mit HBM2. Dann kan man HiSN zweimal melken! :D

fondness
2016-07-22, 09:30:12
Meine thoughts:

- Verkauf nur über nvidia-Seite? Will NV jetzt endgültig in den Direktvertrieb einsteigen bzw. plant man hier womöglich langfristig auf die Partner zu verzichten?

- 2. August mal wieder sehr bald, Nvidia scheint hier alles aufzubieten, bzw. hat man wohl einen Vorteil durch die geringen Änderungen ggü. Maxwell.

- Vorstellung der neuen High-End-Karte in irgend einer kleinen Besenkammer ohne vorherige Ankündigung? Serious? :ugly:

- Zum Preis muss man denke ich ja nichts mehr sagen, NV scheint jede Generation die Preise um 50% zu erhöhen, mal sehen wie lange das durchzuhalten ist^^

Sven77
2016-07-22, 09:38:30
Die Titan war eben nie als Gamingkarte gedacht. Man hat die paar Enthusiasten aber gerne mitgenommen.

ilibilly
2016-07-22, 09:49:11
Schön und gut das die titan x jetzt kommt , aber ehrlich gesagt gab ich mit 3800 cores gerechnet und mehr speicher, denn so wäre platz für eine 1080ti mit eben 3500 shader und 12gb für 800€ , dann gibts diesmal wohl keine Ti.....

AffenJack
2016-07-22, 09:51:00
Meine thoughts:

- Verkauf nur über nvidia-Seite? Will NV jetzt endgültig in den Direktvertrieb einsteigen bzw. plant man hier womöglich langfristig auf die Partner zu verzichten?


Bestimmt auch weil es nicht allzu viele davon geben wird am Anfang und zusätzlich ist es wohl dem Hauptabnehmern der TITAN X geschuldet, Firmen wie Baidu und andere Deep Learning Sachen und Forscher. Spieler sind da wohl nur noch ne Randgruppe.

fondness
2016-07-22, 09:51:30
Deswegen takten sie den Chip auch so niedrig, weil mehr müssen sie nicht tun um AMD vernichtend zu schlagen.

Mehr gibt die TDP von 250W nicht her, das war abzusehen.

Rancor
2016-07-22, 09:52:29
NE TI wird vermutlich um die 3000 Shader haben, oder es kommt garkeine TI

Robspassion
2016-07-22, 09:52:33
Meine thoughts:

- Verkauf nur über nvidia-Seite? Will NV jetzt endgültig in den Direktvertrieb einsteigen bzw. plant man hier womöglich langfristig auf die Partner zu verzichten?



Zumindestens Computerbase schreibt, dass es auch über ausgewählte Systemanbieter vertrieben wird. Hoffentlich.

Godmode
2016-07-22, 09:53:45
Ob nVIdia schon mehr Infos über Vega hat als wir und sich dachte, dass man schnell noch die Titan launcht, die Leute abkassieren kann, bevor 'die anderen' was passendes auf den Markt bringen?

Die wollen einfach Geld der GM200 User haben und wenn sie in 16nm wirklich Refreshs bringen, dann muss man eben bald launchen, sonst kollidieren die Refreshs mit der Nachfolgegeneration.

robbitop
2016-07-22, 09:59:40
Mit Wakü und Modbios sollten wieder 2 GHz möglich sein, genau wie schon bei der 1080. Das wären dann ca 14,3 TFLop/s. Ausgehend von meiner 1,5 TX wären das ca. 55% mehr Rechenleistung, rein auf TFLop/s bezogen. Mit den leichten Verbesserungen bei Pascal, wäre das schon ein ganz nettes Upgrade, aber auch kein Weltenzerstörer.

So gesehen wäre ein voller GP100 auch ganz nett als Spielerchip und ich könnte mir durchaus vorstellen, dass dieser noch später nachkommt, aber zu noch viel höheren Preisen.
Wenn ich rechenleistungsnormiert die GP104 mit der GM200 vergleiche anhand bestehender frischer Benchmarks ist kein signifikanter Vorteil hinsichtlich IPC zu erkennen.

Insofern wird es bei den +55 % in etwa bleiben (GM200 @1500 MHz vw GP102 @2000 MHz).

Finde ich ehrlich gesagt grenzwertig für ein Upgrade. Um nicht zu sagen: enttäuschend.

Bei12 Mrd Transistoren und gleicher Packdichte wie GP106 hat der Chip immerhin schon 545 mm². Das ist schon ziemlich groß. Es sei denn, man hat diese erhöht...
RX480 hat ~10 % höhere Packdichte. Mit dieser käme man auf ~495 mm².

Dann bliebe für Volta noch eine gewisse "Reserve" um eine Art neuen GM200 zu bilden.

AffenJack
2016-07-22, 10:01:37
Die Frage ist, wieso hat das Ding 12 Mrd Transistoren. Im Vergleich zu Gp104 ist das zuviel oder ist das wieder wie bei Gp100 wo es die Zahl 18Mrd und 15,3 Mrd gab und 18 Mrd wohl mit Redundanz sein sollten. Mit Redundanz 12 Mrd und GP104 ohne mit 7,2 Mrd würde ja passen. Nur dämlich, wenn man das so alles mixt.

Sunrise
2016-07-22, 10:05:57
Die Frage ist, wieso hat das Ding 12 Mrd Transistoren. Im Vergleich zu Gp104 ist das zuviel oder ist das wieder wie bei Gp100 wo es die Zahl 18Mrd und 15,3 Mrd gab und 18 Mrd wohl mit Redundanz sein sollten. Mit Redundanz 12 Mrd und GP104 ohne mit 7,2 Mrd würde ja passen. Nur dämlich, wenn man das so alles mixt.
Wird wohl mit Redundanz sein, eben wie die 18Mrd.-Angabe.

Ausgehend von 7.2B ergeben 12B jedenfalls keinen Sinn für einen Chip, der lediglich +50% mehr von GP104 ist.

robbitop
2016-07-22, 10:10:44
Wirklich seltsam. GM200 hatte 53 % mehr Transistoren als GM204 bei 50 % höherer Breite. GP102 hat 66 % mehr Transistoren bei 50 % mehr Breite.
Ob doch noch etwas "Ballast" vorhanden ist? Oder ggf. überproportional gestiegene Cachegröße? Oder aber man musste mehr Redundanz hineinpacken, damit die Ausbeute einigermaßen passt bei so einem großen Chip bei einem noch recht jungen Prozess? Fragen über Fragen.
(oder sind doch ein paar mehr Einheiten für einen Refresh - also einen GP102B - vorhanden?)



3. Ein Home-Run ungestört über mehrere Monate ab dem Performance Segment nach oben färbst unweigerlich nach unten ab. Völlig egal wie die Produkte unten im Detail ausschauen. Wer im wichtigen Feld Single GPU Crown vorne liegt verkauft verdientermaßen auch unten mehr. Das ist nun mal so, weil das Image abfärbt. Auf Grund des deutlichen Mehraufwands ist das auch durchaus gerecht.
Richtig. Die Top Tiers sind zwar für einen Bruchteil des Marktes relevant - haben aber eine sehr hohe Wirkung hinsichtlich Publicity / Ruf. Das gilt für alle Märkte. Das wird gern unterschätzt.

Die neue A-Klasse würde kein Mensch kaufen, wenn nicht Jahrzehnte lang die S, E und C Klasse ein entsprechendes Prestige aufgebaut hätten. Und ja: Autovergeiche saugen. :D

Linmoum
2016-07-22, 10:31:57
Zumindestens Computerbase schreibt, dass es auch über ausgewählte Systemanbieter vertrieben wird. Hoffentlich.
Meanwhile for distribution, making a departure from previous generations, the card is only being sold directly by NVIDIA through their website. The company’s board partners will not be distributing it, though system builders will still be able to include it.
http://www.anandtech.com/show/10510/nvidia-announces-nvidia-titan-x-video-card-1200-available-august-2nd

Robspassion
2016-07-22, 10:34:47
Mh ok könnte dann doch etwas schwerer werden da ranzukommen :=(

Rancor
2016-07-22, 10:36:54
Naja AMD weiss wo Nvidia landen wird. Die Daten zum GP 100 sind ja bekannt und mehr kann Nvdia nicht aus der Pascal Architektur herausholen.
Nvidia weiss aber nicht wo VEGA sich platzieren wird. AMD hat nun den Vorteil, das sie sich schön aus dem Produktportfolio von NV bedienen können. Nvidia hat diese Möglichkeit nicht.

Ich bin wirklich sehr gespannt auf VEGA, ich setze da große Hoffnung rein.

akuji13
2016-07-22, 10:45:56
Bin schon gespannt ob der Abstand@OC einen lohnenswerte Option gegenüber der Geforce Titan X@OC sein wird. :)

Raff
2016-07-22, 10:49:27
Definitiv, sofern es "offene" BIOSe geben wird. Ist aber kein Vollausbau, sondern ein Gerät im Stile der Titan Classic, da kommt also trotz des stattlichen Preises noch etwas nach ... Schade, beim Vollausbau hätte ich überlegt, da das Ding dann zwei Jahre lang top-notch ist, aber so eher nicht – zum Preis einer 1080 könnten wir drüber reden. ;)

MfG,
Raff

Iruwen
2016-07-22, 10:52:27
Weil AMD sicherlich auch mit einem preislich maßlos überzogenen 1000$+ Produkt konkurrieren will... nicht.

Oh, dann muss ich die Pro Duo geträumt haben.

akuji13
2016-07-22, 10:53:49
Die Option nachzulegen halten sie sich doch bestimmt offen bis AMD Vega präsentiert hat oder?

Linmoum
2016-07-22, 10:55:16
Oh, dann muss ich die Pro Duo geträumt haben.
Geträumt nicht, eher nicht verstanden, wofür die Karte gedacht ist und wofür AMD sie auch beworben hat. ;)

Godmode
2016-07-22, 10:59:59
Wenn ich rechenleistungsnormiert die GP104 mit der GM200 vergleiche anhand bestehender frischer Benchmarks ist kein signifikanter Vorteil hinsichtlich IPC zu erkennen.

Insofern wird es bei den +55 % in etwa bleiben (GM200 @1500 MHz vw GP102 @2000 MHz).

Finde ich ehrlich gesagt grenzwertig für ein Upgrade. Um nicht zu sagen: enttäuschend.

Bei12 Mrd Transistoren und gleicher Packdichte wie GP106 hat der Chip immerhin schon 545 mm². Das ist schon ziemlich groß. Es sei denn, man hat diese erhöht...
RX480 hat ~10 % höhere Packdichte. Mit dieser käme man auf ~495 mm².

Dann bliebe für Volta noch eine gewisse "Reserve" um eine Art neuen GM200 zu bilden.

Das ist der Nachteil, wenn die Karte der alten Generation besser zu Übertakten ging, als der Durchschnitt. +55% löst bei mir auch nicht gerade Freudensprünge aus. Jetzt heißt es erstmal Tests abwarten.

Triniter
2016-07-22, 11:12:02
Das ist der Nachteil, wenn die Karte der alten Generation besser zu Übertakten ging, als der Durchschnitt. +55% löst bei mir auch nicht gerade Freudensprünge aus. Jetzt heißt es erstmal Tests abwarten.
Auf der anderen Seite ist die Geschichte ja auch wieder recht entspannt. Wenn man nicht gerade 4k zockt kann man derzeit recht problemlos mit ner 980ti weiter machen. Viele Spiele gibts da nicht die einem da Bauchschmerzen bereiten, selbst in 1440p.
Mal sehen, wenn DX12 schnell Verbreitung findet, könnte es noch anders kommen, andernfalls tendiere ich immer mehr zum behalten der 980ti

HOT
2016-07-22, 11:14:33
Der Trick dabi wird einfach sein, dass der GP102 die gleiche Organisation wie der GP100 hat, nur eben ohne das I/O-Gedöns und HBM. Man könnte denn diesen Chip der Einfachheit halber auch als Quadro verkaufen, ohne dabei auf den Überladenen GP100 zurückgreifen zu müssen. Auch die Takt-Angabe passt zu dieser Theorie. Es ist kein reiner Gamer-Chip, das ist offensichtlich. GP100 bleibt also ausschließlich Tesla vorbehalten.

Ein GP102 in GP104-Organisation müsste ja auch keine 3584 Shader haben sondern 3520.

Tru
2016-07-22, 11:20:56
Ein GP102 in GP104-Organisation müsste ja auch keine 3584 Shader haben sondern 3520.
What? :crazy:

Sunrise
2016-07-22, 11:34:57
Der Trick dabi wird einfach sein, dass der GP102 die gleiche Organisation wie der GP100 hat, nur eben ohne das I/O-Gedöns und HBM. Man könnte denn diesen Chip der Einfachheit halber auch als Quadro verkaufen, ohne dabei auf den Überladenen GP100 zurückgreifen zu müssen. Auch die Takt-Angabe passt zu dieser Theorie. Es ist kein reiner Gamer-Chip, das ist offensichtlich. GP100 bleibt also ausschließlich Tesla vorbehalten.

Ein GP102 in GP104-Organisation müsste ja auch keine 3584 Shader haben sondern 3520.
Hm? Du kommst mit 28SMs bei 128 ALUs pro SM doch auch genau auf diesen Wert?

iuno
2016-07-22, 11:49:15
Verstehe ich auch nicht. Es muessen ja auch keine ganzen GPCs abgeschaltet werden sondern einzelne SMs. 28/30 SM sind aktiv, passt doch.

Schaffe89
2016-07-22, 11:55:52
Mehr gibt die TDP von 250W nicht her, das war abzusehen.

Mal abwarten wie hoch der Verbrauch des Chips dann wirklich ist, die GTX 980 Ti hat auch etwas unter 250 Watt gezogen.:)

Godmode
2016-07-22, 11:57:42
Mal abwarten wie hoch der Verbrauch des Chips dann wirklich ist, die GTX 980 Ti hat auch etwas unter 250 Watt gezogen.:)

Es ist jedenfalls genug Platz für 300 Watt und diese wird man für 2,0 GHz wohl auch benötigen. Falls jemand eine gute GM200 Titan X braucht, siehe Signatur.

y33H@
2016-07-22, 12:01:00
Wer will, kann ja ne Quadro mit 24 GB und Vollausbau kaufen ;D

maximus_hertus
2016-07-22, 12:07:49
Gute 1080 Customkarten könnten der NTX durchaus "bedrohlich" nahe kommen. Rein von der Rechenleistung sind es ja gerade mal +20% zur GTX 1080. Dafür halt direkt +50% Speicherbandbreite, was definitiv helfen wird. Dennoch - die besten 1080 Customs könnten der Stock-Founder-NTX sehr, sehr, nah kommen.

Ich sehe da keinen Platz für eine (kurzfristige) 1080 Ti, besonders bei der VRAM Bestückung.

Evtl. kommt dann 2017 die "richtige" Titan und die NTX wird zur 1080 Ti. Es ist jedoch definitv überraschend, dass nV in rund 2 Wochen nahezu das ganze (Gaming) Portfolio in 14nm "draußen" hat. Das habe ich so nicht kommen sehen.

Godmode
2016-07-22, 12:08:15
Wer will, kann ja ne Quadro mit 24 GB und Vollausbau kaufen ;D

Die Rohleistung ist für mehr als 12 GB VRAM immer noch zu gering. Reden wir bei GV102 nochmal darüber. :)

Hübie
2016-07-22, 12:22:57
Also GP102 ist viel, viel eher ein 1,5-facher GP104 als ein destillierter GP100. In vielfacher Hinsicht. Aber jetzt finde ich ist mal Schluß mit NVIDIAs Preistreiberei. Cutdown für 1200? Geht's denen noch gut? :facepalm:

Also selbst für jemanden wie mich, wo Hardware ruhig teuer sein darf ist die Grenze nun überschritten. Imo sollte man zum Boykott aufrufen und klare Zeichen setzen.

Robspassion
2016-07-22, 12:26:52
Wieso das Teil ist ohne Konkurrenz. Dafür kann Nvidia nehmen was sie wollen. Ich will definitiv eine und mir ist der Preis nicht so wichtig. Dafür aber von wo man sie bekommt :D. Direkt von Nvidia ist irgendwie mist.

HOT
2016-07-22, 12:37:53
Hm? Du kommst mit 28SMs bei 128 ALUs pro SM doch auch genau auf diesen Wert?
Stimmt, da lag ich falsch :freak:. Ich glaub trotzdem, dass er wie GP100 organisiert ist.

dildo4u
2016-07-22, 12:42:25
Und der volle Chip kommt dann nästes Jahr noch mal mit HBM2,damit kann man bis Volta überbrücken.Ich vermute mal Volta kommt 2017 nur für HPC.

Nightspider
2016-07-22, 12:42:29
Das sie 12GB bekommt war ja absolut klar.

Das man uns aber den Salvage-Chip für ~~1350€ andrehen will ist...:ugly:

x-force
2016-07-22, 12:44:54
Also selbst für jemanden wie mich, wo Hardware ruhig teuer sein darf ist die Grenze nun überschritten. Imo sollte man zum Boykott aufrufen und klare Zeichen setzen.

das ist süß :tongue:, jedoch gibt es genug andere kunden, die garantiert zu jeden preis kaufen, solange es die schnellste karte ist, davon haben wir hier im forum schon einige kandidaten :freak:
btw: inkl oc wird der mehrpreis schon grob mit der mehrleistung korrelieren. nvidia würfelt die preise schließlich nicht.

fondness
2016-07-22, 13:04:23
Also GP102 ist viel, viel eher ein 1,75-facher GP104 als ein destillierter GP100. In vielfacher Hinsicht. Aber jetzt finde ich ist mal Schluß mit NVIDIAs Preistreiberei. Cutdown für 1200? Geht's denen noch gut? :facepalm:

Du meinst wohl 1,5 fach.


Also selbst für jemanden wie mich, wo Hardware ruhig teuer sein darf ist die Grenze nun überschritten. Imo sollte man zum Boykott aufrufen und klare Zeichen setzen.

Die Geister die ich rief...

Hakim
2016-07-22, 13:12:07
Hätte echt gedacht das die neue Titan mit HBM Kommt und eine evtl 1080Ti mit 384 Bit@GDDRX kommt. Name könnte noch mehr verwirren als bisher, alt GTX Titan X, neu Titan X.

Geächteter
2016-07-22, 13:15:25
Die Mehrleistung gegenüber der 1080 wird da aber nicht gigantisch titanisch. Könnte sich tatsächlich leistungsmäßig überhaupt nicht lohnen für 1080-Besitzer (vom Preis mal ganz zu schweigen).
Wird wohl auch eher für die Titan (X)-Besitzer mit sehr großer Geldbörse gedacht sein, die bei der 1080 GTX noch nicht so richtig aus dem Häuschen waren. Wenn man zu lange wartet, könnten sie doch noch auf ne 1080 umspringen und dann wäre beim neuen Preismonster wieder das gleiche Problem, man bekommt sie nicht zum Wechseln. Ist schon raffiniert, wie nvidia das macht. Aber die Gewinne werden wohl nicht höher als damals sein, die 14-nm-Fertigung ist wohl deutlich viel teurer auf längere Zeit oder für immer als die 28 nm. Wenn man guckt, was für Preise für SSDs mit 4 TB abgerufen werden. Technischer Fortschritt in der Halbleiterindustrie verbilligt heute nicht mehr, eher das Gegenteil.

dildo4u
2016-07-22, 13:15:34
Hätte echt gedacht das die neue Titan mit HBM Kommt und eine evtl 1080Ti mit 384 Bit@GDDRX kommt. Name könnte noch mehr verwirren als bisher, alt GTX Titan X, neu Titan X.
NV macht doch viel mehr Kohle wenn sie kein HBM2 nutzen,selbst mit GDDR5X hat sie deutlich mehr Bandbreite pro Flop als die 1080.

Ex3cut3r
2016-07-22, 13:16:48
Nettes Spielzeug, aber diesmal ziemlich beschnitten, kein 24GB Vram ist auch enttäuschend, über den Preis braucht man gar nicht zu reden, und trotzdem wird es sich gut verkaufen. Ob eine 1080ti kommt, ist auch fragwürdig, wenn ja mit wie viel Vram? 10+2 mit Krüppelanbindung?

iuno
2016-07-22, 13:17:40
Hätte echt gedacht das die neue Titan mit HBM Kommt und eine evtl 1080Ti mit 384 Bit@GDDRX kommt. Name könnte noch mehr verwirren als bisher, alt GTX Titan X, neu Titan X.
Naja immerhin lassen sie sich ja auch aeusserlich schon sehr gut unterscheiden ;p
Auch das "GTX" fehlt bei der neuen.

Nightspider
2016-07-22, 13:18:55
Nettes Spielzeug, aber diesmal ziemlich beschnitten, kein 24GB Vram ist auch enttäuschend, über den Preis braucht man gar nicht zu reden, und trotzdem wird es sich gut verkaufen.

Was um Himmelswillen willst du mit 24GB ? VRAM-Disk?

Hast du ernsthaft 24GB erwartet?

Ex3cut3r
2016-07-22, 13:20:18
Ja, bei einer Titan erwarte ich VRam im überschuss.

Hakim
2016-07-22, 13:22:12
Naja immerhin lassen sie sich ja auch aeusserlich schon sehr gut unterscheiden ;p
Auch das "GTX" fehlt bei der neuen.

Vielleicht sollten wir hier die neue ab jetzt im Forum mit TX abkürzen, dann wüsste jeder Bescheid welche gemeint ist :)

Godmode
2016-07-22, 13:22:44
Aja und wie erwartet hat das Ding 10 Gbps schnellen VRAM und nicht wie von einigen erwartet, schnelleren.

Hübie
2016-07-22, 13:22:46
das ist süß :tongue:, jedoch gibt es genug andere kunden, die garantiert zu jeden preis kaufen, solange es die schnellste karte ist, davon haben wir hier im forum schon einige kandidaten :freak:
btw: inkl oc wird der mehrpreis schon grob mit der mehrleistung korrelieren. nvidia würfelt die preise schließlich nicht.

Ich schrieb ja "imo". Wo die Grenze für ein jeden ist entscheidet man ja selbst. Es sei also jedem freigestellt darüber zu entscheiden.

Du meinst wohl 1,5 fach.

Stimmt. Hab's korrigiert. Ausgehend vom GM204 sind es 1,75 auf 3584. Steh etwas unter Drogen :freak:

Bei dem Preis hält man sich natürlich eine hohe Nachfrage vom Hals. Taktisch auch klug die Leute erst mal zu schockieren, damit dass 899-Dollar-Produkt wieder im rechten Licht dasteht.