PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26

PHuV
2016-05-09, 14:09:56
http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks
Das ist ja sehr schludrig zusammengestellt, man erkennt gar nicht richtig was nun was sein soll. :mad: Da steht mehrfach nur Nvidia Graphics Device, und weiß nicht, welche Karte das nun genau sein soll.

Ätznatron
2016-05-09, 14:11:08
Kann man die Karten denn so faken für die Ergebnisse auf deren Seite?

Alles eine Sache der optischen Aufbereitung...mit etwas Mühe geht alles.

Ich habe größte Zweifel an der Echtheit.

phoenix887
2016-05-09, 14:12:03
Hier ist die 1080 knapp vor der 980 Ti. Für die 1070 dürfte damit 980 Ti Performance wohl eher die cherry picked Ausnahme sein.

Gut zu wissen. Meine ist seit Monaten stabil bei 1530mhz. Da kann ich ja beruhigt bis nächstes Jahr warten. Geld gespart, danke Nvidia;D

Blediator16
2016-05-09, 14:15:53
Alles eine Sache der optischen Aufbereitung...mit etwas Mühe geht alles.

Ich habe größte Zweifel an der Echtheit.

Du kannst auf die Karten klicken und wirst auf die Seite verlinkt :freak:

BigKid
2016-05-09, 14:25:56
Gibts schon was bezüglich GTX1080M ?
Da in nem Laptop ja die Wärme/der Verbrauch limitieren denke ich dass hier vor allem Effizienzsteigerungen durchschlagen...

Meine GTX980M darf glaub ich 125 Watt verheizen wenn ich mich richtig an das PT erinnere...

Ätznatron
2016-05-09, 14:30:29
Du kannst auf die Karten klicken und wirst auf die Seite verlinkt :freak:

Auf welche Seite denn?

Wenn ich drauf klicke, lande ich auf einem videocardz-Server.

Blediator16
2016-05-09, 14:36:42
Auf welche Seite denn?

Wenn ich drauf klicke, lande ich auf einem videocardz-Server.

In der Tabelle z.b auf die 67DF:C4 (POLARIS 10) klicken und man wird auf die AoTS Seite gelinkt.

Ätznatron
2016-05-09, 14:38:28
In der Tabelle z.b auf die 67DF:C4 (POLARIS 10) klicken und man wird auf die AoTS Seite gelinkt.

Ah, wieder was gelernt. Danke! ;)

Isen
2016-05-09, 14:38:49
67DF:C4 (POLARIS 10) (http://www.ashesofthesingularity.com/metaverse#/personas/8c77445b-f445-44ac-8dd5-401b55ffefeb/match-details/1e0a82e3-fcf3-4193-b25a-032cb80df081)

Feddisch. Wobei das deren Interpretation ist > (POLARIS 10)

Blediator16
2016-05-09, 14:41:14
Und auch die Werte sind merkwürdig. Von unten nach oben verliert die Karte kaum fps. Da werden wohl keine richtigen Treiber verfügbar sein.

Ravenhearth
2016-05-09, 14:44:05
Hmm... sehe ich es richtig, dass Pascal takt-/ und shaderbereinigt nichts gegenüber Maxwell zugelegt hat? Wenn ich das mehr an Takt und Shader zusammen rechne komme ich auf +78%. Das entspricht ziemlich genau den +70-80% laut der NV-Folie.

Da die 1080 nur etwa 40% an Bandbreite zulegt und durch GDDR5X die Speicherperformance wahrscheinlich etwas abnimmt, kann auch einfach eine Limitierung durch den Speicher vorliegen. Mit Sicherheit kann man das nur sagen, wenn man die Chips ohne Speicherlimitierung vergleicht, aber das ist nicht so einfach möglich.

Sunrise
2016-05-09, 14:55:50
...Was am Ende mehr Performance pro Fläche (oder auch Watt) liefert, werden wir sehen müssen.
...
Du schwenkst also auf "unsere" Argumentation um, daß über Vega10 mit <=400mm² noch locker Platz für einen Top-Dog mit etwa 50% mehr ALUs (also ~6144 SPs) wäre? Okay. Dann hättest Du Dir den Rest aber auch sparen können. ;)
Ich fasse das mal zusammen.

So gegensätzlich sind "unsere" Argumentationen nicht, es geht mir eher darum, dass im aktuellen Fall, bei den deutlich höheren Taktraten von NV, hier pro ALU für NV ein ziemlich starker Vorteil da ist, sofern AMD ihre TDP-Effizienz nicht verlieren will und nicht im letzten Moment (vor Auslieferung) wieder BIOS- oder sonstartige Anpassungen vornimmt, um das irgendwie ausgleichen zu können.

Wenn du dir Vega als Polaris nach oben skaliert vorstellst, dann sind 4096 ALUs vs. 4096 ALUs bei weitem NICHT genug, sollte es hier Taktunterschiede von sagen wir mal 1-1,1GHz bei AMD vs. 1,607GHz bis 1,733GHz bei NV geben.

Das sind 507 bis 633Mhz mehr pro ALU für NV, wenn ich bei AMD von 1100MHz ausgehe. Das ist ein ziemlich beträchtlicher Unterschied, den AMD bisher mit Polaris nicht angedeutet hat. Denn AMD wollte hier auf maximale "Power-Effizienz" gehen und maximal Mainstream-Leistung. Alles natürlich unter der Vermutung, dass Vega da ähnliche Design-Präferenzen hat, auch wenn man natürlich eine andere Endleistung anpeilt.

AMD kann also nur noch mehr ALUs verbauen (du kannst dir ja ausrechnen, wieviele das sein müssen und die zusätzliche Fläche) oder irgendwie die Takte mit der Brechstange stark erhöhen, um da ranzukommen. Und dann zusätzlich noch der HPC-Ballast, der sicher auch nicht umsonst ist? Oder wie verhält sich das? Es muss ja einen Grund geben, warum AMD bei bestimmten Chips nur sehr wenig DP-Rate liefert.

Jedenfalls wird man auch nicht mal eben das Design so hoch takten können, wenn es auf diese hohen Takte garnicht ausgelegt ist. Und Polaris schätze ich so nicht ein.

Ailuros
2016-05-09, 15:01:00
Sind es dann eventuell 4096 SPs mit 1:2 DP/SP oder ohne? :P :freak:

Isen
2016-05-09, 15:01:27
Hängt auch stark davon ab, wie viel AMD mit dem Treiber rausholt, wie es Nvidia schon tut bzw. wie viel AMD imstande war, dort (einiges brachliegendes) wett zu machen.

Nackt kannst du das kaum vergleichen. Da hilft nur abwarten.

Ailuros
2016-05-09, 15:02:58
Hängt auch stark davon ab, wie viel AMD mit dem Treiber rausholt, wie es Nvidia schon tut bzw. wie viel AMD imstande war, dort (einiges brachliegendes) wett zu machen.

Nackt kannst du das kaum vergleichen. Da hilft nur abwarten.

Falls Du die Debatte zwischen Sunrise und Gipsel meinen solltest, die beiden Herren diskuttieren ueber chip die area und das hat wirklich nichts mit Treibern zu tun.

Isen
2016-05-09, 15:22:30
Nicht ganz, Ailuros:

AMD kann also nur noch mehr ALUs verbauen (du kannst dir ja ausrechnen, wieviele das sein müssen und die zusätzliche Fläche) oder irgendwie die Takte mit der Brechstange stark erhöhen, um da ranzukommen.

Performance pro Fläche, ja. Wie viel liegt denn bei AMD brach, den NV mittels Treiber schon wett gemacht hat?
Nur wegen des Vergleichs willen gemeint, Ailuros :-)

BlacKi
2016-05-09, 15:30:41
Hmm... sehe ich es richtig, dass Pascal takt-/ und shaderbereinigt nichts gegenüber Maxwell zugelegt hat? Wenn ich das mehr an Takt und Shader zusammen rechne komme ich auf +78%. Das entspricht ziemlich genau den +70-80% laut der NV-Folie.
wie kommst du darauf?
42% mehr boost takt (wobei der durschnittliche takt prozentual wohl niedriger ist als bei der 980)
20% mehr cuda cores.

100% x 1,2 x1,42= 170,4%

wenn man jetzt noch bedenkt das die karte zwar 70-80% mehr rechenleistung hat, aber nur 42% mehr memorybandwith, kann man davon ausgehen das gp104 ggü. maxwell shaderbereinigt erheblich zugelegt hat. aber soviel langeweile hab ich nun doch nicht hier weiter zu rechnen^^

fondness
2016-05-09, 15:44:54
Wenn du dir Vega als Polaris nach oben skaliert vorstellst, dann sind 4096 ALUs vs. 4096 ALUs bei weitem NICHT genug, sollte es hier Taktunterschiede von sagen wir mal 1-1,1GHz bei AMD vs. 1,607GHz bis 1,733GHz bei NV geben.

Das sind 507 bis 633Mhz mehr pro ALU für NV, wenn ich bei AMD von 1100MHz ausgehe. Das ist ein ziemlich beträchtlicher Unterschied, den AMD bisher mit Polaris nicht angedeutet hat. Denn AMD wollte hier auf maximale "Power-Effizienz" gehen und maximal Mainstream-Leistung. Alles natürlich unter der Vermutung, dass Vega da ähnliche Design-Präferenzen hat, auch wenn man natürlich eine andere Endleistung anpeilt.


Dafür kommt AMD mit wesentlich weniger Die-Size pro ALU aus, kann also auf der selben Fläche wesentlich mehr verbauen. Wenn (Beispiel!) AMD auf derselben Fläche 6144 ALUs verbauen kann wo NV nur 4096 ALUs schafft, dann wäre der Taktvorsprung von Nvidia beriets mehr als ausgeglichen. Dass das Design von AMD nicht so sehr auf Takt ausgelegt ist wie das von Nvidia ist klar, das muss aber nicht unbedingt ein Nachteil sein. Was in punto Perf/Watt und Perf/mm² dann letztendlich effizienter ist muss man abwarten.

Nichts anderes versuche ich dir seit mehreren Beiträgen zu sagen, als du von deinen 500mm² mit 4096 ALUs bei AMD geschrieben hast und mir Unfähigkeit vorgeworfen hast ->
Du schwenkst also auf "unsere" Argumentation um, daß über Vega10 mit <=400mm² noch locker Platz für einen Top-Dog mit etwa 50% mehr ALUs (also ~6144 SPs) wäre? Okay. Dann hättest Du Dir den Rest aber auch sparen können. ;)


Bingo.

dargo
2016-05-09, 16:07:11
wie kommst du darauf?

(2560/2048)% * (1733/1216)%.

Ravenhearth
2016-05-09, 16:09:11
wie kommst du darauf?
42% mehr boost takt (wobei der durschnittliche takt prozentual wohl niedriger ist als bei der 980)
20% mehr cuda cores.

Es sind 25% mehr.

BlacKi
2016-05-09, 16:16:31
Es sind 25% mehr.
stimmt, ändert aber nicht viel daran das die performance durch die bandbreite des speichers hinunter gezogen wird.

Ailuros
2016-05-09, 16:20:51
Nicht ganz, Ailuros:



Performance pro Fläche, ja. Wie viel liegt denn bei AMD brach, den NV mittels Treiber schon wett gemacht hat?
Nur wegen des Vergleichs willen gemeint, Ailuros :-)

Schon aber wenn man fuer Frequenzen N ausgelegt hat sind die Moeglichkeiten weiterhin die Frequenzen zu erhoehen durch den Stromverbrauch begrenzt. Ausser ich hab die beiden Herren falsch verstanden ging es von der eingeschaetzten die area los und verbreitete sich spaeter im Lauf der Debatte.

Von dem abgesehen beide IHVs haben logischerweise immer als allerhoechste Prioritaet mit launch-Treibern die hoechstmoegliche Stabilitaet und danach kommen erst die einstelligen Prozent-fetzen von beiden Seiten die auch oefters als "Performance-Treiber" betitelt werden. Gibt es im Treiber keine ziemlich grosse "Blase" sind die Leistungs-Optimierungen zwar schoen und gut aber machen auch keinen entscheidenden Unterschied.

Sunrise
2016-05-09, 16:36:52
@fondness:
Bei extrem konservativer Rechnung stark zugunsten gerechnet für AMD treffen wir uns weiterhin bei ca. 450mm² bei 6144 ALUs von AMD vs. etwa 4096 ALUs (bzw. 3840) bei NV für ähnliche Leistung auf beiden Seiten.

Meine grobe Schätzung von etwa 500mm² passt schon, weil die auch bereits annahm, dass AMD nicht einfach volle DP-Rate (oder zumindest Half-DP) mit NULL Transistorenaufwand realisieren kann, was es mit Polaris nämlich NICHT geben wird (da bin ich mir ziemlich sicher).

Insofern kann man nicht einfach hochrechnen, weil die Architektur nicht identisch sein wird.

Aber zwischen 450mm² und 500mm² werden es werden, alles deutlich kleiner UND schneller als GP102 würde mich extrem überraschen, bei diesen Vorgaben von NV und dem was wir von AMD aktuell wissen. Und genau darum ging es mir, es scheint irgendwie nur nicht anzukommen...

Und bei dieser Größe (6144 ALUs) sieht mir das eher nach Vega 11 mit HBM aus. Vega 10 hat meiner Meinung nach eher um die 4096 ALUs.

Dural
2016-05-09, 16:45:36
Es wird doch auf das hinaus laufen wie dies seit dem G80 der fall ist, NV hat wenige dafür sehr effiziente ALUs und AMD hat viel die in 90% der fälle nicht richtig ausgelastet werden können ;)

Nakai
2016-05-09, 17:20:53
Es wird doch auf das hinaus laufen wie dies seit dem G80 der fall ist, NV hat wenige dafür sehr effiziente ALUs und AMD hat viel die in 90% der fälle nicht richtig ausgelastet werden können ;)

Oh, da wäre ich mir diesmal nicht so sicher. ;)

Godmode
2016-05-09, 17:25:56
Es wird doch auf das hinaus laufen wie dies seit dem G80 der fall ist, NV hat wenige dafür sehr effiziente ALUs und AMD hat viel die in 90% der fälle nicht richtig ausgelastet werden können ;)

Nur weil es bisher so war, muss es dieses mal nicht auch so sein.

Sunrise
2016-05-09, 17:30:47
Nur weil es bisher so war, muss es dieses mal nicht auch so sein.
Wunder passieren zwar immer wieder, aber bei AMD haben wir absolut keine Fakten, die das Gegenteil beweisen. Ich bleibe da erstmal skeptisch.

Freue mich natürlich, wenn AMD da brach liegendes Potenzial gefunden und genutzt hat.

fondness
2016-05-09, 17:47:44
@fondness:
Bei extrem konservativer Rechnung stark zugunsten gerechnet für AMD treffen wir uns weiterhin bei ca. 450mm² bei 6144 ALUs von AMD vs. etwa 4096 ALUs (bzw. 3840) bei NV für ähnliche Leistung auf beiden Seiten.

Meine grobe Schätzung von etwa 500mm² passt schon, weil die auch bereits annahm, dass AMD nicht einfach volle DP-Rate (oder zumindest Half-DP) mit NULL Transistorenaufwand realisieren kann, was es mit Polaris nämlich NICHT geben wird (da bin ich mir ziemlich sicher).

Insofern kann man nicht einfach hochrechnen, weil die Architektur nicht identisch sein wird.

Aber zwischen 450mm² und 500mm² werden es werden, alles deutlich kleiner UND schneller als GP102 würde mich extrem überraschen, bei diesen Vorgaben von NV und dem was wir von AMD aktuell wissen. Und genau darum ging es mir, es scheint irgendwie nur nicht anzukommen...

Und bei dieser Größe (6144 ALUs) sieht mir das eher nach Vega 11 mit HBM aus. Vega 10 hat meiner Meinung nach eher um die 4096 ALUs.

Du sprachst von 500mm² bei 4096 ALUs, bei 6144 ALUs ist das natürlich etwas ganz anderes.

IMO (ich habe es eh weiter hinten schon mal gepostet):

Vega11:
- 6144 SPs
- 4096 bit HBM2
- ~550mm²
- ~250W TDP

Vega10:
- 4096 SPs
- 2048 bit HBM2
- < 400mm²
- ~180W TDP

Polaris10:
- 2560 SPs
- 256 bit GDDR5
- 232 mm²
- 130W TDP

Polaris11:
- 1280 SPs
- 128 bit GDDR5
- < 150 mm²
- 60W TDP

Takt wird wohl bei allen bei ~1,2 Ghz default liegen, je nach Ausrichtung etwas mehr oder weniger. DP1:2 haben womöglich beide Vega, Polaris wie üblich nur DP1:16.

scully1234
2016-05-09, 17:50:30
Ashes of Asyncron Desaster

On Extreme settings, the GeForce GTX 1080 scores 7200 points with an average FPS of 74 whereas AMD’s top dog, the Radeon Pro Duo scores 7300 points with an average FPS of 75



Von der Seite dessen Namen jeder kennt WCCF Tech

Preemption scheint ware Wunder zu wirken, wenn das Ergebnis so uebereinstimmt

prinz_valium
2016-05-09, 18:08:06
Du sprachst von 500mm² bei 4096 ALUs, bei 6144 ALUs ist das natürlich etwas ganz anderes.

IMO (ich habe es eh weiter hinten schon mal gepostet):

Vega11:
- 6144 SPs
- 4096 bit HBM2
- ~550mm²
- ~250W TDP

Vega10:
- 4096 SPs
- 2048 bit HBM2
- < 400mm²
- ~180W TDP

Polaris10:
- 2560 SPs
- 256 bit GDDR5
- 232 mm²
- 130W TDP

Polaris11:
- 1280 SPs
- 128 bit GDDR5
- < 150 mm²
- 60W TDP

Takt wird wohl bei allen bei ~1,2 Ghz default liegen, je nach Ausrichtung etwas mehr oder weniger. DP1:2 haben womöglich beide Vega, Polaris wie üblich nur DP1:16.

edit: nvm hab da irgendwie ein x gelesen, wo keins war :D

Sunrise
2016-05-09, 18:14:34
Vega11:
- 6144 SPs
- 4096 bit HBM2
- ~550mm²
- ~250W TDP

Vega10:
- 4096 SPs
- 2048 bit HBM2
- < 400mm²
- ~180W TDP

Polaris10:
- 2560 SPs
- 256 bit GDDR5
- 232 mm²
- 130W TDP

Polaris11:
- 1280 SPs
- 128 bit GDDR5
- < 150 mm²
- 60W TDP

Takt wird wohl bei allen bei ~1,2 Ghz default liegen, je nach Ausrichtung etwas mehr oder weniger. DP1:2 haben womöglich beide Vega, Polaris wie üblich nur DP1:16.
Passt, so meinte ich das. Hat gedauert, aber jetzt sind wir endlich auf einem Nenner. Wobei die 550mm² wahrscheinlich etwas zu hoch gegriffen sind.

Asmi Meo
2016-05-09, 18:30:13
Du sprachst von 500mm² bei 4096 ALUs, bei 6144 ALUs ist das natürlich etwas ganz anderes.

IMO (ich habe es eh weiter hinten schon mal gepostet):

Vega11:
- 6144 SPs
- 4096 bit HBM2
- ~550mm²
- ~250W TDP

Vega10:
- 4096 SPs
- 2048 bit HBM2
- < 400mm²
- ~180W TDP

Polaris10:
- 2560 SPs
- 256 bit GDDR5
- 232 mm²
- 130W TDP

Polaris11:
- 1280 SPs
- 128 bit GDDR5
- < 150 mm²
- 60W TDP

Takt wird wohl bei allen bei ~1,2 Ghz default liegen, je nach Ausrichtung etwas mehr oder weniger. DP1:2 haben womöglich beide Vega, Polaris wie üblich nur DP1:16.
@fondnees Hallo, warum versteifst Du dich so sehr auf 232mm2?

Die Leakinfo von Jurgen Hao enthielt viele Informationen von dgpu Projekten die nie erschienen sind. Projekt F muss daher nicht bedeuten, daß dieses Die wirklich oder jetzt erscheint. Wahrscheinlich könnten größere Varianten auch erstmal *nur* in 14LPE erscheinen und werden später auf den effizienteren Fertigungsprozeß 14LPP umgestellt. Um die 15% Verlustleistung zu kompensieren, könnte AMD ein Design auch insgesamt größer ausfallen lassen, unter dem Aspekt das es mehr verbraucht, 160-180w TBP. TDP geben die nicht mehr an. Später unter LPP entweder effizienter oder leistungsfähiger ausführen. Rechne das Ganze doch mal von einer Größenordnung 560-580mm2 in 28nm um, und was so ein Chip leisten könnte. Ob dgpu Projekt F je erscheint und was das darstellt, ist doch sehr vage. Das könnte informativ auch Absicht von AMD sein.

fondness
2016-05-09, 18:31:47
Das stimmt natürlich. Trotzdem dürften die ~230mm² ganz gut passen.

Nakai
2016-05-09, 18:32:44
http://videocardz.com/59487/amd-polaris-11-and-10-gpus-pictured

€: Kleine Abschätzung diesbezüglich. Die 230mm² sollten gut passen.^^

MiamiNice
2016-05-09, 18:33:21
Ashes of Asyncron Desaster



Von der Seite dessen Namen jeder kennt WCCF Tech

Preemption scheint ware Wunder zu wirken, wenn das Ergebnis so uebereinstimmt

Wow, sollte das so stimmen ist das schon beachtlich.

http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

€: Was hat eigentlich das ganze AMD Geschwafel hier im Thread zu suchen?

AnarchX
2016-05-09, 18:58:10
Custom-Modelle mit bis zu 2.4GHz Boost? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11026830#post11026830)

scully1234
2016-05-09, 18:58:38
Was?:freak:

TurricanM3
2016-05-09, 19:06:33
Custom-Modelle mit bis zu 2.4GHz Boost? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11026830#post11026830)


Goil. Ich hoffe die Karten skalieren halbwegs. =)

Troyan
2016-05-09, 19:08:49
Es ist irgendwie lustig, dass der nVidia-PR Mensch für die Treiber die Werte bei Ashes geleakt hat:
http://www.ashesofthesingularity.com/metaverse#/personas/81b0e74e-f164-4349-8c62-fc1ddfaa9df9/match-details/f5269aa0-dfe1-4397-b773-5b1efded9a8a

https://twitter.com/PellyNV

Werewolf
2016-05-09, 19:15:21
Wann ist der Verkaufsstart?

Troyan
2016-05-09, 19:15:55
27 Mai für die GTX1080 und 10 Juni für die GTX1070.

Werewolf
2016-05-09, 19:24:09
Danke. Die ersten Versionen sind wohl eh die mit Fön-Lüfter.

tdon
2016-05-09, 19:26:47
Es ist irgendwie lustig, dass der nVidia-PR Mensch für die Treiber die Werte bei Ashes geleakt hat:
http://www.ashesofthesingularity.com/metaverse#/personas/81b0e74e-f164-4349-8c62-fc1ddfaa9df9/match-details/f5269aa0-dfe1-4397-b773-5b1efded9a8a

https://twitter.com/PellyNV


Wo steht sie im Vergleich zur 980 Ti?

AnarchX
2016-05-09, 19:26:48
Es ist irgendwie lustig, dass der nVidia-PR Mensch für die Treiber die Werte bei Ashes geleakt hat:
http://www.ashesofthesingularity.com/metaverse#/personas/81b0e74e-f164-4349-8c62-fc1ddfaa9df9/match-details/f5269aa0-dfe1-4397-b773-5b1efded9a8a

https://twitter.com/PellyNV

War wohl nicht so gewollt: https://twitter.com/PellyNV/status/729663743160778753

Für SiSoft gab es wohl leider mittlerweile eine Anleitung, wie man testet ohne Upload. ;D

ShinyMcShine
2016-05-09, 19:31:53
Custom-Modelle mit bis zu 2.4GHz Boost? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11026830#post11026830)

:eek::eek::eek::eek::eek:
:freak::freak::freak::freak::freak:
;D;D;D;D;D

Ascorvit
2016-05-09, 19:32:48
Die ersten Versionen sind wohl eh die mit Fön-Lüfter.

Und dem Deppenzuschlag. :rolleyes:

Werewolf
2016-05-09, 19:36:33
Wie lange dauert es bis zu den Windforces, DirectCUs und Lightnings?

Eigentlich kacke im Sommer zu kaufen aber nachdem ich mein Gehäuse gewechselt habe und für das alte (FT02) 3 neue 18er Lüfter gekauft und da nun ein i7-3770k reinkommt mit 16GB Ram wird mein Bruder sich freuen nicht mit Intel onboard mitspielen zu müssen.

Troyan
2016-05-09, 19:36:42
Wo steht sie im Vergleich zur 980 Ti?

Wären ca. 33% gegenüber dem DX11 Ergebnis: http://www.overclock3d.net/reviews/gpu_displays/ashes_of_the_singularity_pc_performance_review/9

Ist das Gesamtergebnis. Hier erreicht die GTX1080 60,2FPS mit DX12.

TurricanM3
2016-05-09, 19:38:09
Gut betuchte Kunden für die der Preis zweitrangig ist = Depp. Classic. ^^

Asmi Meo
2016-05-09, 19:48:05
Wie lange dauert es bis zu den Windforces, DirectCUs und Lightnings?
Geht wohl diesmal schneller: videocardz.com/59778/gigabyte-teases-geforce-gtx-1080-xtreme-gaming

phoenix887
2016-05-09, 20:41:47
Lightning bezweifel ich. Wird wieder so sein Wie bei Maxwell. Erst mit der Ti. Dann werde ich erst auch aufrüsten. Windforce kommt mir sowieso nicht mehr ins Haus.

Hübie
2016-05-09, 21:47:24
Wobei die letzte Iteration laut Igor echt gut ist.

R.I.P.
2016-05-09, 21:50:28
Kann mir jemand die Werte von AoS erklären? Habe die Werte der 1080 mit anderen hochgeladenen Benchmarkergebnissen verglichen, komme auf keinen grünen Zweig. Einmal höher, einmal niedrigere Werte zu einer 980Ti...

Ascorvit
2016-05-09, 22:22:36
Bei den AoS Werten waere ich erstmal vorsichtig und wuerde nix drauf geben.
Bei einem Test bspw. ist 2x ne Polaris 10 drin, bloss unterscheiden sich die Werte um ca. 100%.

Davon ausgehend das am 17.05. wirklich die Tests kommen, sollte man erstmal ein wenig den Hypelevel runterfahren (und evtl. das aktuell gute Wetter geniessen ;o) )



Gut betuchte Kunden für die der Preis zweitrangig ist = Depp. Classic. ^^

Genau, weil ja auch bspw nur gut Betuchte sich ein iPhone kaufe. :rolleyes:

Troyan
2016-05-09, 22:25:05
Mir ist auch aufgefallen, dass noch niemand sich beschwert hat, dass nVidia mit Pascal 3- und 4-Way SLI zu Grabe trägt. Die "High Bandwidth" SLI-Brücken nehmen beide "Zungen" und verdoppeln somit die Bandbreite. Guru3D hat den Artikel nachträglich überarbeitet und die Information entfernt. ;D

Gipsel
2016-05-09, 22:32:40
Mir ist auch aufgefallen, dass noch niemand sich beschwert hat, dass nVidia mit Pascal 3- und 4-Way SLI zu Grabe trägt. Die "High Bandwidth" SLI-Brücken nehmen beide "Zungen" und verdoppeln somit die Bandbreite. Guru3D hat den Artikel nachträglich überarbeitet und die Information entfernt. ;DNa der AFR-Kram ist meiner Meinung nach sowieso eher eine Krücke gewesen. Wer wollte sich denn mit drei oder gar 4 Karten wirklich antun?
Und werden die SLI-Brücken mit DX12 explicit Multiadapter nicht sowieso irgendwie langsam redundant?

y33H@
2016-05-09, 22:35:36
Öhm, es gibt doch unterschiedlich breite HB-SLI-Bridges für mehr als zwei Karten.

kuj0n
2016-05-09, 22:37:57
LJ0AoYSH01g

Troyan
2016-05-09, 22:39:08
Öhm, es gibt doch unterschiedlich breite HB-SLI-Bridges für mehr als zwei Karten.

Eher für die unterschiedlichen Abstände der PCIe Slots:
http://images.nvidia.com/pascal/img/gtx1080/sli.png

Hübie
2016-05-09, 23:04:27
Mich wundern viel mehr andere Dinge. Man nimmt z.B. mehr Geld für das Ref-Design und ändert offensichtlich das Vertriebsmodell mit den AIB Vendors. Bei NVIDIA können die zwar nicht klagen, aber ich vermute dass denen die Marge geschmälert wird. Ich hoffe die haben endlich mal die primäre Energieversorgung überarbeitet. Das ist ja seit Kepler ne Katastrophe. Laut NVIDIA "Premium components" ...das ich nicht lache. Das war alles - nur nicht premium.

Asmi Meo
2016-05-09, 23:20:52
Eher für die unterschiedlichen Abstände der PCIe Slots:
http://images.nvidia.com/pascal/img/gtx1080/sli.png
Die Frage ist, warum nVidia dermaßen im Bereich der Partner wildert und ob das gut ankommt. Dort gibt es schon verschiedene Partner, wie zum Beispiel Asus, Msi, Evga die ihre eigenen 2Way m, 2Way s und 3Way Sli Enthusiast Bridges anbieten. Jetzt wird ja erstmal verhindert, daß mehr als zwei Karten eingebunden werden können. Ob sowas gut ankommt nach diktierten Preisen?

Die Bridge selbst ist auch nichts positives, unter DX11 wird der Austausch der Bridge über den Treiber abgewickelt, unter DX12 eben durch den Entwicker per EMA unlinked und linked mode. Kann damit auch bedeuten, nVidia will das Feature nicht so gerne offenlegen, oder es gibt technisch Einschränkungen und sieht hier weiterhin Bedarf per Treiber darauf einzuwirken. Das verhindert die tiefere API Kontrolle durch den Entwickler.

Komischerweise braucht eine GTX unter AoS keine Bridge, kann also auch daran liegen ob nVidia den Direktzugriff auf die Hardware wünscht oder nicht. Das übliche Verhalten eigentlich, am eigenen Ökösystem gemessen.

Unlinked mode kann auch iGPU und dGPU verbinden.

Dural
2016-05-09, 23:21:00
Der preisaufschlag für die ref. Karten gab es doch immer, nur wurde dies nie gesagt ;)

cR@b
2016-05-09, 23:46:53
Der preisaufschlag für die ref. Karten gab es doch immer, nur wurde dies nie gesagt ;)

Exakt... es hat sich nichts außer die Namensgebung dafür geändert. Ich würde aber wieder zu der Version greifen, auch wenn die Custom besser performen.

Unicous
2016-05-09, 23:55:16
Ähm... und der Preis. Den Preis bitte nicht vergessen.:up:

Referenz hat vor zwei Jahren noch $549 und kostet jetzt $699. Ob es das Referenzmodell auch für $599 geben wird, ist bislang mehr als fraglich. Also bitte nicht so tun, als hätte sich "nichts" geändert.

phoenix887
2016-05-10, 01:12:15
Wobei die letzte Iteration laut Igor echt gut ist.

Stimmt auch wieder. Die Erste Windforce der 980Ti steckt mir noch in den Knochen. Wobei ich das mir eigentlich auch denken konnte, hatte ja auch die Titan Black Windforce. Die war noch schlimmer.... die hatte sogar Coil Whine. Ich bin deswegen erstmal von Gigabyte bezüglich Grafikkarte geheilt.

scully1234
2016-05-10, 01:12:57
Mir ist auch aufgefallen, dass noch niemand sich beschwert hat, dass nVidia mit Pascal 3- und 4-Way SLI zu Grabe trägt. Die "High Bandwidth" SLI-Brücken nehmen beide "Zungen" und verdoppeln somit die Bandbreite. Guru3D hat den Artikel nachträglich überarbeitet und die Information entfernt. ;D


Wird wohl nicht das einzige bleiben was man zu Grabe traegt

Vielleicht ist AFR im Verbund ja auch demnächst obsolet, da DX12 ja auch mit SFR aufwarten kann. Fuer DX 11 bieten sie ja immerhin VR SLI an, was den selben Renderprozess nutzt

=Floi=
2016-05-10, 01:15:08
bei den kleinen karten gingen noch nie mehr als zwei. wie kommt ihr denn darauf?
erst die ganz großen karten waren multi SLI fähig. dank VR könnte es sich für enthusiasten schon wieder mehr lohnen. ich persönlich sehe auch die gestiegenen kartenpreise als gegenargument. ~2000€ sind kein pappenstiel.

scully1234
2016-05-10, 01:18:43
3Way SLI ging immer

http://www.guru3d.com/miraserver/images/2012/gtx680-3-sli/Untitled-31.png

wolik
2016-05-10, 04:06:00
3Way SLI ging immer

680 SLI ? Warum nicht Geforce 7800x2 SLI? Ah, ja. Geforce 7800 in Triple SLI lief noch nicht.

Zergra
2016-05-10, 07:42:22
Naja, bin mal gespannt wie stark NV GP104 - 200 und GP106 beschneiden wird. Bei GP 106 rechne ich mit 1280 Cuda Cores @ 192Bit dazu noch 4GB GDDR5 Speicher.

iuno
2016-05-10, 09:06:35
Mir ist auch aufgefallen, dass noch niemand sich beschwert hat, dass nVidia mit Pascal 3- und 4-Way SLI zu Grabe trägt. Die "High Bandwidth" SLI-Brücken nehmen beide "Zungen" und verdoppeln somit die Bandbreite. Guru3D hat den Artikel nachträglich überarbeitet und die Information entfernt. ;D
Naja beschwert nicht, weil es mich nicht juckt. Angemerkt habe ich es aber:
eine SLI Bruecke [verbindet] nur 2 Karten.
Aber das Thema hast du selbst (!) ja damals gekonnt abgewuergt oder gar nicht erst aufkommen lassen ;D

Na der AFR-Kram ist meiner Meinung nach sowieso eher eine Krücke gewesen. Wer wollte sich denn mit drei oder gar 4 Karten wirklich antun?
Und werden die SLI-Brücken mit DX12 explicit Multiadapter nicht sowieso irgendwie langsam redundant?
Warum sind die Dinger nicht auch ohne explicit MA redundant, so wie bei AMD? Was will man da mit laecherlichen 2 GiB/s?
AMD geht ja schon länger nur noch über PCIe, wäre es hier nicht sinnvoller gewesen die Brücke auch abzuschaffen oder gleich mit einem NVLink zu realisieren?
Mit PCIe 3.0 sollte man sich das doch laengst sparen koennen. Vielleicht lassen die das ja noch, weil viele Mainboards nur einmal x16 anbinden. Dann sollte es mit PCIe 4.0 ein Ende haben. Oder man wuerde einfach ordentliche Bandbreite ueber eine Bruecke ermoeglichen, etwa mit einem NVLink. Das wuerde doch auch fuer klassisches SLI helfen?!
Die Frage von mir steht noch im Raum:
SLI hat mich noch nie wirklich interessiert. Über was für ein interface läuft denn die Kommunikation mit der Brücke?
Ist das ein eigenes Interface auf dem Chip oder wird es doch noch irgendwie etwa vom PCIe Teil mit gemacht? Wenn das ein eigenes Ding ist sollte ja ein (!) NVLink (=2 Karten) nicht die wahnsinnig grosse Huerde sein!? Ausser natuerlich das soll wirklich den richtig teuren Karten vorbehalten sein.

Dural
2016-05-10, 09:43:27
AMD hat die Brücken damals doch nur gestrichen weil die 290X sonst im CF verglüt wären ;)

robbitop
2016-05-10, 11:03:55
Anstatt einfach beide Brücken zu nutzen, hätte NV ein neues Interface machen können. Eine Verdopplung eines in 2004 eingeführten Interfaces wirkt irgendwie ...unbeeindruckend.

Wenn es stimmt, dass Pascal ohne Probleme tatsächlich so hohe Taktraten (>>2 GHz) schafft, würde mich mal interessieren, wie NV das geschafft hat. Das klingt nach einem extrem hohem Sprung.
Mit GM204 waren 1,5 GHz schon ein sehr gutes OC-Ergebnis. 2,4 GHz sind mal eben 60 % mehr Takt. WTF?

iuno
2016-05-10, 11:06:11
Wieso denn ein neues IF wenn NVLink schon da ist :confused:

soLofox
2016-05-10, 11:19:58
Anstatt einfach beide Brücken zu nutzen, hätte NV ein neues Interface machen können.

zum beispiel ein kabelloses :biggrin:

robbitop
2016-05-10, 11:26:06
Wieso denn ein neues IF wenn NVLink schon da ist :confused:
Das wurde doch aber nicht für die SLI Brücke verwendet. Es wird AFAIK das 2004 eingeführte Interface (nun doppelt) genutzt. Und genau das kritisiere ich.

zum beispiel ein kabelloses :biggrin:
Man muss nur darauf achten, nicht immer über das WLAN Kabel zu stolpern... :D

Hübie
2016-05-10, 11:43:14
Wundert sich eigentlich niemand das nix von mixed Precision gesagt wurde? :confused:
Und von 1 auf 2 GB/s ist Mallorca sowas von 1990... :rolleyes:

yamo
2016-05-10, 11:54:57
WLAN Kabel müssen immer sorfältig verlegt werden.

Auf die rip off Version habe ich eigentlich keine Lust, da aber WaKü Block draufkommt wäre Ref.-Design schon hilfreich. Ich hoffe da kommen auch Designs mit verbesserter Spannungsversorgung.
Und leider ist mir fast pünktlich zum 1080 event meine 2te 970 abgesoffen (WaKü Innengewinde gerissen!). Ich wollte auf Big-Daddy warten, aber jetzt bin ich doch angefixt.

Bzgl. DVI: Mein Benq braucht dual-DVI um 120 Hz darzustellen. Könnte es da Probleme geben, weil NV den VGA analog support gestrichen hat.

Hübie
2016-05-10, 11:59:48
Wie bitte? Analoge Ausgänge gibt's schon ne Ewigkeit nicht mehr. Was genau meinst du jetzt? :| HDMI kann 120 Hz und Konverter gibt es ja en mass. Genau so bei DP.

iuno
2016-05-10, 12:07:54
Das wurde doch aber nicht für die SLI Brücke verwendet. Es wird AFAIK das 2004 eingeführte Interface (nun doppelt) genutzt. Und genau das kritisiere ich.
Ich doch auch, lies genauer. Du sagst, es haette ein neues IF her sollen, ich frage, wieso man dafuer nicht wenigstens 1 NVLink auf dem Chip packt? Die neue Bruecke ist sowieso nur eine 1:1 Verbindung. Die Leitungen fuer den NVLink koennte man ja trotzdem ueber eine neue Bruecke legen.

robbitop
2016-05-10, 12:11:09
Eventuell enthältr GP104 einfach keinen NVLink?

iuno
2016-05-10, 12:19:21
Da bin ich mir sicher
Das ist ja der Grund meines Anstosses

Ailuros
2016-05-10, 12:22:23
NVlink und HBM2 = nur GP100.

Hübie
2016-05-10, 12:30:04
Die Träumereien der AFR-Besessenen hören wohl nie auf. :D

iuno
2016-05-10, 12:44:07
Weder traeume ich noch stehe ich auf AFR oder hatte ueberhaupt jemals ein mGPU System.
Es gibt aber genug Leute, die mehrere Karten kaufen und entsprechend selten oder viel zu wenig Mehrwert dafuer bekommen. Und AFR wird noch bleiben. Oder was macht jemand, der unbedingt aktuelle, kommende und fordernde, etwas aeltere Spiele in UHD spielen will? Womoeglich nach Belieben noch mit 120 (mit DP1.3 drin) oder 144 Hz (WQHD)?
SFR ist auch nicht die Loesung und explicit MA? Lachhaft. Erstmal muessen die Engines D3D12 oder Vulkan an sich ordentlich implementieren.

Ein einziger (!) NVLink anstatt der verrosteten SLI Schnittstelle waere ja wohl machbar gewesen fuer GP104, das ist alles was ich kritisiere.

nordic_pegasus
2016-05-10, 12:50:19
Wie bitte? Analoge Ausgänge gibt's schon ne Ewigkeit nicht mehr.
Also sämtliche Maxwell Karten haben einen DVI-I Anschluss, was ja ein verkappter analoger VGA-Ausgang ist. Mit GP104 verzichtet Nvidia in der Tat zum ersten Mal auf einen analogen Ausgang, da nurnoch DVI-D.

yamo
2016-05-10, 13:03:17
Wie bitte? Analoge Ausgänge gibt's schon ne Ewigkeit nicht mehr. Was genau meinst du jetzt? :| HDMI kann 120 Hz und Konverter gibt es ja en mass. Genau so bei DP.

Ich rede von DVI. Irgendwo las ich, daß DVI-VGA Konverter bei Pascal analog nicht mehr funzt. Ich bin in dieser Thematik nicht sehr bewandert, merkte aber bei Erscheinen der Fury X an, daß diese KEINEN DVI Anschluss mehr besitzt und alle bekannten Konverter nur bis max. 60 Hz gehen, was zur allgemeinen Verwunderung führte.

Deshalb meine Frage.

mfg

mboeller
2016-05-10, 13:04:42
Anstatt einfach beide Brücken zu nutzen, hätte NV ein neues Interface machen können. Eine Verdopplung eines in 2004 eingeführten Interfaces wirkt irgendwie ...unbeeindruckend.

Wenn es stimmt, dass Pascal ohne Probleme tatsächlich so hohe Taktraten (>>2 GHz) schafft, würde mich mal interessieren, wie NV das geschafft hat. Das klingt nach einem extrem hohem Sprung.
Mit GM204 waren 1,5 GHz schon ein sehr gutes OC-Ergebnis. 2,4 GHz sind mal eben 60 % mehr Takt. WTF?

die Antwort:

http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm


TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed

yamo
2016-05-10, 13:05:55
Mit GP104 verzichtet Nvidia in der Tat zum ersten Mal auf einen analogen Ausgang, da nurnoch DVI-D.

Also könnte ich meinen Monitor mit GP104 knicken?

y33H@
2016-05-10, 13:08:04
16FF+ vs 28HPM.

nordic_pegasus
2016-05-10, 13:26:55
Also könnte ich meinen Monitor mit GP104 knicken?

ohne Deinen Monitor zu kennen, vermute ich, Du meinst DualLink-DVI. Das hat nichts mit DVI-I/D/A zu tun. Und DualLink-DVI wird die GP104 mit Sicherheit unterstützen.

Mandalore
2016-05-10, 13:40:31
Was ist jetzt an dieser DP1.4 Geschichte dran? DP 1.4 Ready heißt...????

yamo
2016-05-10, 13:49:33
ohne Deinen Monitor zu kennen, vermute ich, Du meinst DualLink-DVI. Das hat nichts mit DVI-I/D/A zu tun. Und DualLink-DVI wird die GP104 mit Sicherheit unterstützen.
Danke!

iuno
2016-05-10, 13:50:48
Was ist jetzt an dieser DP1.4 Geschichte dran? DP 1.4 Ready heißt...????
Siehe Gipsels Antwort:
Mglw. koennen die auch nur 1.3, Uebertragungsrate steigt mit 1.4 nicht mehr sondern es kommen eine paar Features dazu, die Pascal vielleicht auch nicht alle abdeckt. Im Gegenzug koennte bei AMD das genauso laufen.

Es bedeutet wohl schlicht, daß sie prinzipiell zumindest die wesentlichen Features von 1.3 (wie die höheren Übertragungsraten von HBR3) und 1.4 (als wesentlich würde ich jetzt mal die Kombination von FEC [forward error correction] mit der [lossy] DSC [display stream compression] ansehen) unterstützen, auch wenn es noch nicht zertifiziert ist. Die Spec für 1.4 kam ja erst im März oder so raus, also nach der Polaris-Ankündigung im Januar, von der die Information mit DP1.3-Support stammt.
Und was die DSC angeht, könnte es wirklich so laufen wie Du sagst, nämlich daß nicht Alles davon restlos unterstützt wird.

DSC1.1 gibt es schon länger im eDP-Standard und DSC1.2 in DP1.4 fügt eigentlich nur eine effizientere Kompression für die Übertragung von Bildern mit YUV-Subsampling hinzu. Für die Übertragung ohne Subsampling ändert sich wohl nichts gegenüber DSC1.1. Und 120Hz 4k mit 24bit pro Pixel (ohne "HDR") sowie 120Hz 4k mit 4:2:2 Subsampling und 10bit pro Kanal "HDR" geht mit DP1.3 komplett ohne jegliche Kompression (also worst case für DP1.3). Selbst wenn man nur DSC1.1 unterstützen sollte, wären prinzipiell alle Auflösungen bis 8k@60Hz ohne Subsampling mit bis zu 12bit pro Kanal HDR im Bandbreitenbudget. Man verliert lediglich die Bandbreitenersparnis im Falle von Subsampling. Wie wesentlich das sein wird, kann zumindest ich jetzt noch nicht abschätzen.
Mehr wissen wir dazu noch nicht.

Sunrise
2016-05-10, 14:05:03
...Wenn es stimmt, dass Pascal ohne Probleme tatsächlich so hohe Taktraten (>>2 GHz) schafft, würde mich mal interessieren, wie NV das geschafft hat. Das klingt nach einem extrem hohem Sprung.
Mit GM204 waren 1,5 GHz schon ein sehr gutes OC-Ergebnis. 2,4 GHz sind mal eben 60 % mehr Takt. WTF?
Wird teilweise im Twitch-Video von der Vorstellung erklärt. Es ist eine Summe aus mehreren Dingen. Es wurde auch stark an der Spannungsversorgung optimiert, sodass der Chip beim Schalten unglaublich "sauber" schalten kann.

Generell hat NV hier auf Kosten der Effizienz, voll auf Takt optimiert um auch die Fläche von GP104 gering zu halten, damit man den Chip optimal am Markt positionieren kann. Die Effizienz ist also da, aber sie wurde voll in den Takt investiert, damit die Leistung pro ALU eben voll durchschlägt und keine kostbare Fläche (16FF+ ist teuer) verschenkt wird.

Das ist so eine Art Apple A9 (Twister), also weniger Cores, dafür aber enorm höherer Takt, denn auch beim A9 hat man den enormen Taktsprung schon gesehen, den 16FF+ zulässt, auch wenn der A9 ein SoC ist, also nicht direkt vergleichbar. Es zeigt aber das enorme Potenzial ggü. 28nm, wenn man einen Chip auf bestimmte Parameter auslegt.

AMD könnte theoretisch Ähnliches machen, allerdings bezweifle ich einerseits dass 14nm LPP ebenso gut ist wie TSMC wenn es um sehr hohe GPU-Frequenzen geht, andererseits passt AMDs Angabe, hier zumindest mit Polaris sehr stark auf Effizienz und Packdichte zu gehen auch sehr gut zum Samsung-Prozess. Das wird auch kein Zufall sein.

Wird interessant, was AMD mit ca. 230mm² hinbekommen hat.

dreas
2016-05-10, 14:09:55
Wenn es stimmt, dass Pascal ohne Probleme tatsächlich so hohe Taktraten (>>2 GHz) schafft, würde mich mal interessieren, wie NV das geschafft hat. Das klingt nach einem extrem hohem Sprung.
Mit GM204 waren 1,5 GHz schon ein sehr gutes OC-Ergebnis. 2,4 GHz sind mal eben 60 % mehr Takt. WTF?

mich würde mal interessieren wieso der performancevorsprung für 2ghz(ungesichert) und 2,5k shader(sicher) so gering ist, gegenüber der 980ti. das würde bedeuten die chipeffizienz läge unter der des alten chips. oder ist der boost eventuell noch größer als bereits angekündigt?

Langlay
2016-05-10, 14:17:33
Generell hat NV hier auf Kosten der Effizienz, voll auf Takt optimiert um auch die Fläche von GP104 gering zu halten, damit man den Chip optimal am Markt positionieren kann.

Wenn die Aussage stimmen würde müsste der GP104 die gleiche oder weniger Chipfläche haben als P10 allerdings ist GP104 spekulierte 30%+ grösser als P10.

Also die NV CUs sind deutlich grösser(ergo passen weniger auf die gleiche Chipfläche) lassen sich dafür aber auch deutlich höher Takten.

Der GP104 ist quasi nen hochdrehender 4 Zylinder Motor und AMD baut quasi nen 6 Zylinder Motor der nur "normale" Drehzahlen erreicht.

Sunrise
2016-05-10, 14:28:30
Wenn die Aussage stimmen würde müsste der GP104 die gleiche oder weniger Chipfläche haben als P10 allerdings ist GP104 spekulierte 30%+ grösser als P10.

Also die NV CUs sind deutlich grösser(ergo passen weniger auf die gleiche Chipfläche) lassen sich dafür aber auch deutlich höher Takten.

Der GP104 ist quasi nen hochdrehender 4 Zylinder Motor und AMD baut quasi nen 6 Zylinder Motor der nur "normale" Drehzahlen erreicht.
Da hast du schon Recht, das war ein Denkfehler, deine Analogie trifft es ganz gut.

Dass NV den 4 Zylinder-Motor so hoch drehen kann, liegt daran, dass 16FF+ (das Material) viele Freiheiten lässt. Es können weniger Zylinder verbaut werden, die auch vom Platzanspruch nicht mit AMD vergleichbar sind, bei dennoch sehr guter Endleistung. Die Zylinder benötigen relativ zu AMD aber wohl nicht nur aufgrund des Aufbaus, sondern auch aufgrund der hohen Taktziele mehr Platz, damit man sie überhaupt so hoch takten kann.

Bei AMD haben wir andere Zylinder und Kolben (andere CUs) und generell einen etwas anderen Aufbau, hier ergeben sich also auch andere Bedingungen, die bei AMD eben dazu führen, dass man trotz 14nm wohl lieber mehr Zylinder verbaut, diese aber dennoch sehr platzsparend im Motor Platz finden.

Ob der GCN-Motor theoretisch so hohe Drehzahlen mitmachen könnte, ohne dass der Verbrauch durch die Decke geht und das Material selbst mit sehr hoher Eingangsspannung arbeiten kann, wissen wir leider nicht, das sind alles nur Vermutungen aufgrund bisheriger GCN-Chips, die AMD bisher veröffentlicht hat, was sich schlecht auf 16FF+ übertragen lässt.

Wenn AMD so ein Designziel gehabt hätte, dann würde das aber sicher irgendwie gehen, zumindest in gewissen Grenzen.

Was Jensen aber nochmal betont hatte ist, dass es nicht sinvoll ist, auf 16FF+ einfach nur zu shrinken, da man den Chip voll auf 16FF+ anpassen muss (mit etlichen Hundert Anpassungen), damit man das Optimale aus diesem Prozess (gilt sicher für jeden Prozess) rausholen kann.

16FF+ scheint aber extrem flexibel zu sein, also enorm hohes Taktpotenzial, wenn man denn will, als auch sehr starke Flächeneinsparungen und man kann auch die Effizienz bis ans Limit drehen (jedoch auf Kosten der anderen Parameter) wenn man es denn möchte.

Dural
2016-05-10, 14:55:40
mich würde mal interessieren wieso der performancevorsprung für 2ghz(ungesichert) und 2,5k shader(sicher) so gering ist, gegenüber der 980ti. das würde bedeuten die chipeffizienz läge unter der des alten chips. oder ist der boost eventuell noch größer als bereits angekündigt?

Ich kenne keinen einzigen Benchmark von einem GP104 @ 2GHz+ ;(

Und überhaupt, GP104 hat nur 256Bit GDDR5X und somit nicht mal die Bandbreite einer 980Ti oder Titan X.

fondness
2016-05-10, 14:56:08
AMD könnte theoretisch Ähnliches machen, allerdings bezweifle ich einerseits dass 14nm LPP ebenso gut ist wie TSMC wenn es um sehr hohe GPU-Frequenzen geht, andererseits passt AMDs Angabe, hier zumindest mit Polaris sehr stark auf Effizienz und Packdichte zu gehen auch sehr gut zum Samsung-Prozess. Das wird auch kein Zufall sein.


Na hoffentlich nicht, AMD will auf dem selben Prozess immerhin auch ~4Ghz CPUs bringen.

Zergra
2016-05-10, 15:40:52
Ich kenne keinen einzigen Benchmark von einem GP104 @ 2GHz+ ;(

Und überhaupt, GP104 hat nur 256Bit GDDR5X und somit nicht mal die Bandbreite einer 980Ti oder Titan X.
Es ist ja auch die Frage wie lange 2GHz gehalten werden können, oder wie schnell die Karte wegen Überhitzung herunter taktet. Aber wir werden es ja bald sehen.

Armaq
2016-05-10, 16:11:46
Das Bandbreitenthema wird noch interessant, denke ich. Bis heute ist ja nicht klar, warum man HBM im Fiji verbaut hat (außer für den Formfaktor :D).

woodsdog
2016-05-10, 16:24:07
Das Bandbreitenthema wird noch interessant, denke ich. Bis heute ist ja nicht klar, warum man HBM im Fiji verbaut hat (außer für den Formfaktor :D).

klar ist das klar.

Fiji war nicht für 28nm vorgesehen und dann eben der pipecleaner weil man nix anderes hatte.

Liquaron
2016-05-10, 16:31:30
Meint ihr mein betagter i5 3570k wird für eine GTX 1070 noch ausreichen?

Leider kann mein Mobo kein OC.

Haupteinsatzgebiet ist VR und 144hz (Monitor) bei 1080p.

Godmode
2016-05-10, 16:34:08
Mir ist auch aufgefallen, dass noch niemand sich beschwert hat, dass nVidia mit Pascal 3- und 4-Way SLI zu Grabe trägt. Die "High Bandwidth" SLI-Brücken nehmen beide "Zungen" und verdoppeln somit die Bandbreite. Guru3D hat den Artikel nachträglich überarbeitet und die Information entfernt. ;D

3-Way-SLI und 4-Way-SLI waren nie wirklich brauchbar, IMHO. Sicher gab es den ein oder anderen Titel, wo es gut funktionierte, aber das war eher die Ausnahme, als die Regel. Außerdem war der Inputlag mit 4 GPUs einfach zum kotzen. Je weiter man in der Zeit zurück geht, desto besser war der Support für 3-4-Way-SLI.



Ein einziger (!) NVLink anstatt der verrosteten SLI Schnittstelle waere ja wohl machbar gewesen fuer GP104, das ist alles was ich kritisiere.

Ich verstehe diese Entscheidung auch nicht. Es war aber sicher eine Kosten-Nutzen-Frage:
- Wieviele mm2 Chipfläche kostet das? (NVLink Interface + PHYs + Highspeed-Hub)
- Wie viele Prozent der Spieler nutzen SLI (sehr wenige, IIRC im einstelligen Prozentbereich)
- NVLINK Logik + Highspeed Hub hätten für GP104 extra angepasst werden müssen, da man wohl schwer alles von GP100 kopieren kann.

Meint ihr mein betagter i5 3570k wird für eine GTX 1070 noch ausreichen?

Leider kann mein Mobo kein OC.

Haupteinsatzgebiet ist VR und 144hz (Monitor) bei 1080p.

Also bei 144hz@1080p wird fast immer die CPU limitieren. Hättest du jetzt geschrieben 4k+60 Hz, hätte ich gesagt, kein Problem.

Palpatin
2016-05-10, 16:38:22
3-Way-SLI und 4-Way-SLI waren nie wirklich brauchbar.

War es nicht früher so (pre DX11) das 3-Way sich fast genau so verhalten hat wie 2-Way und nur 4-Way unbrauchbar war.

illidan
2016-05-10, 16:38:27
Es ist ja auch die Frage wie lange 2GHz gehalten werden können, oder wie schnell die Karte wegen Überhitzung herunter taktet. Aber wir werden es ja bald sehen.
Finde ich uninteressant. Bei den Custom Designs hat man die Wahl und das Referenzdesign ist wahrscheinlich wieder viel schlechter und diesmal auch noch frech überteuert.

VooDoo7mx
2016-05-10, 16:41:26
Laut einigen Gerüchten und Andeutungen von Igor lässt sich die 1080 noch deutlich krasser üübertakten. Es wird von 2,4-2,5GHz gemunkelt.
Eine GTX 1080 auf 2,4GHz hat über 12 TFlops und damit über 50% mehr Rechenleistung als meine 980Ti@1,42GHz. Wenn das auch in einen ähnlichen Prozentsatz in Mehr Pefroamnce umgesetzt werden kann, dann Upgrade ich auf jeden Fall auf die 1080!

Hoffentlich gibt es auch am 17. Gute OC Tests wo auch gegen übertaktete 980Ti/Titan X verglichen wird.

illidan
2016-05-10, 16:42:50
Bisher waren NV-Karten mit maximalem OC ohne MSAA eigentlich nie signifikant bandbreitenlimitiert.

Liquaron
2016-05-10, 16:44:13
Also bei 144hz@1080p wird fast immer die CPU limitieren. Hättest du jetzt geschrieben 4k+60 Hz, hätte ich gesagt, kein Problem.


Mhh würde es denn helfen auf i7-3770 upzugraden?

Die CPU könnte mein Mainboard noch verkraften ;)

Godmode
2016-05-10, 16:48:27
War es nicht früher so (pre DX11) das 3-Way sich fast genau so verhalten hat wie 2-Way und nur 4-Way unbrauchbar war.

Ich hab noch ein IMHO eingefügt. Aber ja, 3-Way war immer besser als 4-Way und vor DX10 war SLI ohnehin problemloser.

@SLI-HB-Bridge: Wurde da sonst noch was gesagt oder nur das die Bandbreite verdoppelt wurde?

Schrotti
2016-05-10, 16:49:57
Mhh würde es denn helfen auf i7-3770 upzugraden?

Die CPU könnte mein Mainboard noch verkraften ;)

1 x Intel Core i5-6600K, 4x 3.50GHz, boxed ohne Kühler (BX80662I56600K) (https://geizhals.eu/1290376)
1 x ASRock Z170M-ITX/ac (90-MXGZN0-A0UAYZ) (https://geizhals.eu/1306912)

Complicated
2016-05-10, 16:51:42
- NVLINK Logik + Highspeed Hub hätten für GP104 extra angepasst werden müssen, da man wohl schwer alles von GP100 kopieren kann.NVLink ist doch nichts anderes als AMDs Hypertransport oder Intels QPI. Keiner käme auf die Idee das in Consumer oder Gaming-Produkten zu fordern. Nvidia brauchte diesen Interconnect, da alle anderen schon seit Jahren eine derartige Technologie haben für Multichip-Plattformen. GP104 hat da kein Nutzungsszenario, das die Chipfläche rechtfertigen würde.

Liquaron
2016-05-10, 16:54:05
1 x Intel Core i5-6600K, 4x 3.50GHz, boxed ohne Kühler (BX80662I56600K) (https://geizhals.eu/1290376)
1 x ASRock Z170M-ITX/ac (90-MXGZN0-A0UAYZ) (https://geizhals.eu/1306912)

Danke dir :)

Dann schaue ich mal ob ich mir das gönne.

Ravenhearth
2016-05-10, 16:56:50
Bis ich mir eine Karte der neuen Generation kaufe, werde ich noch mindestens ein Jahr warten. Vielleicht werden die Preise der Karten bis dahin deutlich fallen, ähnlich wie bei 28nm, zumal es bis dahin auch Vega und GP102 geben dürfte. Alles unterhalb der 1080 ist als Ersatz für die 980 nicht lohnenswert und ~650-750€ sind definitiv zu viel.

TurricanM3
2016-05-10, 17:01:12
Laut einigen Gerüchten und Andeutungen von Igor lässt sich die 1080 noch deutlich krasser üübertakten. Es wird von 2,4-2,5GHz gemunkelt.
Eine GTX 1080 auf 2,4GHz hat über 12 TFlops und damit über 50% mehr Rechenleistung als meine 980Ti@1,42GHz.


Das wäre ja fast schon zu schön um wahr zu sein. Hast du mal einen Link dazu? Ist das schon mit offenem PT und Mod Bios? Falls nicht... :biggrin:
Offiziell wirds noch eine Woche dauern mit den Reviews?

uweskw
2016-05-10, 17:13:56
Laut einigen Gerüchten und Andeutungen von Igor lässt sich die 1080 noch deutlich krasser üübertakten. Es wird von 2,4-2,5GHz gemunkelt.
Eine GTX 1080 auf 2,4GHz hat über 12 TFlops und damit über 50% mehr Rechenleistung als meine 980Ti@1,42GHz. Wenn das auch in einen ähnlichen Prozentsatz in Mehr Pefroamnce umgesetzt werden kann, dann Upgrade ich auf jeden Fall auf die 1080!

Hoffentlich gibt es auch am 17. Gute OC Tests wo auch gegen übertaktete 980Ti/Titan X verglichen wird.

Ob die 1080 bei der Bandbreite das bei hohen Auflösungen noch wirklich auf die Straße bekommt? Lasssen wir uns überraschen.

greetz
US

wolik
2016-05-10, 17:30:55
3-Way-SLI und 4-Way-SLI waren nie wirklich brauchbar, IMHO.
Nutze seit Jahren 3SLI, seit paar Monaten 4SLI. Funktioniert prima. Ich habe immer 2 way SLI getestet (Fallout 4 bzw.) Wo das 3SLI nicht wirklich gut lief, dann hat 2SLI auch nicht works. Und umgekehrt. In 4K ohne SLI mann hat nichts zu suchen. 1080 sogar mit 2,1GHz auf Präsentation, lief nur auf 1440p oder? (Nicht IMHO. Tatsache.)
Bandbreite SLI Brücke. Wo kann man das sehen, ob dass 1GHz ist und bei welche Applikationen (Spielen) zum Flaschenhals wird ? Nirgends? (Z.b. PCIe 8 2.0 bringt deutlich SLI Gespann in stolpern. Mit PCIe 8 3.0 alles Prima.)

woodsdog
2016-05-10, 17:36:27
Das wäre ja fast schon zu schön um wahr zu sein. Hast du mal einen Link dazu? Ist das schon mit offenem PT und Mod Bios? Falls nicht... :biggrin:
Offiziell wirds noch eine Woche dauern mit den Reviews?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=477369&page=6
scroll da mal drüber...

Das ist alles...

Godmode
2016-05-10, 17:51:58
Gibt es eigentlich schon irgendwelche Indizien, dass die Pascal SPs, bei gleichem Takt schneller sind, als die Maxwell SPs?

Gipsel
2016-05-10, 18:23:15
Gibt es eigentlich schon irgendwelche Indizien, dass die Pascal SPs, bei gleichem Takt schneller sind, als die Maxwell SPs?Nach den von nV veröffentlichten Benchmarkwerten sieht es eher nicht so aus (in bestimmten Szenarien wird Pascal natürlich zulegen, aber ich vermute, Du spielst auf einen generellen Vorteil an). Etwa -10% Einheiten bei etwa +50% Takt im Vergleich zur 980Ti führen zu etwa +25% Performance. Aber das sind auch nur 2 Spiele oder so gewesen und je nach Situation könnte die Bandbreite bereits limitieren. Da muss man wohl erst mal auf die Reviews warten.

MiamiNice
2016-05-10, 18:28:39
Gibt es eigentlich schon eine Einschätzung wann und wo man die Karten vorbestellen kann? Würde gerne eine der ersten abgreifen und kann nicht warten.

Radeonfreak
2016-05-10, 18:31:56
Würde ich auch gerne wissen. Achja, Ladys first...;)

Troyan
2016-05-10, 18:32:15
Gibt es eigentlich schon eine Einschätzung wann und wo man die Karten vorbestellen kann? Würde gerne eine der ersten abgreifen und kann nicht warten.

27. Mai. Dann wirst du sie wohl überall kaufen können. Und wenn du zwei Wochen wartest, wird dir die "Founders Edition" wohl hinterhergeworfen werden. ;)

MiamiNice
2016-05-10, 18:35:50
Ich meinte schon eher vorbestellen. Am 27. den F5 Key auf Dauerfeuer zu stellen und hoffen das man eine abbekommt, ist nichts für mich ;)

Troyan
2016-05-10, 18:36:34
Seit wann gibt es bei uns Vorbestellungen? Eventuell bei nVidia.de.

AnarchX
2016-05-10, 19:16:01
Nach den von nV veröffentlichten Benchmarkwerten sieht es eher nicht so aus (in bestimmten Szenarien wird Pascal natürlich zulegen, aber ich vermute, Du spielst auf einen generellen Vorteil an). Etwa -10% Einheiten bei etwa +50% Takt im Vergleich zur 980Ti führen zu etwa +25% Performance. Aber das sind auch nur 2 Spiele oder so gewesen und je nach Situation könnte die Bandbreite bereits limitieren. Da muss man wohl erst mal auf die Reviews warten.
GPCs/ROPs könnten bei nur 66% taknormiert gegenüber der 980Ti liegen.
Die genauen Daten werden nocheinmal spannend sein.

Gipsel
2016-05-10, 19:18:12
GPCs/ROPs könnten bei nur 66% taknormiert gegenüber der 980Ti liegen.
Die genauen Daten werden nocheinmal spannend sein.
Stimmt, das ist noch ein weiterer möglicher Grund. Noch wissen wir zu wenig.

VooDoo7mx
2016-05-10, 19:23:26
Das wäre ja fast schon zu schön um wahr zu sein. Hast du mal einen Link dazu? Ist das schon mit offenem PT und Mod Bios? Falls nicht... :biggrin:
Offiziell wirds noch eine Woche dauern mit den Reviews?

Ja das wäre auch schon zu schön um war zu sein. Aber definitive 100% sichere Informationen gibt es nicht. Da Müssen wir noch bis zum 17. warten.

Aber guck dir mal diesen Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11026744&postcount=86) von Igor an. Der hat schon ne Karte. ;)

Ob die 1080 bei der Bandbreite das bei hohen Auflösungen noch wirklich auf die Straße bekommt? Lasssen wir uns überraschen.


Ja das auch meine Befürchtung, dass die Karte bei 2,1Ghz+ an der Bandbreite verhungert.
Wobei ja laut Micron die ersten GDDR5X Samples schon 12-14gbps erreicht haben sollen. Die Module auf der 1080 sind aber nur 10gbps. Ich könnte mir auch vorstellen, dass der GDDR5X sich ordentlich übertakten lässt.
Aber auch hier ist einiges an WUnschdenken mit drin. ;)
Ich meinte schon eher vorbestellen. Am 27. den F5 Key auf Dauerfeuer zu stellen und hoffen das man eine abbekommt, ist nichts für mich ;)

Es kann gut möglich sein, dass man die FE am 27.05.2016 nur innerhalb der USA bestellen kann. Es wurden nur USD Preise genannt und von weltweiter Verfügbarkeit war keine Rede. rechne eher damit das du im Juni so eine Karte bekommst. ;)

Leonidas
2016-05-10, 19:55:38
Angebliche "4K-Benchmarks" von 1080 vs. 980Ti mit für meinen Geschmack zu hohen Vorteile (teilweise das Doppelte, wo es bestenfalls +30% sein sollte):
http://videocardz.com/59788/nvidia-geforce-gtx-1080-4k-game-performance-gp104-400-confirmed

PS: Dark Souls III mit teilweise über 60 fps ???

Ravenhearth
2016-05-10, 20:04:57
Mit 2,5 GHz vielleicht :freak:

Complicated
2016-05-10, 20:06:08
Erster Kommentar:
"Oculus The GTX 1080 and GTX 980Ti game testing"
Looks like VR performace, Nvidia improved a lot the support for VR with Pascal.
Das sind die VR-Benchmarks die Nvidia optimiert hat.

TurricanM3
2016-05-10, 20:55:56
Aber guck dir mal diesen Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11026744&postcount=86) von Igor an. Der hat schon ne Karte. ;)


Das klingt viel besser als erwartet. :love2:
Hoffentlich brauchen die mit den Nickel-Wasserkühlern nicht erst wieder Wochen...

robbitop
2016-05-10, 21:18:42
die Antwort:

http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm
Das haben bisher alle großen Shrinks behauptet. Und dennoch sind die großen Taktsprünge eigentlich seit Jahren passé.

Meint ihr mein betagter i5 3570k wird für eine GTX 1070 noch ausreichen?

Leider kann mein Mobo kein OC.

Kauf dir auf ebay Kleinanzeigen ein Z77 Mainboard und bringe den Ivy auf 4,2 GHz. Dein jetziges verkaufst du. Investition < 50 EUR und sollte reichen. Skylake ist nicht um Dimensionen schneller (wenn man vielleicht von Einzelfällen absieht)

Godmode
2016-05-10, 22:04:28
Angebliche "4K-Benchmarks" von 1080 vs. 980Ti mit für meinen Geschmack zu hohen Vorteile (teilweise das Doppelte, wo es bestenfalls +30% sein sollte):
http://videocardz.com/59788/nvidia-geforce-gtx-1080-4k-game-performance-gp104-400-confirmed

PS: Dark Souls III mit teilweise über 60 fps ???

Die 980 lief anscheinend ihne Ocing, die 1080 hingegen übertaktet.

Troyan
2016-05-10, 22:42:23
Sieht wohl so aus, dass nVidia GP106 in großen Stückzahlen durch die Welt verschickt:
http://www.overclock.net/t/1599782/zauba-pascal-gp106-graphic-cards-spotted-nvidia-shipping-cards-to-aibs-to-prepare-for-launch#post_25147723

/edit: Oh, anscheinend mit 256bit Interface?!

AnarchX
2016-05-10, 22:45:25
Das könnte das 256-Bit MXM Modul bei der PX2-Demo erklären. Fraglich wie hoch getaktet ein 256-Bit IMC bei nur ~200mm² sein könnte.

Sind einige Karte seit April unterwegs: https://www.zauba.com/import-699-1g410-hs-code.html

Sunrise
2016-05-10, 22:46:16
Das haben bisher alle großen Shrinks behauptet. Und dennoch sind die großen Taktsprünge eigentlich seit Jahren passé.
Das ist sicher richtig, behauptet wurde das schon öfter, aber bei Maxwell waren die Takte auch schon auffälliger. Scheint aber dieses Mal an Eigenschaften von FinFET-Prozessen zu liegen, Twister machte einen ähnlich großen Sprung. Der A9X von TSMC ganz besonders auffällig (>2GHz).

Das scheint keine Secret Sauce exklusiv von NV zu sein, die Kunst ist wohl viel Erfahrung zusammen mit dem Semi ins Design einfließen zu lassen, und 16FF+ sieht auch wahnsinnig gut aus.

Dural
2016-05-10, 23:29:13
Sieht wohl so aus, dass nVidia GP106 in großen Stückzahlen durch die Welt verschickt:
http://www.overclock.net/t/1599782/zauba-pascal-gp106-graphic-cards-spotted-nvidia-shipping-cards-to-aibs-to-prepare-for-launch#post_25147723

/edit: Oh, anscheinend mit 256bit Interface?!

Gibts auch mal was neues? Alles schon bekannt ;)
Das ding läuft dann sicher mit 3ghz oc :D ;)

scully1234
2016-05-11, 02:29:10
Erster Kommentar:

"Oculus The GTX 1080 and GTX 980Ti game testing"
Looks like VR performace, Nvidia improved a lot the support for VR with Pascal

Das sind die VR-Benchmarks die Nvidia optimiert hat.

Da ist einfach Simultanes Multi Reprojection aktiv gehe ich mal stark von aus


Die 980TI muss hier 2 Bilder rendern fuer Stereoskopie ,während die GTX 1080 eines rendert, dupliziert, und perspektivisch anpasst fuer das zweite Auge, daraus ergibt sich der grosse Vorsprung

StefanV
2016-05-11, 02:37:56
Ich verstehe diese Entscheidung auch nicht. Es war aber sicher eine Kosten-Nutzen-Frage:
Dann hätt man aber mehr machen müssen als einen 'GM202' auf 16nm bringen.

Bisher schaut das ganze ja wenig spektakulär und eher nach 'nem stumpfen Maxwell shrink aus...

StefanV
2016-05-11, 02:38:57
Danke dir :)

Dann schaue ich mal ob ich mir das gönne.
...oder du wartest bis Ende des Jahres auf AMDs Zen, was ich allein schon aus dem 'Konkurenz belebt das Geschäft' Gedanken machen würde -> Intel Stuff wird günstiger werden.

scully1234
2016-05-11, 04:27:51
Bilder von der Galax Karte

http://cdn.videocardz.com/1/2016/05/GALAX-GeForce-GTX-1080-back-900x406.jpg

Das PCB scheint zumindestens schon vorgesehen fuer einen zweiten 8 Pin Konnektor.

Mal sehen wie weich/hard man die Phasen ausgelegt hat

Sieht irgendwie wie Nvidia Referenz aus oder?

Schrotti
2016-05-11, 06:25:26
...oder du wartest bis Ende des Jahres auf AMDs Zen, was ich allein schon aus dem 'Konkurenz belebt das Geschäft' Gedanken machen würde -> Intel Stuff wird günstiger werden.

Wenn es denn auch Boards im ITX Standard gibt, warum nicht.

Loeschzwerg
2016-05-11, 07:32:56
Sieht irgendwie wie Nvidia Referenz aus oder?

Es steht zumindest "NVIDIA CORP PG413" drauf, also ja, ist das Ref.-PCB :)

Gesamt scheint das PCB wieder 7 Phasen aufnehmen zu können. Bestückt ist sicherlich nicht alles.

horn 12
2016-05-11, 07:40:56
Wirkliche Custom Karten wie jene mit 2 bzw. 3 Axial-Lüftern wird es im Handel wohl nicht vor Juli - August 2016 geben!
Derzeit scheint nur Referenz auf den Markt geworfen zu werden.
Zusammen mit den FE von Nvidia. Womöglich um Billiger zu bleiben als das Teure NV Modell!

Dural
2016-05-11, 09:20:06
Der Anschluss nach hinten haben auch schon alle Maxwell (Kepler) Karten, dieser wird bei den Tesla Karten verwendet.

Und wer will schon Custom Modelle? Die NV Referenz Karten gehören zum besten was es gibt, die selben Platinen werden auch bei den Quadro und Tesla Karten verwendet die unteranderem Tagelang unter Volllast laufen.
Custom Karten werden vorallem gebracht weil man sie billiger Herstellen kann, ausser natürlich die "OC Extrem" Modelle, diese kosten aber mehr.

Godmode
2016-05-11, 09:38:33
Und wer will schon Custom Modelle? Die NV Referenz Karten gehören zum besten was es gibt, die selben Platinen werden auch bei den Quadro und Tesla Karten verwendet die unteranderem Tagelang unter Volllast laufen.
Custom Karten werden vorallem gebracht weil man sie billiger Herstellen kann, ausser natürlich die "OC Extrem" Modelle, diese kosten aber mehr.

Custom Modelle wollen eigentlich alle haben, die keine Wakü haben. Die DHE-Kühler waren meistens sehr limitiert was Ocing und Lautstärke anging. Bei den Customs waren deutlich höhere Taktraten bei niedrigerer Temperatur und Lautstärke möglich. Außerdem haben Customs oft noch eine stärkere Spannungsversorgung, was eventuell das eine oder andere MHz mehr erlaubt.

Thunderburne
2016-05-11, 09:47:29
Angeblich GTX1080 OC 2000+ Vs.980 Ti stock in Action.


http://www.mobipicker.com/nvidia-gtx-1080-4k-benchmarks-leaked/

Reaping_Ant
2016-05-11, 09:51:43
Zusammen mit den FE von Nvidia. Womöglich um Billiger zu bleiben als das Teure NV Modell!

So wie ich es verstanden habe ist die Founders' Edition das Referenzmodell, fuer das auch der MRSP von $699 gilt. Erst die Custom-Modelle koennten billiger werden.

Deshalb vermute ich auch, dass es sich dieses Mal noch mehr als sonst lohnt, ein paar Wochen zu warten. Zum einen koennte aufgrund des unterschiedlichen MRSP die Custom-Modelle diesmal tatsaechlich von Anfang an billiger sein, zum anderen will man den Taktspielraum ja auch ausnutzen, wofuer ein guter Luftkuehler sicher hilfreich ist.

Dural
2016-05-11, 10:03:26
Custom Modelle wollen eigentlich alle haben, die keine Wakü haben. Die DHE-Kühler waren meistens sehr limitiert was Ocing und Lautstärke anging. Bei den Customs waren deutlich höhere Taktraten bei niedrigerer Temperatur und Lautstärke möglich. Außerdem haben Customs oft noch eine stärkere Spannungsversorgung, was eventuell das eine oder andere MHz mehr erlaubt.

Die werden aber nicht billiger als die Ref. sein :rolleyes: und überhaupt, viele Costom Karten haben sau billige Lüfter drauf die schon nach kurzerzeit Geräusche von sich geben.

Ich mag DHE Kühler sehr, den sie bringen die Warme Luft gleich nach aussen und wirbeln es nicht im PC umher. Deswegen setzten viele OEM auf DHE Kühler.

cR@b
2016-05-11, 10:03:38
Custom Modelle wollen eigentlich alle haben, die keine Wakü haben. Die DHE-Kühler waren meistens sehr limitiert was Ocing und Lautstärke anging. Bei den Customs waren deutlich höhere Taktraten bei niedrigerer Temperatur und Lautstärke möglich. Außerdem haben Customs oft noch eine stärkere Spannungsversorgung, was eventuell das eine oder andere MHz mehr erlaubt.

Da hast du grundsätzlich Recht... ich kauf die DHE Version nur aus Designgründen immer wieder (bereits Titan Classic und X). Man kann sagen was man will aber Customkarten sind potthässlich und die 1080 GTX mit dem Polygondesign total geil :ugly:

Sunrise
2016-05-11, 10:07:58
Die werden aber nicht billiger als die Ref. sein :rolleyes:

Und überhaupt, ich mag DHE Kühler sehr, den sie bringen die Warme Luft gleich nach aussen und wirbeln es nicht im PC umher. Deswegen setzten viele OEM auf DHE Kühler.
Bei halbwegs gutem Luftdurchzug von vorne nach hinten raus bei einem ordentlichen, selbstgebauten PC sind die Axial-Lüfter auch kein Thema. Die Arctic-Kühler (die aber leider die Ausnahme sein werden, wenn überhaupt verbaut) kühlen sogar zusätzlich sehr gut laut Tests von z.B. PC Games Hardware.

Da verhält sich jeder Axial-Kühler anders, aber generell sind DHE natürlich eine recht sichere Nummer.

Ich wüsste nur nicht, warum ich ohne Wakü ein Referenzdesign kaufen sollte, aber gut, jedem wie er will.

Da hast du grundsätzlich Recht... ich kauf die DHE Version nur aus Designgründen immer wieder (bereits Titan Classic und X). Man kann sagen was man will aber Customkarten sind potthässlich und die 1080 GTX mit dem Polygondesign total geil :ugly:
Oh, ein Designkäufer! Es gibt sie also scheinbar doch...:D

Wenn du schon dabei bist, IMHO liefern Inno3D und Galax (Palit seltener) oft sehr ansprechende Designs, leider kommen die aber auch oft erst sehr spät raus und sind auch nochmal eine Ecke teurer. Für GP104 wäre mir es das nicht Wert, da würde ich persönlich auf GP102 warten, wenn man sowieso schon klar mehr als >500 EUR auf den Tisch legt.

Man will ja auch was für sein Geld und nicht nur so ein "mickriges" Upgrade, zumindest wenn man schon von einer Titan X kommt.

Da kann Jensen soviel erzählen wie er will, denn im Endeffekt ist wirklich nur der große Die das einzig Wahre, was dann auch einige Zeit hält.

Pumpi74
2016-05-11, 10:08:18
Custommodelle könnten aus meiner Sicht diesmal sehr interessant werden wenn man bei ihnen den Speicher übervolten kann. Gepaart mit einer Wakü wäre das natürlich optimal, wohl aber auch noch teurer wie eine vanilla Foundersedition.

Hübie
2016-05-11, 10:22:02
Der Anschluss nach hinten haben auch schon alle Maxwell (Kepler) Karten, dieser wird bei den Tesla Karten verwendet.

Und wer will schon Custom Modelle? Die NV Referenz Karten gehören zum besten was es gibt, die selben Platinen werden auch bei den Quadro und Tesla Karten verwendet die unteranderem Tagelang unter Volllast laufen.
Custom Karten werden vorallem gebracht weil man sie billiger Herstellen kann, ausser natürlich die "OC Extrem" Modelle, diese kosten aber mehr.

Das ist absolut nicht richtig. Zumindest was die Elektronik betrifft. Die GeForce-Karten laufen, zumindest bis Maxwell, mit den Taktraten und der Spannung bereits ziemlich am Limit. Die verbauten Komponenten sind allenfalls durchschnittlich bis etwas darüber. Im Institut hatten wir seinerzeit Kepler GK110 eingehend gemessen und analysiert. Maxwell hat an den Schaltungen wenig neues gebracht.
A) laufen die Quadro/Tesla nicht dauernd auf Volllast
B) haben die niedrigere Taktraten (Spannung / Stromdichte)
C) ist warm / kalt und an / aus schlechter als Dauerbetrieb

cR@b
2016-05-11, 10:22:22
Oh, ein Designkäufer! Es gibt sie also scheinbar doch...:D

Wenn du schon dabei bist, IMHO liefern Inno3D und Galax (Palit seltener) oft sehr ansprechende Designs, leider kommen die aber auch oft erst sehr spät raus und sind auch nochmal eine Ecke teurer. Für GP104 wäre mir es das nicht Wert, da würde ich persönlich auf GP102 warten, wenn man sowieso schon klar mehr als >500 EUR auf den Tisch legt.

Man will ja auch was für sein Geld und nicht nur so ein "mickriges" Upgrade, zumindest wenn man schon von einer Titan X kommt.

Da kann Jensen soviel erzählen wie er will, denn im Endeffekt ist wirklich nur der große Die das einzig Wahre, was dann auch einige Zeit hält.

Ja es gibt sie ;)

Hmm bis Dato konnte mich echt keine einzige Custom Karte überzeugen und die OC Unterschiede skalieren hinten raus ab einer gewissen Mhz eher marginal.

Ich warte jetzt erstmal die Benches + OC Potential der FE ab und entscheide dann. Der Reiz ist irgendwie immer so stark... und dabei geht's mir nichtmal um die ~20% Mehrleistung. Die Konsumsucht hat mich scheinbar fest im Griff :ugly:

Btw. großer DIE kleiner DIE, Vollausbau oder nicht ist mir alles wurscht.

MiamiNice
2016-05-11, 10:27:18
Bin bisher auch immer mit Custom Karten am besten gefahren. Allerdings schreit die GTX1080 eh nach einem alternativen Kühler aka Graka Aio Wakü oder ähnlichem. Da fährt man mit dem Rev Design wohl besser, hab ich mir überlegt. Zum Beispiel bietet Corsair schöne Graka Aios an.

phoenix887
2016-05-11, 10:32:28
Angeblich GTX1080 OC 2000+ Vs.980 Ti stock in Action.
https://youtu.be/Ijx-1wz2FSA

http://www.mobipicker.com/nvidia-gtx-1080-4k-benchmarks-leaked/


Wen es kein Fake ist, sinnlos, OC gegen NON-OC. Fast die selbe Werte erreiche ich auch mit 1530mhz. Da ich die meiste Spiele, selbst in 4K gespielt habe. Jetzt mal so aus meiner subjektive Erinnerung heraus.

Palpatin
2016-05-11, 10:34:41
Angeblich GTX1080 OC 2000+ Vs.980 Ti stock in Action.
https://youtu.be/Ijx-1wz2FSA

http://www.mobipicker.com/nvidia-gtx-1080-4k-benchmarks-leaked/
Die erste "echte" 4k Karte ;). Werde meine 980 zu 75% durch die 1080 ersetzten, 25% durch eine gebrauchte 980ti oder eine 1070.

Chris Lux
2016-05-11, 10:44:34
Wen es kein Fake ist, sinnlos, OC gegen NON-OC. Fast die selbe Werte erreiche ich auch mit 1530mhz. Da ich die meiste Spiele, selbst in 4K gespielt habe. Jetzt mal so aus meiner subjektive Erinnerung heraus.
Sowas von Fake. Blurr-Auflösung im Video. Nicht die gleichen Spieleszenen und irgendeine FPS Angabe ohne On-Screen-Display.

Godmode
2016-05-11, 10:56:49
Das Video ist einfach Mist, weil völlig unterschiedliche Szenen verglichen werden. :facepalm:

Dural
2016-05-11, 11:56:59
Das ist absolut nicht richtig. Zumindest was die Elektronik betrifft. Die GeForce-Karten laufen, zumindest bis Maxwell, mit den Taktraten und der Spannung bereits ziemlich am Limit. Die verbauten Komponenten sind allenfalls durchschnittlich bis etwas darüber. Im Institut hatten wir seinerzeit Kepler GK110 eingehend gemessen und analysiert. Maxwell hat an den Schaltungen wenig neues gebracht.
A) laufen die Quadro/Tesla nicht dauernd auf Volllast
B) haben die niedrigere Taktraten (Spannung / Stromdichte)
C) ist warm / kalt und an / aus schlechter als Dauerbetrieb

Interessant, ich kenne die RMA Quoten und die sind bei den Referenz Karten erstaunlich gering, geringer als bei manch einer Custom Karte. Und das die SPW bei einer Karte mit 250Watt nicht für 350Watt ausgelegt sind dürfte klar sein, Referenz Karten sind keine OC Spezial Karten.

Tesla Karten laufen nicht mit Volllast :confused: Die dinger können Tage lang belastet werden, und das müssen sie aushalten. Bei Warm /
kalt gebe ich dir natürlich recht, aber das betrifft die Komplette Hardware in einem PC.

Palpatin
2016-05-11, 11:58:27
Wirkliche Custom Karten wie jene mit 2 bzw. 3 Axial-Lüftern wird es im Handel wohl nicht vor Juli - August 2016 geben!
Derzeit scheint nur Referenz auf den Markt geworfen zu werden.
Zusammen mit den FE von Nvidia. Womöglich um Billiger zu bleiben als das Teure NV Modell!
Da wohl die meisten Hersteller ihre Customs der 1080 schon auf der Computex zeigen würde ich da eher von spätestens Anfang Juli ausgehen.

scully1234
2016-05-11, 11:58:51
Es steht zumindest "NVIDIA CORP PG413" drauf, also ja, ist das Ref.-PCB :)



Ach da hab ich heute Nacht gar nicht hingesehen hast recht Schande ueber mich:usad::smile:

Troyan
2016-05-11, 12:13:41
Da wohl die meisten Hersteller ihre Customs der 1080 schon auf der Computex zeigen würde ich da eher von spätestens Anfang Juli ausgehen.

Jap, auf der Computex wird man jegliches Customdesign sehen:
I also thought I'd talk with NVIDIA, who said that there will be a crap load of custom GTX 1080s at Computex, which is exciting - especially with things kicking off two weeks from now.

Read more: http://www.tweaktown.com/news/52056/rumor-amd-partners-showing-polaris-cards-computex/index.html


Die werden dann, wie bei der GTX980TI ca. 2 Wochen später in den Markt kommen.

Hübie
2016-05-11, 12:46:03
Interessant, ich kenne die RMA Quoten und die sind bei den Referenz Karten erstaunlich gering, geringer als bei manch einer Custom Karte. Und das die SPW bei einer Karte mit 250Watt nicht für 350Watt ausgelegt sind dürfte klar sein, Referenz Karten sind keine OC Spezial Karten.

Tesla Karten laufen nicht mit Volllast :confused: Die dinger können Tage lang belastet werden, und das müssen sie aushalten. Bei Warm /
kalt gebe ich dir natürlich recht, aber das betrifft die Komplette Hardware in einem PC.

Ich hab gerade nicht viel Zeit daher die Kurzform: RMA Quoten älter als zwei Jahre gibts bei GeForce fast gar nicht. Von Quadro Tesla nur bedingt, da PNY großer supplier und gleichzeitig supporter ist. Wenn ne Quadro kaputt geht wird die meist eins zu eins getauscht.
Deine Zahlen kannst du mir gerne mal per PN sagen. :)

scully1234
2016-05-11, 12:57:12
So jetzt aber das Referenz PCB in voller Pracht

http://cdn.videocardz.com/1/2016/05/NVIDIA-GeForce-GTX-1080-PCB-4-900x600.jpg

Da hat man leider bei der Spannungsversorgungsauslegung schoen den Rotstift angesetzt


Mehr als 250 Watt dauerhaft waere wohl Harakiri,also kann man ein modifiziertes Bios fuer die VRMs knicken denke ich

Stellenausschreibung : dringend Loetarbeiten Experte fuehr 6 Phasen gesucht:biggrin:


Das Video ist einfach Mist, weil völlig unterschiedliche Szenen verglichen werden. :facepalm:

Ja leider das Video ist totaler Muell


Ps: was sehen meine mueden Augen in deiner Signatur:biggrin:

Hübie
2016-05-11, 13:36:23
Bei der Stromdichte dürfte das kein Thema sein. Aber viel erwarten würde ich erst mal nicht. ;)

Thunderburne
2016-05-11, 13:40:05
Das Video ist einfach Mist, weil völlig unterschiedliche Szenen verglichen werden. :facepalm:
Beim nächsten mal schaue ich es mir erstmal an bevor ich es verlinke.
Besser is.

scully1234
2016-05-11, 13:46:43
Kein Ding jede Info ist ne Info koennte ja auch was nuetzliches drin gewesen sein:smile:

uweskw
2016-05-11, 13:57:26
Der Anschluss nach hinten haben auch schon alle Maxwell (Kepler) Karten, dieser wird bei den Tesla Karten verwendet.

Und wer will schon Custom Modelle? Die NV Referenz Karten gehören zum besten was es gibt, die selben Platinen werden auch bei den Quadro und Tesla Karten verwendet die unteranderem Tagelang unter Volllast laufen.
Custom Karten werden vorallem gebracht weil man sie billiger Herstellen kann, ausser natürlich die "OC Extrem" Modelle, diese kosten aber mehr.

????

Sollen jetzt die NV -Bots Forenarbeit machen um das Referenzdesign schönreden????

Wer kauft denn Referenz? Eine Minderheit oder diejenigen die ganz am Anfang dabei sein wollen. Und schau mal bei den Gebrauchtpreisen. Das Ref-Design bekommst du nur über den Preis los.

Greetz
US

scully1234
2016-05-11, 14:06:36
Wer kauft denn Referenz?

Greetz
US

Jeder der z.B auf Wasserkuehlung baut, oder einen Custom Luftkuehler verwenden will...

Jeder der das Blower Prinzip aus Gehaeusegruenden bevorzugt....

Dural
2016-05-11, 14:08:58
@uweskw

Ich zb. und tausende andere auch, wie auch in x tausend OEM Systeme. :rolleyes:
Gerade für Sammler gibt es nur Referenz Karten, was anderes Interessiert die nicht. Das man Ref. Karten nicht verkaufen kann ist zudem kompletter blödsinn, ich habe gerade vor zwei Wochen meine 980 Ref. für 420.- Verkauft.

Godmode
2016-05-11, 14:10:26
Beim nächsten mal schaue ich es mir erstmal an bevor ich es verlinke.
Besser is.

Ich habe gestern das selbe Video gepostet, aber nach dem ansehen den Link wieder entfernt.

@scully1234: Da ich die nächsten Monate keine Zeit für Spiele habe und ich davon ausgehe, dass die Titan X stark an Wert verliert, wird sie eben verkauft.

Winter[Raven]
2016-05-11, 14:10:58
Wer kauft denn Referenz?

Jeder der ein Cube als Gehäuse verwendet...

Godmode
2016-05-11, 14:28:21
Wer kauft denn Referenz?
Greetz
US

Als Wakü User ist man mit dem Referenzdesign einfach besser bedient, weil es dafür recht zeitig die passenden Kühlblöcke gibt. Wenn man nicht unbedingt großartig übertakten will, sind die Referenzdesigns auch ok und "relativ" leise. Ich werde bei der Pascal Generation ebenfalls wieder das Referenzdesign kaufen.

N0Thing
2016-05-11, 14:29:50
Okay, wir wissen nun, dass es sowohl Leute gibt die Referenzlayout kaufen als auch Leute, die Custom-Modelle bevorzugen. :rolleyes:

M4xw0lf
2016-05-11, 14:30:55
Also Wakü User ist man mit dem Referenzdesign einfach besser bedient, weil es dafür recht zeitig die passenden Kühlblöcke gibt. Wenn man nicht unbedingt großartig übertakten will, sind die Referenzdesigns auch ok und "relativ" leise. Ich werde bei der Pascal Generation ebenfalls wieder das Referenzdesign kaufen.
Fools Founders Edition? :wink:

Loeschzwerg
2016-05-11, 14:33:13
So jetzt aber das Referenz PCB in voller Pracht

http://cdn.videocardz.com/1/2016/05/NVIDIA-GeForce-GTX-1080-PCB-4-900x600.jpg

Da hat man leider bei der Spannungsversorgungsauslegung schoen den Rotstift angesetzt


Mehr als 250 Watt dauerhaft waere wohl Harakiri,also kann man ein modifiziertes Bios fuer die VRMs knicken denke ich

Stellenausschreibung : dringend Loetarbeiten Experte fuehr 6 Phasen gesucht:biggrin:


Danke für das Bild :)

Bezüglich Rotstift: War bei der GTX 980 letztendlich genauso und es ist nachvollziehbar weil der Karte ja ein bestimmtes Powertarget vorgegeben wird.

Die Lötarbeiten wären eigentlich etwas für mich :D

---

Ref.-Design only. Nicht nur weil ich Sammler und DHE Fan bin, sondern auch weil viele Custom Karten einfach billig zusammengeschustert sind und Probleme oft erst spät entdeckt werden (z.B. pfuschige Spawa Kühlung). Einzig die extremen highend Modelle (Lightning bla bla) sind da noch interessant.

MiamiNice
2016-05-11, 14:36:58
Wer kauft denn Referenz?



Ich z.b. da die Karte mit einer Corsair Hydro AIO gemoddet wird, alsbald diese verfügbar ist.
Wobei ich mir jetzt mit der mangelnden Spannungsversorgung nicht mehr so sicher bin -.-

Godmode
2016-05-11, 14:39:40
Fools Founders Edition? :wink:

Wie ich vorher schrieb, habe ich die nächsten Monate keine Zeit zum Spielen. Daher auch keine Founders Edition und auch eher kein GP104. Ich hoffe dann einfach mal, das GP102 im Herbst/Winter erscheint.

scully1234
2016-05-11, 14:42:19
.

Die Lötarbeiten wären eigentlich etwas für mich :D
.

Abgemacht=)

Godmode
2016-05-11, 14:49:00
Danke für das Bild :)

Bezüglich Rotstift: War bei der GTX 980 letztendlich genauso und es ist nachvollziehbar weil der Karte ja ein bestimmtes Powertarget vorgegeben wird.

Die Lötarbeiten wären eigentlich etwas für mich :D

---

Ref.-Design only. Nicht nur weil ich Sammler und DHE Fan bin, sondern auch weil viele Custom Karten einfach billig zusammengeschustert sind und Probleme oft erst spät entdeckt werden (z.B. pfuschige Spawa Kühlung). Einzig die extremen highend Modelle (Lightning bla bla) sind da noch interessant.

@Löten:
Kommt da vielleicht noch eine stärkere 1080 mit einer Phase mehr? Bei der 980 warten übrigens 2 Phasen nicht bestückt.

@Custom Karten:
Ja, da kann ich aus was dazu sagen: Ich habe ja 6 Stück R9 380 in meinem Mining-Rechner verbaut. Bei zwei Karten klackern die Lüfter. Weiters habe ich noch 4 gebrauchte Radeons gekauft, ebenfalls Customs und da sind die Lüfter auch teilweise kaputt und klackern. Bei den Referzkarten ist mir das zumindest noch nicht passiert.

scully1234
2016-05-11, 14:54:56
@Löten:
Kommt da vielleicht noch eine stärkere 1080 mit einer Phase mehr? .

Das PCB koennte es

Ob die Boardpartner das duerfen, oder Nvidia gar selber nochmal nachlegen will???

Flexibilitaet fuer einen schnellen Konter???

Aber das ist ja nicht das erste mal so aufgeteilt vom Design

Thunderburne
2016-05-11, 14:58:17
@scully1234: Da ich die nächsten Monate keine Zeit für Spiele habe und ich davon ausgehe, dass die Titan X stark an Wert verliert, wird sie eben verkauft.
Dann drücke ich dir die Daumen das du den Zug nicht verpasst hast.
Meine Ti ging noch für 600 unter dem Hammer Ende April.
Geht mir derzeit auch so Garten schönes Wetter daher erstmal verkauft in dem Wissen das die Preise purzeln für Gebrauchte Ware.

Dural
2016-05-11, 15:02:38
Die 1080 (5) hat ja sogar eine Phase mehr als es noch die 980 (4) hatte. Die grossen Chips haben 6.

Loeschzwerg
2016-05-11, 15:08:54
Aktuell bezweifle ich eine zukünftige Version mit komplett bestücktem PCB, da müsste NV mit dem angedachten Lineup schon sehr in Bedrängnis geraten. Aber man kann ja nie wissen.

@Dural: Die Bestückung bei den Mosfets ist recht schwach. Hier setzt man, vermutlich aus Kostengründen, auf weniger mit mehr Leistung.

blaidd
2016-05-11, 15:09:54
Die erste "echte" 4k Karte ;). Werde meine 980 zu 75% durch die 1080 ersetzten, 25% durch eine gebrauchte 980ti oder eine 1070.

Die GTX 1080 ist im verlinkten Video selbst in 4K offensichtlich so schnell, dass sie sogar am festen 60-Fps-Lock von Dark Souls 3 vorbeisprintet :rolleyes:;D

TurricanM3
2016-05-11, 15:15:28
Die GTX 1080 ist im verlinkten Video selbst in 4K offensichtlich so schnell, dass sie sogar am festen 60-Fps-Lock von Dark Souls 3 vorbeisprintet :rolleyes:;D


Das heißt die Karte hat so viel Power, dass ein FPS-Lock sie nichtmal mehr gebändigt kriegt? Das ist echt mal erstaunlich, hoffe mein GSync-Modul geht nicht in Flammen auf. :biggrin:

Pumpi74
2016-05-11, 15:57:14
Aktuell bezweifle ich eine zukünftige Version mit komplett bestücktem PCB, da müsste NV mit dem angedachten Lineup schon sehr in Bedrängnis geraten. Aber man kann ja nie wissen.

Apropos: Wieso ist man sich so sicher das 2560 Shader der Vollausbau sind ? Gehen 3072 nicht ? Vielleicht muss nV noch auf schnelleren Speicher warten....

BlacKi
2016-05-11, 16:01:00
Apropos: Wieso ist man sich so sicher das 2560 Shader der Vollausbau sind ? Gehen 3072 nicht ? Vielleicht muss nV noch auf schnelleren Speicher warten....
und nennt sie dann ti?

iuno
2016-05-11, 16:10:36
Naja, die Packdichte ist nicht besonders hoch, die Anzahl der Transistoren ist nicht in dem Masse gestiegen und die Takte gehen offenbar extrem hoch. Da glaube ich nicht dran, dass es 3k Shader sind.
Das Verhaeltnis vom 4-er zum 0-er Chip ist auch gleich wie noch bei Maxwell. Imho passt das schon.

Aber ob es eine 1080 Ti auf Basis von GP104 geben wird, ist ja noch offen. Mit 12 Gbps G5X, hoeherem Takt und noch ein paar Shadern mehr? Wuerde ich zumindest nicht komplett ausschliessen...

Pumpi74
2016-05-11, 16:10:38
und nennt sie dann ti?

Zum Beispiel, ja. Für GP102 wird sich nV schon was einfallen lassen. Das Bezeichnungsschema ist ja nun nicht in Stein gemeißelt.

Loeschzwerg
2016-05-11, 16:41:44
Inaktive Shader will ich nicht ausschließen, halte ich aber für unwahrscheinlich (siehe iuno). Eine schnellere Variante (Taktupgrade) sehe ich nur wenn AMD entsprechend reinhaut (Vega 10; Wann und in welcher Form).

scully1234
2016-05-11, 16:42:34
Apropos: Wieso ist man sich so sicher das 2560 Shader der Vollausbau sind ? Gehen 3072 nicht ? Vielleicht muss nV noch auf schnelleren Speicher warten....

Wenn GP104- 400 der Vollausbau ist, kommt da kein groesserer mehr

http://cdn.videocardz.com/1/2016/05/NVIDIA-GP104-400-A1-GPU-GTX-1080.jpg


http://www.3dcenter.org/news/nvidias-gp104-chip-kommt-angeblich-drei-chip-und-damit-grafikkarten-varianten

iuno
2016-05-11, 16:50:31
Wenn GP104- 400 der Vollausbau ist, kommt da kein groesserer mehr
No shit, Sherlock :eek: :wink:
Das ist ja gerade die Frage.
In der Vergangenheit gab es ja auch chips, die ueber die 400 hinausgingen, etwa GK110-425 und GK110-430

scully1234
2016-05-11, 16:53:34
Darum habe ich ja auch ''Wenn'' geschrieben, und den Artikel verlinkt:wink:

Pumpi74
2016-05-11, 17:00:59
Ja eben. Selbst wenn auf GTX 1070/1080 dann GP104-200/400 drauf steht, kann GP104-150 eine Finte sein, von nV selbst gestreut um besser absahnen zu können.

Dural
2016-05-11, 17:08:59
Der 400er Chip war bis jetzt immer der Vollausbau.

iuno
2016-05-11, 17:10:58
Der 400er Chip war bis jetzt immer der Vollausbau.
:rolleyes: gerade geschrieben:
In der Vergangenheit gab es ja auch chips, die ueber die 400 hinausgingen, etwa GK110-425 und GK110-430

GK110-400: Titan
GK110-425: 780 Ti
GK110-430: Titan Black

Hakim
2016-05-11, 17:16:02
Würde mein aktuelles System, I7 2600k Sandy @4 GHz auf einem z77 mobo, eine gtx1080 zu stark ausbremsen? Ich glaube die 1070 wäre daher eventuell besser

Dural
2016-05-11, 17:22:15
:rolleyes: gerade geschrieben:


GK110-400: Titan
GK110-425: 780 Ti
GK110-430: Titan Black

Es gibt viele Chips die über 400er gehen, zb. habe ich bei Tesla Karten schon 685 gesehen.
Ich glaube auch nicht das die Zahl überhaupt was betreffend Aktive-Einheiten aussagt, sondern nur eine Bezeichnung ist.

Edit:
Wenn ich das Foto oben anschaue, der Die wirkt sehr klein, könnte mir sogar leicht was unter 300 vorstellen :eek:

iuno
2016-05-11, 17:23:48
Es gibt viele Chips die über 400er gehen, zb. habe ich bei Tesla Karten schon 685 gesehen.
Ist das jetzt dein Ernst?
In der Vergangenheit gab es ja auch chips, die ueber die 400 hinausgingen, etwa GK110-425 und GK110-430
Davon ab: Und jetzt? Das aendert nichts daran, dass GK110 auf der Titan kein Vollausbau war. Hast du dich in #5449 verschrieben :confused:

Dural
2016-05-11, 17:29:54
Wie gesagt, die 400er Bezeichnung bekommen volle Chips über, das ist bei NV seit Jahren so. Bei den GK110 gab es halt wegen den vielen Stufen bisschen andere Bezeichnungen.

Und wie schon gesagt:

Ich glaube auch nicht das die Zahl überhaupt was betreffend Aktive-Einheiten aussagt, sondern nur eine Bezeichnung ist.

Isen
2016-05-11, 17:32:59
Vlt. auch nur ein "Lückenfüller" und für High-End kommt komplett was anderes, mit Features die so mit Pascal nicht möglich/vorhanden sind?

scully1234
2016-05-11, 18:13:31
Wo gibt's eigentlich die SLI Bruecken sind die schon mit dabei?

http://cdn.videocardz.com/1/2016/05/NVIDIA-Pascal-SLI-HB.jpg

Godmode
2016-05-11, 19:20:40
1080/1070 Diskussionen sollten dann hier weitergeführt werden:

GTX 1070 (P)Review Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11029022)
GTX 1080 (P)Review Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=572958)

Dann können wir uns in diesem Thread ganz auf GP102 und die kleineren Derivate konzentrieren.

reaperrr
2016-05-11, 21:35:52
Meine Vermutung dazu, warum die Fläche von GP106 größer als gedacht sein könnte:
Neben 1536 ALUs - evtl. verteilt auf 3 GPCs? - könnte Nvidia, um das Bandbreitenproblem zu umgehen, ähnlich wie bei GM107 vorgehen und 4MB L2-Cache verbauen.
4MB in 16nm sind auch nicht (nennenswert) größer als 2MB in 28nm, sehe da also kein großes Problem in Sachen Platz/Verbrauch, und damit sollte 128bit + GDDR5X selbst bei 1536 ALUs und hohem Takt ausreichen.

Hübie
2016-05-11, 21:58:09
Ne. Kein GDDR5X. GDDR5. ;) Wetten?
GP104 bekommt in 294 mm^2 wahrscheinlich keine 3072 ALUs wenn diese vorher 601 mm^2 benötigten da ja nicht alles skaliert. Ziiiiiemlich unwahrscheinlich, also.

@Dural: Meinen Beitrag hast du offenbar gekonnt ignoriert. In Sachen Lüfter / Kühler hast du jedoch recht: Da ist die Qualität recht hoch.

Troyan
2016-05-11, 21:59:15
GP106 wird ca. 38% kleiner sein als GP104. Bei 200mm^2 sollten da 1536Cores enthalten sein.

Dural
2016-05-11, 22:11:53
Gp106 hat doch sicher 1280sp, um kein gddr5x verwenden zu müssen und für 4 und 8gb karten eben mit 256bit.

@ hübie
Was ignoriert?

Hübie
2016-05-11, 22:23:55
Das:
Deine Zahlen kannst du mir gerne mal per PN sagen. :)
(und meine Argumentation):D

Ich kann mir gut vorstellen dass die Ref-Designs so gut weg gehen wie sagen wir die vier meistverkauften custom im Falle der GTX 980. Bei 980 Ti (wahrscheinlich) und 970 sieht es dann anders aus. Letztere aufgrund offiziell fehlendem Ref-Design (MSI oder so hatte da ja was "nachgebaut").

Problem der customs: Die schwanken sehr stark. Sowohl in Schaltungsdesign als auch Komponentenwahl bis hin zu Kühlkonstrukt inklusive verwendeter Materialien. Ich kann also durchaus verstehen, wenn jemand beständige Qualität möchte.

Dural
2016-05-12, 09:20:26
wir sind uns ja einig?!? wenn es nur um OC geht würde ich auch keine Ref. kaufen.

Godmode
2016-05-12, 09:56:17
Haben wir eigentlich schon irgendwelche Fetzen über GP102? Mich würde brennend interessieren, ob das Ding eventuell wirklich noch heuer kommt, oder doch erst 2017. Meine bisherige Annahme war immer 2017.

Sunrise
2016-05-12, 10:17:04
Haben wir eigentlich schon irgendwelche Fetzen über GP102? Mich würde brennend interessieren, ob das Ding eventuell wirklich noch heuer kommt, oder doch erst 2017. Meine bisherige Annahme war immer 2017.
Die einzigen mir bekannten Hinweise sind aktuell der Treibereintrag (http://www.3dcenter.org/news/reihenweise-pascal-und-volta-codenamen-aufgetaucht-gp100-gp102-gp104-gp106-gp107-gp10b-gv100) und evtl. die Packagegröße bei Zauba (wobei ich mir hier nicht sicher bin, ob das auch für GP102 galt). Sonst gab es glaube ich noch nichts Konkreteres.

Meine Spekulation:

Specs:
GP102
450-500mm² Die
3840-4096 ALUs
384bit GDDR5X Interface
12GB GDDR5X (min. 10Gbps)
250W TDP

Preis:
$699 US Salvage (GP104-400 fällt auf $549) / $899 US Full

Zu deiner Frage:
Ich glaube nicht, dass wir den noch 2016 sehen werden, bisher gibt es schlicht zuwenig Hinweise. GP104 wird mit ziemlicher Sicherheit lange bestehen, GP102 sollte also irgendwann 2017 kommen, danach wird sich NV auf Volta vorbereiten (GV100 wieder zuerst).

scully1234
2016-05-12, 11:48:58
Haben wir eigentlich schon irgendwelche Fetzen über GP102? Mich würde brennend interessieren, ob das Ding eventuell wirklich noch heuer kommt, oder doch erst 2017. Meine bisherige Annahme war immer 2017.

Falls da was dran sein sollte ,und der nicht nur trollt, kannst du dir GP102 dieses Jahr abschminken.


http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1290#post_25151235

Godmode
2016-05-12, 12:20:35
Falls da was dran sein sollte ,und der nicht nur trollt, kannst du dir GP102 dieses Jahr abschminken.


http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1290#post_25151235

Ich seh in dem Post nichts? Wo gehts da um GP102?

scully1234
2016-05-12, 12:24:52
Falls das Polaris tangieren sollte so auch den Rest der Architektur, was bestuende dann fuer Nvidia fuer ein Grund den GP102 zu bringen?

Der hat ein paar Posts zuvor erzaehlt, das es bei der Validierung Probleme mit den Clockspeed gab


What I can tell you, and this is only part of the reason, is that they need the time to get their GPU up to speed. It's failing validation above about 850 MHz (http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1240#post_25149690).


Wie gesagt falls der nicht trollt ,dann war es das auch fuer Pascal dieses Jahr

Nakai
2016-05-12, 12:52:24
Ein paar Posts weiter => P10 wird auf Oktober verschoben. ;D

Hübie
2016-05-12, 18:54:39
GP102, wenns den denn gibt, wird wohl nicht mehr in diesem Jahr kommen. Die Hints sind einfach zu rar.
Ich sitze immer noch vor dem Rätsel wieso ich 17,8 Mrd Transistoren für GP100 genannt bekam und es am Ende nur 15,3 sind. Vielleicht galt dies für GP102 oder man hat keine Redundanz mit rein gebracht, als die Zahlen genannt wurden oder die sind schlicht falsch. Tor A, B oder C. Egal. AMD hat nett was demonstriert, nur kam seit damals nix mehr was mir Kopfzerbrechen bereitet.

AffenJack
2016-05-12, 23:45:09
Da mir gerade langweilig war hab ich mir den Conference Call angehört, wichtige Aussage da von Huang: All Pascal GPUs have been taped out.
Sagt jetzt nix über die Existenz von GP102 aus, aber falls er kommt sollten GP102/GP107 wohl Anfang/Frühjahr nächsten Jahres kommen, wenn man schon alle Tapeouts durch hat.

Complicated
2016-05-13, 00:24:48
Oder übersetzt: "Was bisher nicht gekommen ist, kommt auch nicht mehr. Warten auf Volta" Auch eine mögliche Lesart zur Existenz von GP102 ;)

MadPenguin
2016-05-13, 09:03:56
Falls das Polaris tangieren sollte so auch den Rest der Architektur, was bestuende dann fuer Nvidia fuer ein Grund den GP102 zu bringen?

Der hat ein paar Posts zuvor erzaehlt, das es bei der Validierung Probleme mit den Clockspeed gab





Wie gesagt falls der nicht trollt ,dann war es das auch fuer Pascal dieses Jahr

Offizielles Dementi:
http://www.eteknix.com/amd-debunks-recent-negative-rumours/

Scheinbar hat jemand getrollt, der Nvidia lieber hat als AMD :freak:

Ailuros
2016-05-13, 09:49:46
GP102, wenns den denn gibt, wird wohl nicht mehr in diesem Jahr kommen. Die Hints sind einfach zu rar.
Ich sitze immer noch vor dem Rätsel wieso ich 17,8 Mrd Transistoren für GP100 genannt bekam und es am Ende nur 15,3 sind. Vielleicht galt dies für GP102 oder man hat keine Redundanz mit rein gebracht, als die Zahlen genannt wurden oder die sind schlicht falsch. Tor A, B oder C. Egal. AMD hat nett was demonstriert, nur kam seit damals nix mehr was mir Kopfzerbrechen bereitet.

Kein Raetsel: GM200 inkl. Redundanz = ~9b, GP100 inkl. Redundanz = ~17.8b.

Sunrise
2016-05-13, 10:01:28
Kein Raetsel: GM200 inkl. Redundanz = ~9b, GP100 inkl. Redundanz = ~17.8b.
Kannst du das genauer ausführen? Bin gerade etwas überrascht.

Warum wirbt man dann nicht mit den Zahlen des vollen Chips? Die Redundanz zählt doch zum Chip dazu?!

Es ist eine Sache, ob ich sage, der Chip hat maximal 3840 ALUs aktiv (die Redundanz wird hier nicht betrachtet), aber eine völlig andere, die Transistoren des vollen Chips dann nicht mitzuzählen, die gehören nunmal zur Maske dazu.

Überrascht mich jetzt ehrlich gesagt etwas. Woher kommen diese Zahlen? War das schon immer so, auch bei AMD?

Werden und wurden nur (noch) maximal aktive Transistoren gezählt?

Ailuros
2016-05-13, 10:17:53
Natuerlich war es schon immer so und natuerlich verraten IHVs nicht immer alles und man erfaehrt es irgendwie durch die Jahre. Es gab ein video das im B3D forum gepostet wurde wo der Herr bei NV der sein Labor zeigte mehr als einmal erwaehnt dass der GM200 den er in der Hand haelt "9 billion transistors" hat. Womoeglich aufgerundet denn dass was wir offiziell wissen sind 8.1b welches man wohl nicht auf 9 Mrd. aufrunden kann.

NV erwaehnt in manchen Stellen dass GP100 18 bzw. 17 Mrd. Transistoren hat. In Datenblaettern fuer Tesla 15.3. Der chip ist offensichtlich kein dehnbarer Kaugummi, ergo kann es nichts anderes als Redundanz sein. Und ja Huebie postete hier vor geraumer Zeit irgendwann mal etwas von 17.8b und das ist wohl die reale finale Anzahl der Transistoren des chips. Sonst insgesamt sollte man von 15.3b ausgehen denn diese spiegelt auch die richtige Packdichte wieder.

Ich hab auch erst vor Monaten herausgefunden dass A1 eben NICHT NV's tapeout Silizium ist; sie haben genauso wie AMD A0 fuer tape outs gefolgt von A1 als produktionsreifem stepping. Von A0 bis zur Massenproduktion wenn alles nach Plan laeuft brauchen sie ungefaehr 10 Monate.

Sunrise
2016-05-13, 10:26:52
Natuerlich war es schon immer so und natuerlich verraten IHVs nicht immer alles und man erfaehrt es irgendwie durch die Jahre. Es gab ein video das im B3D forum gepostet wurde wo der Herr bei NV der sein Labor zeigte mehr als einmal erwaehnt dass der GM200 den er in der Hand haelt "9 billion transistors" hat. Womoeglich aufgerundet denn dass was wir offiziell wissen sind 8.1b welches man wohl nicht auf 9 Mrd. aufrunden kann.

NV erwaehnt in manchen Stellen dass GP100 18 bzw. 17 Mrd. Transistoren hat. In Datenblaettern fuer Tesla 15.3. Der chip ist offensichtlich kein dehnbarer Kaugummi, ergo kann es nichts anderes als Redundanz sein. Und ja Huebie postete hier vor geraumer Zeit irgendwann mal etwas von 17.8b und das ist wohl die reale finale Anzahl der Transistoren des chips. Sonst insgesamt sollte man von 15.3b ausgehen denn diese spiegelt auch die richtige Packdichte wieder.

Ich hab auch erst vor Monaten herausgefunden dass A1 eben NICHT NV's tapeout Silizium ist; sie haben genauso wie AMD A0 fuer tape outs gefolgt von A1 als produktionsreifem stepping. Von A0 bis zur Massenproduktion wenn alles nach Plan laeuft brauchen sie ungefaehr 10 Monate.
Danke! Sehr aufschlussreich. Allerdings bin ich mir bei GP100 auch sicher, dass der brutal viel Redundanz hat. Das merkt man auch schon daran, dass das Ding für gerademal 3840 Mixed-Precision-ALUs ziemlich groß ist. Ist immerhin das Doppelte von GP104. Das Teil ist eine ziemliche Transistorenschlacht.

Das mit dem Video im NV-Labor ist mir auch aufgefallen. Und er sollte wohl auch am besten Wissen, wieviele Transistoren die Chips tatsächlich haben, denn er muss die Dinger ja schließlich bis aufs atomare Level debuggen, was sowieso schon der Wahnsinn ist.

Man lernt immer wieder dazu...

PS: Unsere Packdichten-Vergleiche sind dann aber auch mit äußerster Vorsicht zu genießen, weil wir ja nicht wissen, wieviel Redundanz jeder Chip hat. Zumindest ist aber (wenn nur aktive Transistoren für die maximale Chipkonfiguration gezählt werden), halbwegs eine gewisse Vergleichbarkeit gegeben.

Ailuros
2016-05-13, 10:40:23
Mich wundert die hypothetische Redundanz-Anzahl der Transistoren beim P100 kein bisschen. 2.5 Mrd klingen sogar wenig IMHO um ein 610mm2 grosses Monster auf eine >1.4GHz boost Frequenz zu jagen.

fondness
2016-05-13, 11:00:26
Ich hab auch erst vor Monaten herausgefunden dass A1 eben NICHT NV's tapeout Silizium ist; sie haben genauso wie AMD A0 fuer tape outs gefolgt von A1 als produktionsreifem stepping. Von A0 bis zur Massenproduktion wenn alles nach Plan laeuft brauchen sie ungefaehr 10 Monate.

Als ich das weiter hinten noch in der Raum gestellt hatte, war das laut Hübie völlig ausgeschlossen und klar, dass A1 das erste Tapeout ist^^

robbitop
2016-05-13, 11:07:12
Vieleicht gibt es auch einfach keinen GP102. Das Verhältnis der SPs scheint zwischen GP104 und GP100 analog zu Maxwell zu sein. Dank hoher Taktraten scheint Pascal mit relativ wenig SPs (für eine neue Generation!) viel Leistung auf die Straße zu bringen.

GP102 wäre folglich nur nötig, um nicht 610 mm² für den Massenmarkt zu verballern. Andererseits: lohnt das überhaupt? So groß ist die Anzahl an Enthusiast Geforces sowieso nicht und der Preis ist idR hoch genug, um einen zu fetten Chip durchzufüttern.
Andererseits müsste man einen weiteren Chip entwickeln und produzieren, was ziemlich hohe Einmalkosten mit sich bringt. Spielt man - sagen wir mal ~100...150 mm² Einsparung für die vergleichsweise geringe Anzahl an Enthusiasten wieder ein?

Es kann IMO gut sein, dass GP100 einfach so wie er ist auf die nächste Enthusiasten Geforce kommt. Dazu will man sicher abwarten, bis der Prozess reifer, günstiger und verfügbarer ist. (und außerdem kann man später sicher bei vielen ein zweites Mal abkassieren...Salamis eben)

Godmode
2016-05-13, 11:17:15
Vieleicht gibt es auch einfach keinen GP102. Das Verhältnis der SPs scheint zwischen GP104 und GP100 analog zu Maxwell zu sein. Dank hoher Taktraten scheint Pascal mit relativ wenig SPs (für eine neue Generation!) viel Leistung auf die Straße zu bringen.

GP102 wäre folglich nur nötig, um nicht 610 mm² für den Massenmarkt zu verballern. Andererseits: lohnt das überhaupt? So groß ist die Anzahl an Enthusiast Geforces sowieso nicht und der Preis ist idR hoch genug, um einen zu fetten Chip durchzufüttern.
Andererseits müsste man einen weiteren Chip entwickeln und produzieren, was ziemlich hohe Einmalkosten mit sich bringt. Spielt man - sagen wir mal ~100...150 mm² Einsparung für die vergleichsweise geringe Anzahl an Enthusiasten wieder ein?

Es kann IMO gut sein, dass GP100 einfach so wie er ist auf die nächste Enthusiasten Geforce kommt. Dazu will man sicher abwarten, bis der Prozess reifer, günstiger und verfügbarer sind. (und außerdem kann man später sicher bei vielen ein zweites Mal abkassieren...Salamis eben)

Wenn man GP100 mit seinen 3840 im Vollausbau auf eine Spielerkarte montiert und die Taktraten noch etwas frisiert, dürfte das Ding schon genug Mehrleistung auf den GM200 liefern.

Titan X: 3072*2*1,075 = 6,6 TFLop/s FP32
GP100: 3840*2*1,5 = 11,5 TFlop/s FP32

Für die paar wenigen die eine Titan kaufen, werden wohl mit der Zeit genug funktionsfähige Chips abfallen. Eventuell kommt da noch ein Respin für bessere Yields des Vollausbaus und etwas weniger TDP.

Was auch noch stark auf GP100 für Spieler hindeutet, sind die ganzen 3D-Einheiten (TMUs, ROps, ...). Solange 3D-Einheiten im Chip verbaut werden, kann ein Chip theoretisch auf einer Spielerkarte verbaut sein.

Sunrise
2016-05-13, 11:23:36
Vieleicht gibt es auch einfach keinen GP102. Das Verhältnis der SPs scheint zwischen GP104 und GP100 analog zu Maxwell zu sein. Dank hoher Taktraten scheint Pascal mit relativ wenig SPs (für eine neue Generation!) viel Leistung auf die Straße zu bringen.

GP102 wäre folglich nur nötig, um nicht 610 mm² für den Massenmarkt zu verballern. Andererseits: lohnt das überhaupt? So groß ist die Anzahl an Enthusiast Geforces sowieso nicht und der Preis ist idR hoch genug, um einen zu fetten Chip durchzufüttern.
Andererseits müsste man einen weiteren Chip entwickeln und produzieren, was ziemlich hohe Einmalkosten mit sich bringt. Spielt man - sagen wir mal ~100...150 mm² Einsparung für die vergleichsweise geringe Anzahl an Enthusiasten wieder ein?

Es kann IMO gut sein, dass GP100 einfach so wie er ist auf die nächste Enthusiasten Geforce kommt. Dazu will man sicher abwarten, bis der Prozess reifer, günstiger und verfügbarer sind. (und außerdem kann man später sicher bei vielen ein zweites Mal abkassieren...Salamis eben)
NV könnte natürlich problemlos GP100 als neue Titan (oder wie auch immer) anbieten, dagegen spricht aktuell aber noch der Preis. Die Herstellungskosten von dem Ding dürften aktuell jenseits von Gut und Böse sein.

Damit die Mischkalkulation stimmt, und NV genug Ausbeute für die Großkunden hat (was sicherlich aktuell schon schwierig genug ist), müssen sie auch genug Angebot für den Gaming-Markt haben, die Titan war ja nicht unbeliebt, auch wenn relativ zu GP104 natürlich deutlich weniger verkauft wurde. GP102 müsste zudem nur etwa 450mm² groß sein und kann bereits mit GDDR5X verkauft werden (wie besprochen).

Davon ab, GM200 hatte sich auch gelohnt und NV benötigt jederzeit sowohl die beste machbare DP-Leistung (GP100) als auch die beste Gaming-Leistung (GP102).

Sofern es stimmt und bei NV hatten bereits alle Pascal-Produkte das Tapeout hinter sich, dann müsste es von GP102 eigentlich bald Anzeichen geben. Dass das nicht in NVs Interesse sein kann ist klar, denn GP104 wollen sie möglichst teuer verkaufen. Mal sehen wie lange, wenn Vega kommt.

Beide Theorien (Godmodes Beitrag oben) ergeben Sinn, aber die Frage ist ob NV das kostendeckend realisieren kann, denn GP100 ist einfach viel zu groß aktuell und das Ding würde wohl die $1000 US-Preisgrenze sprengen, außer NV bietet hier nur die Salvages von P100 im Gaming-Markt an.

iuno
2016-05-13, 11:38:26
GP102 wäre folglich nur nötig, um nicht 610 mm² für den Massenmarkt zu verballern. Andererseits: lohnt das überhaupt? So groß ist die Anzahl an Enthusiast Geforces sowieso nicht und der Preis ist idR hoch genug, um einen zu fetten Chip durchzufüttern.
Andererseits müsste man einen weiteren Chip entwickeln und produzieren, was ziemlich hohe Einmalkosten mit sich bringt. Spielt man - sagen wir mal ~100...150 mm² Einsparung für die vergleichsweise geringe Anzahl an Enthusiasten wieder ein?
Keine Ahnung. Gerade wo die Enthusiasten mit der 1080 richtig blechen duerfen. Ich erwarte ja da momentan (bevor Tests dem widersprechen) fuer spaeter immer noch "exorbitante" Modelle mit Factory OC > 2 GHz und 12 Gbps GDDR5X. Entweder von Partnern oder Nvidia selber, dann als Ti. Das Binning waere ja wohl ein Witz verglichen mit den Kosten fuer einen neuen Chip. Wenn es eben so ist, dass doch nicht alle/viele GP104 ueber 2 GHz gehen, durch Power (Board) oder Speicher (bei beidem koennte Nvidia an Partner auch Auflagen machen!?) limitiert sind, waere diese kolportierte Ti 20-30% schneller und damit schon gerechtfertigt.

Andererseits waere ein GP102 mit hoeheren Durchsatz als GP100 (FP32/16) durch hoehere Takte oder mehr SPs auch wieder fuer machine learning brauchbar und durch kleinere Chipgroesse, nur 2 HBM Stacks oder gar 384 Bit GDDR auch guenstiger herstellbar. GP100 scheint ja auch vom Takt her schon ziemlich an der Grenze zu sein (300 Watt). Wenn eine custom 1080 bei vielleicht 200 Watt nur 20% langsamer ist als eine Titan mit 300 Watt, waere das auch irgendwie laecherlich.

Godmode
2016-05-13, 11:45:05
Beide Theorien (Godmodes Beitrag oben) ergeben Sinn, aber die Frage ist ob NV das kostendeckend realisieren kann, denn GP100 ist einfach viel zu groß aktuell und das Ding würde wohl die $1000 US-Preisgrenze sprengen, außer NV bietet hier nur die Salvages von P100 im Gaming-Markt an.

Also wenn GP100 nächstes Jahr im Frühjahr für uns Spieler einscheinen könnte, dann sollte es NV und TSMC doch schaffen, die Chips etwas günstiger herzustellen. Und das der Preis der Pascal Titan nochmal ansteigt, ist wohl Gewiss, siehe 1080.

Ailuros
2016-05-13, 11:55:29
Also wenn GP100 nächstes Jahr im Frühjahr für uns Spieler einscheinen könnte, dann sollte es NV und TSMC doch schaffen, die Chips etwas günstiger herzustellen. Und das der Preis der Pascal Titan nochmal ansteigt, ist wohl Gewiss, siehe 1080.

Ob GP102 oder GP100 fuer enthsusiast desktop wuerde ich an Deiner Stelle nichts vor Q2 2017 erwarten.

Godmode
2016-05-13, 11:57:16
Ob GP102 oder GP100 fuer enthsusiast desktop wuerde ich an Deiner Stelle nichts vor Q2 2017 erwarten.

Q2 ist doch Frühjahr? :confused:

Ailuros
2016-05-13, 12:07:56
Q2 ist doch Frühjahr? :confused:

Nicht alle 3 Monate. Muss jetzt nichts heissen denn ich hab nur von Q2 ohne weitere details gehoert.

Rampage 2
2016-05-13, 13:30:21
Gerade wo die Enthusiasten mit der 1080 richtig blechen duerfen. Ich erwarte ja da momentan (bevor Tests dem widersprechen) fuer spaeter immer noch "exorbitante" Modelle mit Factory OC > 2 GHz und 12 Gbps GDDR5X. Entweder von Partnern oder Nvidia selber, dann als Ti. Das Binning waere ja wohl ein Witz verglichen mit den Kosten fuer einen neuen Chip.


In einem Anandtech-Artikel zum GTX 1080 hat sich der Autor auch gewundert, dass die 1080 trotz ihrer Rechenleistung nur 10Gbps-Speicher spendiert bekam und schlussfolgerte daraus, dass es später einen Aufguss mit schnelleren Taktraten und schnellerem Speicher geben könnte...

Aber bzgl. des Vollausbaus: ist es überhaupt theoretisch (Pascal-Architektur) und technisch (Chipfläche) möglich, dass der echte Vollausbau mehr als 40SMs (2560< SPs) hat? :confused:

R2

Sunrise
2016-05-13, 14:08:49
Also wenn GP100 nächstes Jahr im Frühjahr für uns Spieler einscheinen könnte, dann sollte es NV und TSMC doch schaffen, die Chips etwas günstiger herzustellen. Und das der Preis der Pascal Titan nochmal ansteigt, ist wohl Gewiss, siehe 1080.
Selbst die Semis wie TSMC oder Samsung sind ja leider darauf angewiesen, die Wafer einkaufen müssen, die zumindest was den Die betrifft auch die pro Die-Kosten bestimmen, und die Ausbeute bei einem 610mm²-Monster dürfte da nicht sonderlich gut sein. Rechnest du dann noch HBM2-Module (16GB HBM2 für eine Titan) und das ganze Interposer-Packaging mit Die und HBM2-Speicher dazu, wird das keine sonderlich billige Geschichte.

Es wird schon seinen Grund haben, dass NV nicht mit GP100 zuerst kommt. Pascal ist flächenmäßig genau in der Mitte, die Leistung ist aber ziemlich beeindruckend dafür, trotz eines 256bit Speicherinterfaces.

Bei GP100 ist so ziemlich alles ausgefahren, was nur geht, das kostet wohl mal locker das 2-3fache an Herstellungskosten von GM200 aktuell, wenn das nur reicht. Denn allein der Waferpreis liegt um mehr als das Doppelte höher, HBM2 und Packaging-Kosten kommen hinzu. Das Ding würde aktuell wohl mit NVs Marge von etwa 30-40% über $1500-2000 US kosten, wenn das nur reicht.

Vor Q1/2017 oder Q2/2017 passiert da nichts, weder GP102, noch GP100, da bin ich mir recht sicher.

Dural
2016-05-13, 14:12:59
Irgend wie habe ich das Gefühl das wir GP100 nur auf der Titan sehen werden.
Alles darunter mit GP102 und GDDR5X.

N0Thing
2016-05-13, 14:19:30
Vieleicht gibt es auch einfach keinen GP102. Das Verhältnis der SPs scheint zwischen GP104 und GP100 analog zu Maxwell zu sein. Dank hoher Taktraten scheint Pascal mit relativ wenig SPs (für eine neue Generation!) viel Leistung auf die Straße zu bringen.

GP102 wäre folglich nur nötig, um nicht 610 mm² für den Massenmarkt zu verballern. Andererseits: lohnt das überhaupt? So groß ist die Anzahl an Enthusiast Geforces sowieso nicht und der Preis ist idR hoch genug, um einen zu fetten Chip durchzufüttern.
Andererseits müsste man einen weiteren Chip entwickeln und produzieren, was ziemlich hohe Einmalkosten mit sich bringt. Spielt man - sagen wir mal ~100...150 mm² Einsparung für die vergleichsweise geringe Anzahl an Enthusiasten wieder ein?

Da man so wenig vom GP102 hört, ist der vielleicht auch nur ein Backup-Projekt, falls sich 10nm deutlich nach hinten verschieben sollte oder der Kosten-Nutzen-Faktor negativ gegenüber 16/14nm ausfällt?

Ich kann mir nicht vorstellen, dass dies so von Nvidia gemacht wird, auf der anderen Seite habe ich beim GP104 auch keine Taktrate von 2Ghz für möglich gehalten.

Ailuros
2016-05-13, 14:47:29
Da man so wenig vom GP102 hört, ist der vielleicht auch nur ein Backup-Projekt, falls sich 10nm deutlich nach hinten verschieben sollte oder der Kosten-Nutzen-Faktor negativ gegenüber 16/14nm ausfällt?

Zu umstaendlich bzw. zu teuer IMHO. Entweder existiert das Ding oder einfach nicht. Ich kann mir nicht vorstellen dass ein jeglicher 102 mehr leisten wuerde unter 3D als P100; hauptsaechlich weniger die area und weniger Verbrauch.

Ich kann mir nicht vorstellen, dass dies so von Nvidia gemacht wird, auf der anderen Seite habe ich beim GP104 auch keine Taktrate von 2Ghz für möglich gehalten.

Es ist schon so dass beide IHVs ziemlich gut dicht halten in letzter Zeit, aber einen so komplizierten chip als "backup" entwickelt wohl keiner.

Godmode
2016-05-13, 14:51:04
Zu umstaendlich bzw. zu teuer IMHO. Entweder existiert das Ding oder einfach nicht. Ich kann mir nicht vorstellen dass ein jeglicher 102 mehr leisten wuerde unter 3D als P100; hauptsaechlich weniger die area und weniger Verbrauch.


Jetzt bringst du mich aber auf eine Idee:

GP102 für die 1080 Ti mit kleinerem Die und GDDR5X, um 700-800 USD.
GP100 für die Pascal Titan um 1500-2000 USD. Man will schließlich sehen, wie locker das Geld bei den Enthusiasts sitzt.

Sunrise
2016-05-13, 14:57:32
Jetzt bringst du mich aber auf eine Idee:

GP102 für die 1080 Ti mit kleinerem Die und GDDR5X, um 700-800 USD.
GP100 für die Pascal Titan um 1500-2000 USD. Man will schließlich sehen, wie locker das Geld bei den Enthusiasts sitzt.
In diesem Fall würde GP100 keiner mehr kaufen. Da wir ja von min. identischer ALU-Anzahl wie bei GP100 ausgehen.

Und das NV so dreist ist, zuerst GP100 für $1500 US zu bringen und dann GP102 mit min. identischer Leistung zu GP100 für die Hälfte, sowas traue ich nichtmal NV zu.

MorPheuZ
2016-05-13, 14:58:43
Jetzt bringst du mich aber auf eine Idee:

GP102 für die 1080 Ti mit kleinerem Die und GDDR5X, um 700-800 USD.
GP100 für die Pascal Titan um 1500-2000 USD. Man will schließlich sehen, wie locker das Geld bei den Enthusiasts sitzt.

GP102 nur auf einer Karte? hmmmm...

iuno
2016-05-13, 14:58:52
Selbst wenn es ein paar weniger ALUs waeren, GP100 laeuft nur mit <1500 und kratzt schon an den 300 Watt. GP102 koennte mit hoeherem Takt die paar ALUs ausgleichen und rankommen. Diese Aufstellung ergibt so fuer mich keinen Sinn

Godmode
2016-05-13, 15:04:09
Selbst wenn es ein paar weniger ALUs waeren, GP100 laeuft nur mit <1500 und kratzt schon an den 300 Watt. GP102 koennte mit hoeherem Takt die paar ALUs ausgleichen und rankommen. Diese Aufstellung ergibt so fuer mich keinen Sinn

Ich gehe davon aus, dass die 300W TDP für DP+NVLINK Workloads gelten. Da NVLINK im Single-GPU Betrieb aber nicht läuft und sicherlich abgeschaltet werden kann, könnte die Leistungsaufnahem also niedriger liegen. Ebenso ist die Leistungsaufnahme bei FP32 Berechnungen deutlich geringer, als bei FP64. GK110 wurde zB. bei FP64 Berechnungen eingebremst, sonst wäre die Leistungsaufnahem explodiert, bzw. der Chip zu warm geworden.

Troyan
2016-05-13, 15:04:50
Die 300W bei P100 steht kaum für die FP32 Leistung. Aber GP100 macht einfach keinen Sinn im Consumermarkt.

Und GP104 erreicht mit 2100MHz auch schon die FP32 Leistung von P100...

iuno
2016-05-13, 15:07:43
Ebenso ist die Leistungsaufnahme bei FP32 Berechnungen deutlich geringer, als bei FP64.
Ist das tatsaechlich so?
Dafuer hast du bei 3D aber noch die Bloecke fuer Geometrie, Texturen, rasterizer, die im Computing nicht belastet werden. Man hat schon gesehen, dass ordentlich fordernde Spiele auch mal mehr Last erzeugen koennen, als reines Computing.

Hübie
2016-05-13, 15:27:46
Als ich das weiter hinten noch in der Raum gestellt hatte, war das laut Hübie völlig ausgeschlossen und klar, dass A1 das erste Tapeout ist^^

Ich sagte doch gar nicht tapeout :| Hab nur Buchstabe und Ziffer zugeordnet. A0 wirst du doch nie auf Karten finden...

@robbitop: Genau das ist der Grund weshalb ich einem GP102 neuerdings skeptisch gegenüber stehe.

Ich will mal kurz einen Schwenk zu DGX-1 machen: das Teil wird überwiegend von öffentlichen Institutionen und viel für R&D gekauft (das ist so meine Beobachtung). In diesen Bereichen verhandelt man keine Preise und entsprechend kann die Konsumentenrente hier extrem abgeschöpft werden, was bedeutet man kann durch den Preis dieser "Workstation" gar nicht rückwärts rechnen um in etwa Gemeinkosten der Herstellung zu erfahren.
Es geht in den Bereichen eher darum ob jetzt 3,4 oder 3,8 Mio Euro benötigt werden. Da bringt man 130k locker unter wenn man das im Project charter berücksichtigt. Deshalb sind die connections von NVIDIA zu Projekten auch so extrem wichtig.