PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26

MorPheuZ
2016-05-22, 01:38:20
Warum bin ich mir so sicher dass wir diesmal keine Titan sehen werden... eig. dachte ich schon dass GP104-400 als "TI" vermarktet würde... OK marktetingtechnisch machts keinen Sinn. Aber warum nicht den fetten Pascal nicht gleich als neues LineUp präsentieren? Bis Volta kommt da eh nix.

BigKid
2016-05-22, 08:05:15
Asus hat Benchmarks einer (vermutlichen) Mobile Lösung geteasert:
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/mobiler-Pascal-unbeschnitten-schneller-als-Titan-X-1196058/

Auch GP104?

Hübie
2016-05-22, 09:30:43
Warum bin ich mir so sicher dass wir diesmal keine Titan sehen werden... eig. dachte ich schon dass GP104-400 als "TI" vermarktet würde... OK marktetingtechnisch machts keinen Sinn. Aber warum nicht den fetten Pascal nicht gleich als neues LineUp präsentieren? Bis Volta kommt da eh nix.

Aha. GP100 wird deiner Meinung nach also verschenkt? Not gonna happen. Es wird wieder einen Titanen geben. Ob der Name bleibt ist unklar, aber der Preispunkt von 1000-1300 Euro bleibt. Da brauchst nicht den Glauben dran verlieren. ;)

Malabolge
2016-05-22, 18:16:02
Aha. GP100 wird deiner Meinung nach also verschenkt? Not gonna happen. Es wird wieder einen Titanen geben. Ob der Name bleibt ist unklar, aber der Preispunkt von 1000-1300 Euro bleibt. Da brauchst nicht den Glauben dran verlieren. ;)

I don't think so , TIM ! (das glaube ich nicht TIM):rolleyes:
Da NV jetzt schon preise um die 600-800€ für das "standart exklusiv"-Model anmeldet, wird die nächste TI nicht um 1000-1300€ erhältlich sein.

Und wisst ihr was, Ihr werdet bezahlen !:biggrin::D

Hübie
2016-05-22, 18:21:23
Hä? Titan. Nicht Ti. Lesen hilft.

Nakai
2016-05-22, 21:19:13
NV bringt erst irgendwas wie GP100/2, wenn sich die Margen saturiert. GP104 wird definitiv noch keine guten Yields haben, ergo wenn sich die Yields verbessern kann NV GP100/2 auf den Massenmarkt werfen. Noch ist es zu teuer.

Derzeit hat GP100-not full eine TDP von 300W. Da muss definitiv ein Respin her, um die Effizienz anzukurbeln. Aber der ganze Ballast durch neue SMs, HBM2 und NVLink braucht es eigentlich nicht. Das dauert noch ein Jahr, bis wir dahingehend was sehen.

Complicated
2016-05-22, 22:28:53
Das könnte auch zu dem einfachen wirtschaftlichen Schluss führen, dass der geplante GP100/2 einfach fallen gelassen wird. Volta steht 2017 schon bereit und wird auch schon als Bestückung für Systeme angekündigt die online gehen. Dauert der Respin zu lange könnte er obsolet werden.

Hübie
2016-05-22, 22:29:42
Der Preis entspringt ja einer Funktion aus Preis und Absatz (okay nicht so simpel). Also wird da schon irgendwo korreliert ab wann man sich Kundenmenge B vom Hals hält bzw Absatz X erreicht. :D
Es wird also nicht die Yield als der Grund zu nennen sein, sondern eine Teilsumme aus 1 von denen die yieldrate vielleicht 1/3 aus macht (exemplarisch).

Nach wie vor glaube ich nicht an einen GP102. Da hab ich mal ein paar Zahlen jongliert. Natürlich habe ich aus mir altebekannten Zahlen interpoliert und könnte vor allem bei den Entwicklungskosten voll daneben liegen, aber die müsste man weit runter drücken um zwei big chips zu rechtfertigen, so dass man dann mehr von Glück als R&D reden würde - das ist nicht die Wirklichkeit.

victore99
2016-05-23, 00:11:12
Aber wenn wir uns GP100 anschauen... Dann sehen wir, dass das Ding von der Arch her überhaupt nicht für Gaming taugt. Zu viele, zu kleine SMs, zudem kann man doch das gute rare GP100-Silizium besser für 6k das Stück an Supercomputertypen verkaufen als für 1,5k an irgendwelche Gamer.
Desweiteren ist es rein von der Architektur her kein Problem von der Architektur mal eben so einen GP102 nachzuschieben. Man nehme GP104, packe 50% drauf (wie bei Maxwell von 980 zu TX).
Das sollte sich schon allein bei den rund 130mm2 auseinander liegenden Diegrößen (GP100 zu theoretischen 102) rechnen.

Außerdem zu den Preisen:
NV hat für die Titan immer den Doppelten bis 2,5-Fachen Preis über der nächstkleineren Chip angesetzt.
GTX 680: 499$
Titan Classic: 999$

GTX 770: 399$
Titan Black: 999$

GTX 980: 499$
GTX Titan X:1000$

Also dürfte es so Werden:
GTX 1080: 699$
GTX Titan Y: 1399$ min.

Und es gibt immer solche, die das Geld hinblättern dafür. 2000€ für die nächste Titan? Mich würde es nicht wundern.

BlacKi
2016-05-23, 01:22:54
Aber wenn wir uns GP100 anschauen... Dann sehen wir, dass das Ding von der Arch her überhaupt nicht für Gaming taugt. Zu viele, zu kleine SMs, zudem kann man doch das gute rare GP100-Silizium besser für 6k das Stück an Supercomputertypen verkaufen als für 1,5k an irgendwelche Gamer.
Desweiteren ist es rein von der Architektur her kein Problem von der Architektur mal eben so einen GP102 nachzuschieben. Man nehme GP104, packe 50% drauf (wie bei Maxwell von 980 zu TX).
Das sollte sich schon allein bei den rund 130mm2 auseinander liegenden Diegrößen (GP100 zu theoretischen 102) rechnen.

Außerdem zu den Preisen:
NV hat für die Titan immer den Doppelten bis 2,5-Fachen Preis über der nächstkleineren Chip angesetzt.
GTX 680: 499$
Titan Classic: 999$

GTX 770: 399$
Titan Black: 999$

GTX 980: 499$
GTX Titan X:1000$

Also dürfte es so Werden:
GTX 1080: 699$
GTX Titan Y: 1399$ min.

Und es gibt immer solche, die das Geld hinblättern dafür. 2000€ für die nächste Titan? Mich würde es nicht wundern.

die 980 hat am anfang 550$ gekostet, mit dem release der ti hat man den preis auf 499 gesenkt. selbiges wird mit der 1080 passieren, und ich pers. sehe die 1080 wenn der hype am anfang vorbei ist bei 599$. wenn dann die 1080ti kommt, wird die 1080 auf 550$ gesenkt. genug platz für eine titan für 999$ oder meinetwegen 1099 und die ti für 699$ mitte 2017. man muss sich aber fragen ob die karte sinn macht denn 2018 soll ja schon volta kommen.

victore99
2016-05-23, 09:11:02
die 980 hat am anfang 550$ gekostet, mit dem release der ti hat man den preis auf 499 gesenkt. selbiges wird mit der 1080 passieren, und ich pers. sehe die 1080 wenn der hype am anfang vorbei ist bei 599$. wenn dann die 1080ti kommt, wird die 1080 auf 550$ gesenkt. genug platz für eine titan für 999$ oder meinetwegen 1099 und die ti für 699$ mitte 2017. man muss sich aber fragen ob die karte sinn macht denn 2018 soll ja schon volta kommen.
2018 kommt volta. Und? Hindert ja nicht daran, im jan '17 ne Titan rauszuhauen.
Btw hatte nv bei den Titans nie wirkliche Probleme mit der Konkurrenz. Jetzt, wo sie sich mit Maxwell in Regionen jenseits des gesunden Marktes katapultiert haben, können die schon richtig draufhauen.
Außerdem brauchen sie eine Titan. Wenn AMD ja vega klein mit 4096SP und HBM loslässt, sollte GP104 schon in bedrängnis sein. Und darüber gibt es einen zweiten, großen Vega. Dann wird GP104 Geschichte sein. Und dass kann NV sich nicht gefallen lassen.
Ergo: NV braucht eine Titan. Und ich glaube kaum, dass der Spaß so billig zu haben sein wird. 1500$ Mindestens.

TheGood
2016-05-23, 09:39:56
die 980 hat am anfang 550$ gekostet, mit dem release der ti hat man den preis auf 499 gesenkt. selbiges wird mit der 1080 passieren, und ich pers. sehe die 1080 wenn der hype am anfang vorbei ist bei 599$. wenn dann die 1080ti kommt, wird die 1080 auf 550$ gesenkt. genug platz für eine titan für 999$ oder meinetwegen 1099 und die ti für 699$ mitte 2017. man muss sich aber fragen ob die karte sinn macht denn 2018 soll ja schon volta kommen.

Dein Wort in Gottes Ohr, aber die preispunkte werden eher 50 $ höher liegen als bisher, sieht man doch gut am Preispunkt der 1070. DAs ist der Preis, dass es zu wenig Wettbewerb gibt.... und nur der Kunde kann es ändern....

Complicated
2016-05-23, 10:33:15
Volta basierende HPC-Systeme sind für 2017 angekündigt. Ob da auch schon Gaming bedient wird ist natürlich nicht gesagt.

Hübie
2016-05-23, 12:52:02
Wer sagt eigentlich dass big Vega mehr als 4096 ALUs hat? :|

victore99
2016-05-23, 13:15:18
Wer sagt eigentlich dass big Vega mehr als 4096 ALUs hat? :|
Niemand, ist aber logisch. Wir wissen von zwei Vega-Chips. Einer hat 4096 ALUs. Und zwischen Polaris mit 2560 oder 2304 ALUs und dem 4096er einen Chip zwischenzustecken, erscheint mir fraglich.
Außerdem ist zu erahnen, dass der 4096er Vega so um die 370-400mm2 landet. Da passt noch was drüber.

Ailuros
2016-05-23, 20:43:36
Niemand, ist aber logisch. Wir wissen von zwei Vega-Chips. Einer hat 4096 ALUs. Und zwischen Polaris mit 2560 oder 2304 ALUs und dem 4096er einen Chip zwischenzustecken, erscheint mir fraglich.
Außerdem ist zu erahnen, dass der 4096er Vega so um die 370-400mm2 landet. Da passt noch was drüber.

Ich kann Dir rein hypothetisch einen Fall anlegen wo man mit sagen wir mal 36 CUs und dem richtigen Takt in etwa die Haelfte der FP32 TFLOPs von einem 64 CU Vega erreicht. Muss zwar nichts heissen aber ich muss irgend etwas wesentliches mit der gesamten Vega Geschichte verpassen, primaer dass AMD ploetzlich Strategie geaendert hat und auch monolitische Ueber-chips entwickeln soll wie NV wobei die Gruenen auch rein zufaellig die Profi-Marktanteile haben solche Projekte effektiver finanzieren zu koennen.

Ja natuerlich passt noch was drueber ueber den Vega den Du beschreibst, zwei dieser chips auf einem Brett :P

Godmode
2016-05-24, 16:25:55
Mal wieder Gerüchte zu GP102:

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Ti-GP102-1196342/

Klingt alles sehr plausibel:
3840 SPs an einem 384 Bit GDDR5X Interface und ohne viel HPC Ballast. Das ganze in ~450 mm2

PHuV
2016-05-24, 17:44:47
50% mehr Shader (Achtung Hübie :tongue:) für eine potentielle 1080TI oder Titan X2 hört sich spannend an. Die Frage ist wieder mal, wie wirkt sich das auf die Gesamtleistung real aus?

Rente
2016-05-24, 17:44:53
GDDR5X wäre etwas langweilig, selbst mit höheren Frequenzen als bei GP104, sonst hört es sich aber in der Tat ganz gut und nicht total übertrieben an.

Sunrise
2016-05-24, 17:51:38
Mal wieder Gerüchte zu GP102:

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Ti-GP102-1196342/

Klingt alles sehr plausibel:
3840 SPs an einem 384 Bit GDDR5X Interface und ohne viel HPC Ballast. Das ganze in ~450 mm2
Also nur das, was wir (ich) schon vorgerechnet habe. Klar klingt das plausibel..;)

Als ob wccftech jemals eine Quelle hatte, außer von anderen Seiten abzuschreiben.

Ailuros
2016-05-24, 18:31:59
Also nur das, was wir (ich) schon vorgerechnet habe. Klar klingt das plausibel..;)

Als ob wccftech jemals eine Quelle hatte, außer von anderen Seiten abzuschreiben.

Vielleicht haben sie auf Versehen von sich selber abgeschrieben diesmal :P

Wir werden sehen ob der GP102 existiert; mein Bauchgefuehl bleibt beim ja.

scully1234
2016-05-24, 18:56:06
Mal wieder Gerüchte zu GP102:

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Ti-GP102-1196342/

Klingt alles sehr plausibel:
3840 SPs an einem 384 Bit GDDR5X Interface und ohne viel HPC Ballast. Das ganze in ~450 mm2

Hat sich da zu der Polymorph Tabelle was veraendert :smile:

Wahrscheinlich ist die geheime Quelle von WCCF genau diese hier
https://www.chiphell.com/thread-1588175-1-1.html

Hübie
2016-05-24, 19:14:49
mein Bauchgefuehl bleibt beim ja.

Meins ist zum Nein hin. -->PN :smile:

BlacKi
2016-05-24, 19:23:35
2018 kommt volta. Und? Hindert ja nicht daran, im jan '17 ne Titan rauszuhauen.
wenn man im 2 jahre rythmus karten kauft, muss es doch nicht die teure titan/ti sein, vor allen dingen wenn der performance vorteil fast gleich ist mit 30%. es geht dabei mehr um meinen geldbeute als der von NV^^ zusätzlich hat man den vorteil der neueren architektur und neuerer features. big chip hin oder her.

fondness
2016-05-24, 19:25:40
Also nur das, was wir (ich) schon vorgerechnet habe. Klar klingt das plausibel..;)

Als ob wccftech jemals eine Quelle hatte, außer von anderen Seiten abzuschreiben.

Naja, ich denke 50% auf GP104 dazuzuzählen schaffen sie auch noch selbst.

Ailuros
2016-05-24, 20:11:07
Meins ist zum Nein hin. -->PN :smile:

Aus der Tabelle sticht mir uebrigens die angebliche 1060 ins Auge. Halb kastrierte Einheiten (ausser back end -33%), fast gleiche Frequenzen zur 1070 und dann nur noch 110W? Und bevor es jemand sagt, in der Tabelle hat der angebliche GP102 und sein salvage part den genau gleichen maximalen Verbrauch bei gleichen Frequenen welches auch naeher an der Realitaet liegt.

AffenJack
2016-05-24, 20:37:11
Aus der Tabelle sticht mir uebrigens die angebliche 1060 ins Auge. Halb kastrierte Einheiten (ausser back end -33%), fast gleiche Frequenzen zur 1070 und dann nur noch 110W? Und bevor es jemand sagt, in der Tabelle hat der angebliche GP102 und sein salvage part den genau gleichen maximalen Verbrauch bei gleichen Frequenen welches auch naeher an der Realitaet liegt.

Die Tabelle ist eh Blödsinn, 1280 SP passen zwar zur GTX1060, aber das wird ein GP106 dann sein. Darüber sollte noch ne GTX1060Ti kommen mit 1920 SP, aber nur 192Bit Speicherinterface. Genauso wie es auch bei der 660Ti damals der Fall war. Die 1060Ti sollte dann der Polarisgegner werden.

ilibilly
2016-05-24, 20:44:42
Ich glaub leider an keine 1080ti,imho besteht kein bedarf ohne konkurrenz,lieber wartet nv noch ein jahr und dann kommt sie in form von 1180 und als salvage 1170
Dann wäre mehr verdient als bald eine neue titan oder 1080ti für 999€ zu bringen ,das wäre nur ein prestigeobjekt ,dannlieber eine ganze generation damit verkaufen .

Sunrise
2016-05-24, 21:05:37
Ich glaub leider an keine 1080ti,imho besteht kein bedarf ohne konkurrenz,lieber wartet nv noch ein jahr und dann kommt sie in form von 1180 und als salvage 1170
Dann wäre mehr verdient als bald eine neue titan oder 1080ti für 999€ zu bringen ,das wäre nur ein prestigeobjekt ,dannlieber eine ganze generation damit verkaufen .
Die Antwort nach der du suchst: Vega

Bei den Preisen die NV für einen 300mm^2 Die und GDDR5X verlangt, hat AMD ordentlich Spielraum.

ilibilly
2016-05-24, 21:15:57
Wann erscheint vega ? Und wird vega die 1080 deklassieren ?
Die 1080 wird sich imho bei 600-650€ in paar wochen einpendeln , die FE mit 699$ ist wohl nur dazu da um die customs als schnäpchen darzustellen:)
Wenn vega noch 2016 kommt und die 1080 deutlich schlägt dann kommt wohl eine 1080ti in form einer gp102

w0mbat
2016-05-24, 21:22:39
Die 1080 Partnerkarten werde wohl alles 800€+ kosten, bei der 1070 erwarte ich 500€+ und 499€ UVP.

Undertaker
2016-05-24, 21:46:08
Die Founders Edition hat eine UVP von 789 Euro ($699) und ist genau für diesen Preis auch vorbestellbar. Die Partnerkarten ($599) dürften folglich bei etwa 680 Euro starten.

Dural
2016-05-24, 21:54:46
Ich sage es ja schon länger, 1080ti mit gp102 12gb und je nach dem was AMD macht noch eine titan mit gp100 16gb für 1500.- ;)
Wenn AMD zustark ist, wie so auch immer haut nv auf die titan den gp102 mit 24gb gddr5x für die üblichen 1000.-

w0mbat
2016-05-24, 22:47:07
Die Founders Edition hat eine UVP von 789 Euro ($699) und ist genau für diesen Preis auch vorbestellbar. Die Partnerkarten ($599) dürften folglich bei etwa 680 Euro starten.

Nochmals: das ist eine UVP. Hast du schon Partnerkarten für $599 gesehen? Wenn die FE für €789 weg geht, werden die wohl nicht so blöd sein und sich an Nvidias UVP halten.

BlacKi
2016-05-24, 23:23:20
Nochmals: das ist eine UVP. Hast du schon Partnerkarten für $599 gesehen? Wenn die FE für €789 weg geht, werden die wohl nicht so blöd sein und sich an Nvidias UVP halten.
NV ist kein konkurent im herkömmlichen sinne. die preisschlacht tragen die hersteller unter sich aus, die FE steht ausser konkurenz.

Troyan
2016-05-24, 23:24:44
Es gab von der GTX970 auch keine FE für $70 mehr, trotzdem wurden Karten für MSRP oder leicht höher verkauft.

Undertaker
2016-05-25, 08:47:19
NV ist kein konkurent im herkömmlichen sinne. die preisschlacht tragen die hersteller unter sich aus, die FE steht ausser konkurenz.

Exakt. Die FE ändert nichts am Preiskampf der Partnerkarten untereinander.

Mancko
2016-05-25, 09:57:38
Exakt. Die FE ändert nichts am Preiskampf der Partnerkarten untereinander.

Das stimmt aber trotzdem ist es natürlich so, dass wenn die Nachfrage hoch ist, der Preis auch locker mal über MSRP liegen kann. Das regelt am Ende der Markt und wenn der Preis höher ausfällt, dann weil man dazu eben verkaufen kann. Es ist komplett sinnfrei darüber zu diskutieren. Preis bildet sich immer aus Angebot und Nachfrage. Wenn also ein Unternehmen sehr hohe Preise verlangen kann und der Konkurrent halt nicht, dann ist das erstmal das Problem des Konkurrenten.

Korvaun
2016-05-25, 10:35:46
edit, schon mal gepostet...

Sunrise
2016-05-25, 10:40:40
Ist das schon mal gepostet worden?
Ja, hatten wir hier schon vor ein paar Seiten. Fußt im Prinzip auch auf unseren Spekulationen, wohingegen diese Tabelle sehr realistisch aussieht (weil man auch ungerade Werte angibt, wie 478mm²), bis evtl. die stark übertriebenen 24GB GDDR5X VRAM, die dann zur Diskussion geführt haben.

WCCFTech und Konsorten übernehmen das dann und machen daraus ein "unsere Quellen".

Ist aber höchstwahrscheinlich ein Fake.

wolik
2016-05-25, 11:07:03
Neuste aus den Glaskugel.
http://www.bitsandchips.it/9-hardware/7037-rumor-gtx-titan-next-con-chip-gp102-e-gddr5x
http://www.3dnews.ru/933451
1399$ !!! DE 1500E ?
Titan 6GB, Titan X 12Gb, Titan Next 24Gb ? Wieso nicht.

Hübie
2016-05-25, 11:24:05
Da passt einiges nicht.

PHuV
2016-05-25, 11:34:34
Korrekt. Es wird eher 16 GB werden, und keine 24 GB, welche ja nicht mal der große Pascal mit 16 GB.

woodsdog
2016-05-25, 11:36:43
Da passt einiges nicht.


immer diese halben posts... :P

Wenn schon, dann gerne mit etwas Inhalt, WAS denn deiner Meinung nach nicht passt unterfüttern.

Danke!

windev
2016-05-25, 11:44:21
Hallo Leute

Nur so zum "sicher" sein: (Hab den Überblick ein bisschen verloren)

- Es wird keine GeForce mit GP100 und HBM2 geben? GP100 wird den Tesla Karten vorbehalten sein?

- Die 1080Ti und die 1080 Titan werden wohl auf den GP102 mit DDR5X setzen und die 1080Ti im Sommer erscheinen (Titan - k.a)? Neben dem Preis wird die Titan nur mehr Speicher haben?

Ist das +/- so richtig?

Dorn
2016-05-25, 11:48:58
Die Founders Edition welche man direkt bei nvidia bestellen kann, von welchem Hersteller wird die den gefertigt?

deekey777
2016-05-25, 12:10:42
Die Founders Edition welche man direkt bei nvidia bestellen kann, von welchem Hersteller wird die den gefertigt?

Gute Frage. Ich habe in Erinnerung, dass Testsamples mit Nvidia-Logo von Leadteks Mama, also Foxcon, gefertigt wurden. Wird wohl auch hier der Fall sein.

Godmode
2016-05-25, 12:19:37
Hallo Leute

Nur so zum "sicher" sein: (Hab den Überblick ein bisschen verloren)

- Es wird keine GeForce mit GP100 und HBM2 geben? GP100 wird den Tesla Karten vorbehalten sein?

- Die 1080Ti und die 1080 Titan werden wohl auf den GP102 mit DDR5X setzen und die 1080Ti im Sommer erscheinen (Titan - k.a)? Neben dem Preis wird die Titan nur mehr Speicher haben?

Ist das +/- so richtig?

Ich denke das kann man so stehen lassen. Die Titan wird wohl etwas mehr SPs haben, als die 1080 Ti, aber beide werden wohl auf GP102 setzen. Da GP100 erst im nächsten Jahr für HPC Kunden erscheint, sehe ich keine Grund für GP102 auf Consumerkarten.

Hübie
2016-05-26, 10:42:02
immer diese halben posts... :P

Wenn schon, dann gerne mit etwas Inhalt, WAS denn deiner Meinung nach nicht passt unterfüttern.

Danke!

Ja. ROP Partitionen->GPC->SMP->ALUs z.B.
Wenn GP102 kommt, dann würde ich eher auf HBM2 tippen. Sonst war das alles ne Luftblase mit HBM bis Vega Verbreitung findet. Andererseits wahrt man so den Abstand zur HPC-class.
Lassen wir uns mal überraschen. :freak: Wäre ja nicht das erste Mal dass ich mich irre (und ich irre mich gerne wenn es um so etwas geht :naughty:).

Dural
2016-05-26, 11:05:43
GP102 mit HBM macht doch überhaupt keinen Sinn, da hätte schon GP104 HBM haben können.

Der wird schon mit GDDR5X kommen, ausser GP102 ist sogar grösser als GP100, mit 600mm2 wären eventuell sogar 5120SP möglich, der verbrauch bei 1500MHz+ würde aber durch die Decke gehen, daher kann man wohl eher nicht damit rechnen.

Der_Korken
2016-05-26, 11:21:56
HBM2 kann durchaus Sinn machen bei GP102, da dieser sparsamer ist. Wenn man von GP104+50% ausgeht, wäre man bereits bei 270W TDP bei gleicher Taktrate. Wenn man unter 250W bleiben will, muss man entweder viel Taktpotenzial verschenken oder auf HBM2 zurückgreifen. Bei mehr als 3840SPs wäre der Verbrauch noch höher und es käme vielleicht noch Bandbreitenlimitierung hinzu.

Ailuros
2016-05-26, 11:46:50
HBM2 kann durchaus Sinn machen bei GP102, da dieser sparsamer ist.

Wieviel vebraucht denn HBM2 im Vergleich zu GDDR5X wenn ich beispielsweise 480GB/s Bandbreite fuer N SKU brauche?

Wenn man von GP104+50% ausgeht, wäre man bereits bei 270W TDP bei gleicher Taktrate.

Wer sagt dass ein jeglicher GP102 so hoch takten wird um damit anzufangen?

Wenn man unter 250W bleiben will, muss man entweder viel Taktpotenzial verschenken oder auf HBM2 zurückgreifen. Bei mehr als 3840SPs wäre der Verbrauch noch höher und es käme vielleicht noch Bandbreitenlimitierung hinzu.

Mir gefaellt eigentlich schon die obrige Milchmaedchenrechnung: GP100-30% ergo muesste ein GP102 bei den P100 Frequenzen um die 220W verbrauchen; eigentlich noch genug Luftraum fuer etwas hoehere Frequenzen. Nicht dass die Formel irgendwelchen Sinn macht....

Der_Korken
2016-05-26, 12:10:19
Wieviel vebraucht denn HBM2 im Vergleich zu GDDR5X wenn ich beispielsweise 480GB/s Bandbreite fuer N SKU brauche?


Ich weiß nicht, ob es dazu offizielle Zahlen gibt. Ich erinnere mich nur an eine Folie von Nvidia, auf der kritisiert wurde, dass HBM in ein paar Jahren genauso ins Powerlimit laufen wird wie GDDR5. Allerdings waren die W pro GB/s bei HBM afaik um Faktor 3 besser. Leider finde ich die Folie auf die Schnelle nicht.


Wer sagt dass ein jeglicher GP102 so hoch takten wird um damit anzufangen?

Mir gefaellt eigentlich schon die obrige Milchmaedchenrechnung: GP100-30% ergo muesste ein GP102 bei den P100 Frequenzen um die 220W verbrauchen; eigentlich noch genug Luftraum fuer etwas hoehere Frequenzen. Nicht dass die Formel irgendwelchen Sinn macht....

Niemand sagt, dass GP102 so hoch takten muss. Das Performance-Plus wird dann aber unter 50% bleiben. Man würde also vielleicht reichlich viel verschenken, wenn man wegen des Powerlimits bei 1,5-1,6Ghz bleiben muss, der Chip aber auch problemlos >2Ghz schafft. Insofern könnte durch HBM auch die Chipleistung steigen, weil mehr Reserven dafür frei werden.

Die "Runterrechnung" vom GP100 hinkt dagegen: Hier wird schon HBM verbaut. Mit einem 512bit-GDDR5X-Interface würde (behaupte ich jetzt einfach mal) der Verbrauch deutlich über 300W rauskommen.

sulak
2016-05-26, 12:10:52
Wieviel vebraucht denn HBM2 im Vergleich zu GDDR5X wenn ich beispielsweise 480GB/s Bandbreite fuer N SKU brauche?


Hat glaub noch keiner bei der GTX1080 ausgerechnet, aber du spielst sicher auf das Bild an:
http://static1.gamespot.com/uploads/original/92/929129/3027242-4368030567-NV-HB.png

Wenn GDDR5x etwas besser als GDDR5 da steht, zieht es gleich mit HBM2.

Ailuros
2016-05-26, 12:13:15
Hat glaub noch keiner bei der GTX1080 ausgerechnet, aber du spielst sicher auf das Bild an:

Wenn GDDR5x etwas besser als GDDR5 da steht, zieht es gleich mit HBM2.

Es gab irgendwo noch eine Tabelle mit GDDR5X Verbrauchs-Schaetzungen je nach Frequenz glaube ich. Wie dem auch sei wenn die Realitaet in etwa Deinem letzten Satz entspricht, geht man eher auf GDDR5X weil es billiger sein wird.

Ich weiß nicht, ob es dazu offizielle Zahlen gibt. Ich erinnere mich nur an eine Folie von Nvidia, auf der kritisiert wurde, dass HBM in ein paar Jahren genauso ins Powerlimit laufen wird wie GDDR5. Allerdings waren die W pro GB/s bei HBM afaik um Faktor 3 besser. Leider finde ich die Folie auf die Schnelle nicht.

Siehe oben.

Niemand sagt, dass GP102 so hoch takten muss. Das Performance-Plus wird dann aber unter 50% bleiben.

Bei welcher der letzten GPU Generationen an der Reihe war der Unterschied irgendwo annaehernd bei +50% im Durchschnitt?

Man würde also vielleicht reichlich viel verschenken, wenn man wegen des Powerlimits bei 1,5-1,6Ghz bleiben muss, der Chip aber auch problemlos >2Ghz schafft. Insofern könnte durch HBM auch die Chipleistung steigen, weil mehr Reserven dafür frei werden.

Die "Runterrechnung" vom GP100 hinkt dagegen: Hier wird schon HBM verbaut. Mit einem 512bit-GDDR5X-Interface würde (behaupte ich jetzt einfach mal) der Verbrauch deutlich über 300W rauskommen.

Die Runterrechnung war nur eine um 180 Grad-Drehung einer Rechnung die keine Haende und Fuesse hat; es wurde das eigentliche sinnlose einfach umgekehrt nur leicht sinnloser illustriert.

Tamagothi
2016-05-26, 12:13:36
Mir gefaellt eigentlich schon die obrige Milchmaedchenrechnung: GP100-30% ergo muesste ein GP102 bei den P100 Frequenzen um die 220W verbrauchen; eigentlich noch genug Luftraum fuer etwas hoehere Frequenzen. Nicht dass die Formel irgendwelchen Sinn macht....

GTX 1080 -> 2560 SPs -> 180W TDP

GTX 1070 -> 1920 SPs -> 150W TDP

Ergibt bei -25% Einheiten nur -20% TDP. Dann wird GP 102 so sein.

GTX Titan/1080ti -> 3840 SPs -> 252W TDP

Ailuros
2016-05-26, 12:19:48
GTX 1080 -> 2560 SPs -> 180W TDP

GTX 1070 -> 1920 SPs -> 150W TDP

Ergibt bei -25% Einheiten nur -20% TDP. Dann wird GP 102 so sein.

GTX Titan/1080ti -> 3840 SPs -> 252W TDP

Keine gleichen Frequenzen und kein gleicher Speicher (ausser 8Gbps und 10Gbps oder 2 und 2.5GHz realer Takt sind bei Dir "gleich) zwischen 1070 und 1080. Tut mir leid aber das ist genauso substanzlos wie jegliche andere obrige Rechnung. Der Daemlichkeit zu Liebe die EVGA SKUs fuer die GTX980 skalieren von 180 auf 300W TDP mit einer Frequenzsteigerung unter 17%.

Der_Korken
2016-05-26, 12:24:39
@sulak: Genau die Folie meinte ich :up:

Man kann jetzt natürlich das Lineal rausholen, aber Faktor 3 kommt schon recht gut hin. Dass GDDR5X das aufholt bezweifel ich, denn GDDR5 war gegenüber GDDR3 auch nur schneller, aber kaum effizienter.

GTX 1080 -> 2560 SPs -> 180W TDP

GTX 1070 -> 1920 SPs -> 150W TDP

Ergibt bei -25% Einheiten nur -20% TDP. Dann wird GP 102 so sein.

GTX Titan/1080ti -> 3840 SPs -> 252W TDP

Vorsicht beim Vergleich von vollen und teildeaktivierten Chips. Die GTX1070 hat zwar nur 75% der Recheneinheiten, dürfte aber pro Takt mehr als 75% der 1080er-Leistung erreichen. Wie ich mittlerweile gelernt habe, gibt es viele relevante Chipteile, die nicht im gleichen Maße beschnitten sind (Frontend, Caches) und damit auch genau so viel Strom verbrauchen wie auf dem vollen Chip. Deine Rechnung kann nur aufgehen, wenn Nvidia beim GP102 einfach nur die Recheneinheiten dazubaut, alles andere aber so belässt. Dadurch skaliert die Leistung aber nicht mehr 1:1.

Ailuros
2016-05-26, 12:28:57
@sulak: Genau die Folie meinte ich :up:

Man kann jetzt natürlich das Lineal rausholen, aber Faktor 3 kommt schon recht gut hin. Dass GDDR5X das aufholt bezweifel ich, denn GDDR5 war gegenüber GDDR3 auch nur schneller, aber kaum effizienter.


http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps

Angenommen Shilov's Schaetzungen sind annaehernd korrekt, komm ich mit hypothetischen 10Gbps@384bit auf 18W eingeschaetzten Verbrauch. Gegen den FuryX eingeschaetzten Verbrauchs-wert ist auch keine Welt mehr an Unterschied. Wobei NV's Folie fuer ueber 500GB HBM schon um einiges ueber 20W grenzt, aber so weit muss die Haarspalterei nicht gehen. Bis zu einem Punkt von Bandbreite duerfte GDDR5X durchaus insgesamt mehr Sinn machen momentan.

Hübie
2016-05-26, 12:31:56
Es ist und bleibt eine exponentialfunktion. Lineares rechnen hilft hier nicht wirklich. Schon gar nicht wenn vier Produkte mit vier unterechiedlichen Konfigurationen integriert werden sollen. :rolleyes:

Der_Korken
2016-05-26, 12:39:05
http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps

Dort stehen deutlich kleinere Verbrauchswerte als auf der Folie. Warum die Werte so unterschiedlich sind, weiß ich nicht.

Es ist und bleibt eine exponentialfunktion. Lineares rechnen hilft hier nicht wirklich. Schon gar nicht wenn vier Produkte mit vier unterechiedlichen Konfigurationen integriert werden sollen. :rolleyes:

Meintest du mich? Ich wollte mit dem Lineal nur ausdrücken, dass der Unterschied ca. Faktor 3 ist, ohne das genau "mit dem Lineal" ausgemessen zu haben.

Hübie
2016-05-26, 12:41:31
Ich meinte keine person, sondern die Diskussion. ;)

Ailuros
2016-05-26, 12:47:06
Dort stehen deutlich kleinere Verbrauchswerte als auf der Folie. Warum die Werte so unterschiedlich sind, weiß ich nicht.

Die Folie stammt von NV's Marketing-Abteilung. Wo Du aber bei allem bis zu 500GB/s Bandbreite immer noch einen Faktor N bei HBM siehst musst Du mir erstmal noch zeigen.

Der_Korken
2016-05-26, 13:52:09
Wo Du aber bei allem bis zu 500GB/s Bandbreite immer noch einen Faktor N bei HBM siehst musst Du mir erstmal noch zeigen.

HBM2 fängt auf dem Diagramm leider erst bei 1TB/s an (ich denke die haben mit 4 Stacks und 2Ghz Takt gerechnet). Diese werden mit einem Verbrauch etwa 65W erreicht. Das macht 32,5W für 500GB/s. GDDR5 erreicht auf dem Diagramm nur 384GB/s, verbraucht dafür aber bereits 75W. Macht also 100W für 500GB/s, also Faktor 3 mehr.

GDDR5X ist leider nicht im Diagramm, aber selbst wenn man annimmt, dass sich die Effizienz um Faktor 2 verbessert (also so wie in der Tabelle in deinem Link), wäre HBM2 immer noch 50% effizienter. Das komische ist nur: Nach Nvidias Tabelle wäre die Differenz (im best case) >30W, während sie in der Tabelle auf Anandtech <10W wäre.

Bei <10W Unterschied wäre HBM2 für GP102 in der Tat relativ sinnfrei. Bei >30W könnte man dagegen z.B. schon 10-15% mehr Chiptakt rausholen und die Karte entsprechend der Leistung auch teurer verkaufen.

Ailuros
2016-05-26, 14:10:47
Das Diagramm hatte eigentlich als Zweck ueber die Moeglichkeiten eines zu hohen Verbrauchs des HBM2 Nachfolgers zu meckern. Einen Punkt hat NV damit schon, aber sie uebertreiben auch leicht gerne in solchen Faellen.

Nach NV ist der Verbrauch bei irgendwo 750/800GB/s bei den gleichen 40W fuer GDDR5 und HBM. Um ehrlich zu sein klingt mir der HBM Verbrauch dafuer zu hoch, ist aber auch nebensaechlich.

Mein originaler Punkt war und ist dass bis zu irgendwo 500GB/s Bandbreite HBM keinen sehenswerten Vorteil beim Stromverbrauch gegenueber GDDR5X haben duerfte.

Skysnake
2016-05-26, 15:28:38
Wie kommste denn bitte darauf Ailuros?

HBM ist immer Effizienter bei gleicher BAndbreite als GDDR5 UND! gleicher Speichermenge. Das Problem ist nur, das man HBM an sich nicht so weit runter skaliert, sondern dann GDDR5(x) verwendet, einfach weils billiger ist, und die absoluten Verbräuche noch nicht so hoch sind, das es relevant ist.

Ailuros
2016-05-26, 15:47:38
Wie kommste denn bitte darauf Ailuros?

HBM ist immer Effizienter bei gleicher BAndbreite als GDDR5 UND! gleicher Speichermenge. Das Problem ist nur, das man HBM an sich nicht so weit runter skaliert, sondern dann GDDR5(x) verwendet, einfach weils billiger ist, und die absoluten Verbräuche noch nicht so hoch sind, das es relevant ist.

Lies den vorigen Beitrag nochmal durch. Glaub mir es hilft.

Skysnake
2016-05-26, 15:50:40
Keinen Sehenswerten vs. keinen ist doch genau das was ich gesagt habe. Das ändert aber nichts daran, das HBM sehr sehr sehr sicher immer effizienter ist.

Bei 5 ws 10W interessierts nur keine Sau.

Wobei ich mich frage, wie du auf 40W bei 500GB/s jetzt kommst? Und vor allem, was ist da jetzt alles enthalten? ;)

Complicated
2016-05-26, 20:02:43
Mein originaler Punkt war und ist dass bis zu irgendwo 500GB/s Bandbreite HBM keinen sehenswerten Vorteil beim Stromverbrauch gegenueber GDDR5X haben duerfte.Ich denke du liest das Diagramm falsch. GDDR5 hat ca. 70W Verbrauch bei ca. 400GB/s angegeben. HBM hat 40W bei 500GB/s angegeben. Wo GDDR5X hier steht ist eigentlich gar nicht so ganz klar. Braucht es weniger oder mehr Strom als GDDR5 um die höheren Transferraten u erreichen? Und wo reiht es auch hier im Diagramm ein?

Und wenn man sich die Linie mit der Bandreite anschaut skaliert sie immer besser als der Verbrauch bei HBM...also es kommt immer mehr Bandbreite rum als Verbrauch investiert wird.

Der_Korken
2016-05-26, 20:14:41
Und wenn man sich die Linie mit der Bandreite anschaut skaliert sie immer besser als der Verbrauch bei HBM...also es kommt immer mehr Bandbreite rum als Verbrauch investiert wird.

Das täuscht. Bei den beiden HBM2-Balken ist das Verhältnis gleich. HBM1 ist etwas schlechter und ganz rechts ist ein hypothetischer HBM2 mit 50% besserer Effizienz, also keine konkrete Technologie.

Ailuros
2016-05-26, 20:54:34
Alles klar. Dann hau meine zwei posts mal in die Tonne.

Hier mein eigentlicher Ausgangspunkt der nichtmal auf Daten sondern auf Shilov's Schaetzungen basiert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11045169&postcount=5809

Complicated
2016-05-26, 20:58:49
Das täuscht. Bei den beiden HBM2-Balken ist das Verhältnis gleich. HBM1 ist etwas schlechter und ganz rechts ist ein hypothetischer HBM2 mit 50% besserer Effizienz, also keine konkrete Technologie.Nein da täuscht nichts. Die Schwarze Linie zeigt die Bandbreite Und nicht die Höhe der Balken, welche lediglich den Verbrauch anzeigen. GDDR5 verbraucht 70W bei 400GB/s. HBM 40W bei 500GB/s

Der_Korken
2016-05-26, 21:03:10
Nein da täuscht nichts. Die Schwarze Linie zeigt die Bandbreite Und nicht die Höhe der Balken, welche lediglich den Verbrauch anzeigen. GDDR5 verbraucht 70W bei 400GB/s. HBM 40W bei 500GB/s

Dem habe ich doch gar nicht widersprochen, sondern dem zweiten Teil deines Posts, dass das die Effizienz von HBM immer weiter zunimmt, je höher man bei der Bandbreite kommt.

Screemer
2016-05-26, 21:04:19
Hier mein eigentlicher Ausgangspunkt der nichtmal auf Daten sondern auf Shilov's Schaetzungen basiert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11045169&postcount=5809
Ich find ja eigentlich lustig, dass skysnake genau das in seinem letzen Post ausdrückt. Ich habs zumindest so verstanden. hbm skaliert nicht so weit runter bedeutet für mich im Umkehrschluss, dass gddr5x eben bis zu ner gewissen Grenze sinnvoll skaliert. Eben das was du in deinem Post schreibst.

Complicated
2016-05-26, 21:10:07
Dem habe ich doch gar nicht widersprochen, sondern dem zweiten Teil deines Posts, dass das die Effizienz von HBM immer weiter zunimmt, je höher man bei der Bandbreite kommt.
Ich schrieb nicht Effizienz. Ich schrieb dass die Bandbreite besser skaliert als der Stromverbrauch. Bei 4000 GB/s ist die vierfache Bandbreite zu einer geringeren Steigerung des Stromverbrauchs möglich. Ob das aber im absoluten Wert noch produkttauglich ist steht auf einem anderen Blatt.

Gipsel
2016-05-26, 21:12:18
Hier mein eigentlicher Ausgangspunkt der nichtmal auf Daten sondern auf Shilov's Schaetzungen basiert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11045169&postcount=5809Bei den Schätzungen fehlt ein wesentlicher Punkt. Die IO-Power (in der nV Folie der rote Anteil der Balken) fällt an zwei Orten an, dem DRAM selber und nochmal im Speicherinterface der GPU. Und dieser Anteil am Verbrauch dominiert bei GDDR5(X) und ist bei HBM(2) wesentlich reduziert. Dies ist der Hauptgrund für die höhere Energieeffizienz von HBM. Bei Ansicht der Tabelle von Anandtech unterschätzt man also systematisch den Gesamtverbrauch des Speichersystems. Und bei GDDR5(X) sogar sehr deutlich.
Mit anderen Worten, HBM(2) ist in der Gesamtsicht (also inklusive Speichercontroller in der GPU) deutlich effizienter im Vergleich, als es die Tabelle bei Anandtech ausdrückt.

Ailuros
2016-05-26, 21:15:48
Bei den Schätzungen fehlt ein wesentlicher Punkt. Die IO-Power (in der nV Folie der rote Anteil der Balken) fällt an zwei Orten an, dem DRAM selber und nochmal im Speicherinterface der GPU. Und dieser Anteil am Verbrauch dominiert bei GDDR5(X) und ist bei HBM(2) wesentlich reduziert. Dies ist der Hauptgrund für die höhere Energieeffizienz von HBM. Bei Ansicht der Tabelle von Anandtech unterschätzt man also systematisch den Gesamtverbrauch des Speichersystems. Und bei GDDR5(X) sogar sehr deutlich.
Mit anderen Worten, HBM(2) ist in der Gesamtsicht (also inklusive Speichercontroller in der GPU) deutlich effizienter im Vergleich, als es die Tabelle bei Anandtech ausdrückt.

Ηab ich schon fast verdaechtigt dass IO zu stark in der NV Folie heraussticht; danke fuer die Aufklaerung.

Der_Korken
2016-05-26, 21:17:14
Ich schrieb nicht Effizienz. Ich schrieb dass die Bandbreite besser skaliert als der Stromverbrauch. Bei 4000 GB/s ist die vierfache Bandbreite zu einer geringeren Steigerung des Stromverbrauchs möglich. Ob das aber im absoluten Wert noch produkttauglich ist steht auf einem anderen Blatt.

Das ist doch Effizienz, also Leistung/Verbrauch.

Dennoch: Der letzte Balken in dem Diagramm ist Unsinn, weil das keine reale Speichertechnologie ist, sondern einfach ein hypotetischer HBM2 mit 1,5facher Effizienz. Dieser liefert wenig überraschend 50% mehr Bandbreite/W als normaler HBM2 ;)

Edit:

Bei den Schätzungen fehlt ein wesentlicher Punkt. Die IO-Power (in der nV Folie der rote Anteil der Balken) fällt an zwei Orten an, dem DRAM selber und nochmal im Speicherinterface der GPU. Und dieser Anteil am Verbrauch dominiert bei GDDR5(X) und ist bei HBM(2) wesentlich reduziert.

Danke für die Erklärung.

Complicated
2016-05-26, 21:20:36
Naja Effizienz endet an einer Linie wo das maximale Budget für das Speichersubsystem erreicht ist. Ob da ein Verbrauch über 100W noch produkttauglich ist und somit Effizient?

iuno
2016-05-26, 21:25:50
Bedenkt ihr eigentlich bei den Verbrauchsangaben auch die MC auf dem Chip?
Soweit ich das sehe sind die in der Schaetzung Anandtech nicht miteinbezogen (DRAM Power Consumption). Das sollte ja auch und vor allem mit hohen Frequenzen bei 5X ziemlich schnell sehr "schaedlich" sein.

edit: oh, Gipsel hat das ja eben schon angesprochen :redface:

Gipsel
2016-05-26, 21:26:02
Ηab ich schon fast verdaechtigt dass IO zu stark in der NV Folie heraussticht; danke fuer die Aufklaerung.Genau genommen sticht es nicht zu stark heraus, es spiegelt vielmehr die Wirklichkeit wieder (die Tabelle von nV ist sehr nah an der Wirklichkeit, die Angaben decken sich mit denen von Hynix und AMD). Die Tabelle bei Anandtech läßt dagegen mal locker die Hälfte des IO-Anteils weg. Das läßt die Werte für GDDR5(X) dort besser aussehen, als sie es wirklich sind. ;)

Unicous
2016-05-26, 21:35:42
Das ist typisch Anton Shilov der Sachen nicht zu Ende denkt und einfach einen Artikel raushaut, komme was da wolle. Deswegen war ich auch sehr erschrocken, dass er jetzt auch für AT schreibt.

Ich glaube wir hatten das mit den Werten schon mal an anderer Stelle, entweder war es der gleiche Artikel oder ein ähnlicher, der diese Vergleiche anstellte.


Ach ney, es war der HBM2-Artikel der mir damals so sauer aufstieß.

http://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification

Leider, leider eine sehr traurige Entwicklung für AT, die offensichtlich kein fähiges Personal akquirieren können.:frown:

AffenJack
2016-05-26, 22:52:34
Genau genommen sticht es nicht zu stark heraus, es spiegelt vielmehr die Wirklichkeit wieder (die Tabelle von nV ist sehr nah an der Wirklichkeit, die Angaben decken sich mit denen von Hynix und AMD). Die Tabelle bei Anandtech läßt dagegen mal locker die Hälfte des IO-Anteils weg. Das läßt die Werte für GDDR5(X) dort besser aussehen, als sie es wirklich sind. ;)

Wird die IO Power dank QDR bei 5X nicht auch deutlich geringer sein, als bei GDDR5 solange man nicht in Richtung der doppelten Geschwindigkeit vorstößt?

Gipsel
2016-05-26, 23:33:21
Wird die IO Power dank QDR bei 5X nicht auch deutlich geringer sein, als bei GDDR5 solange man nicht in Richtung der doppelten Geschwindigkeit vorstößt?Ein wenig schon. QDR (im Endeffekt ist es nur die im Verhältnis zur Bandbreite halbierte Geschwindigkeit der Command-, Adress- sowie Taktsignale, die Daten selber müssen ja trotzdem mit höherer Rate übertragen werden, QDR hin oder her) spielt da vermutlich aber sogar eine etwas kleinere Rolle als die abgesenkte Spannung. Also effizienter wird es schon, aber man spart nicht 80+% der IO-Power wie mit HBM.

Dural
2016-05-27, 09:15:20
Ich zweifle immer noch stark an das die Chips mit HBM weniger Strom verbrauchen, ja sie haben mehr Bandbreite, aber verbrauchen nicht weniger.

Sieht man meiner Meinung nach auch ganz gut bei den aktuellen GPUs Fiji und GP100 der immerhin 300Watt bei 1480MHz hat.

Im Endeffekt hat sich mit HBM recht wenige getan, eine neue Ausbaustuffe des Speichers um die nötige Bandbreite zu erzeugen die solche grossen GPUs sicherlich benötigen, nicht mehr und nicht weniger. Auf dem Wattmeter steht immer noch ca. der selbe Wert, klar mit mehr Leistung.

Skysnake
2016-05-27, 09:29:50
Da haste durchaus recht. Das ist ja etwas die Krugs an der Sache. Man generiert einfach mehr Bandbreite und kommt +/- beim gleichen Verbrauch raus oder gar mehr, einfach weil die Produkte die Bandbreite auch brauchen, bzw eben der Vorteil bei kleineren Bandbreiten zu klein wäre, als das es sich lohnen würde. Wir stecken da bei HBM halt in einer unglücklichen Skalierungsecke.

Die Alternativen sähen aber eben so aus, das man die neuen Highend-Produkte eben ohne HBM gar nicht sinnvoll bauen könnte, weil eben entweder die Bandbreiten gar nicht generiert werden könnten, oder aber man extrem viel Energie verbraten würde und damit die Compute-Leistung im Vergleich zu mit HBM massiv drosseln müssten, was natürlich auch dazu führt, das man gar nicht mehr ganz so viel Bandbreite braucht...

Im 3D-Grafiksbereich ist es gar nicht so schlimm mit den Bandbreitenanforderungen und man kann da mit GDDR5X durchaus noch eine Generation überbrücken. Man sieht ja, dass das 256Bit GDDR5X Interface der HTX1080 wohl etwas mehr Takt hätte vertragen dürfen. Ergo kannste noch ein oder zwei Karten darüber mit mehr Takt und eben einem breiteren Interface plazieren. Dann ist GDDR5X aber wohl auch mehr oder weniger ausgelutscht. Vor allem kommste dann halt wohl in Verbrauchsregionen allein für das Speicherinterface, dass du kaum noch was bei Compute rausholen kannst. Kurz man rennt halt gegen die PowerWall.

Ηab ich schon fast verdaechtigt dass IO zu stark in der NV Folie heraussticht; danke fuer die Aufklaerung.
Gut, dann können wir uns ja wieder lieb haben, und vielleicht wieder etwas entspannter und weniger dünnhäutig werden. Deal? ;)

@Topic:
Ist der CCIX (http://insidehpc.com/2016/05/technology-leaders-join-forces-to-bring-an-open-acceleration-framework-to-data-centers-and-other-markets/)Interconnect NVLink done richt? Nach meinem Gefühl her ja. Lustig ist aber, das IBM da mit macht. Haben Sie doch CAPI und NVLink schon zu supporten. Ich frage mich echt, was da an HT und CAPI drin steckt. ARM hat ja ende letzten Jahres ihren CacheCohärents Bus vorgestellt, der zumindest CPU und iGPU umfasst. Es wäre wirklich sehr sehr sehr sehr wünschenswert, wenn nVidia auch CCIX nutzen würde und nicht NVLink zum verdongeln ihrer Produkte und Software. NVidia bremst damit echt die Entwicklung...

Complicated
2016-05-27, 09:30:11
@Dural
Nur siehst du daran ja nicht ob GDDR5 bei dem Takt nicht zu 400 W (übertrieben zwecks Darstellung) Verbrauch führen würde.

Ailuros
2016-05-27, 09:51:12
@Topic:
Ist der CCIX (http://insidehpc.com/2016/05/technology-leaders-join-forces-to-bring-an-open-acceleration-framework-to-data-centers-and-other-markets/)Interconnect NVLink done richt? Nach meinem Gefühl her ja. Lustig ist aber, das IBM da mit macht. Haben Sie doch CAPI und NVLink schon zu supporten. Ich frage mich echt, was da an HT und CAPI drin steckt. ARM hat ja ende letzten Jahres ihren CacheCohärents Bus vorgestellt, der zumindest CPU und iGPU umfasst. Es wäre wirklich sehr sehr sehr sehr wünschenswert, wenn nVidia auch CCIX nutzen würde und nicht NVLink zum verdongeln ihrer Produkte und Software. NVidia bremst damit echt die Entwicklung...

NV koennte womoeglich CCIX fuer Tegras benutzen wenn noetig obwohl wohl auch dort wieder der IWNIH Komplex einschlagen koennte. Bis vor kurzem liessen ARM's interconnect IP Loesungen ziemlich zu wuenschen uebrig; nur ab A72 wurde es wesentlich besser aber sie brauchten womoeglich auch etwas fuer low power datacenters. Wieso ueberrascht IBM hier ueberhaupt? Sie werden wohl auch Interessen an low power datacenters haben oder?

scully1234
2016-05-27, 10:09:33
Aida Eintraege

1B00 Graphics Device (GP102-A)
1B01 Graphics Device (GP102-A)
1B30 Graphics Device (GP102GL-A)
1B38 Graphics Device (GP102GL-A)
1B3E Graphics Device (GP102GL-A)
1B40 Graphics Device (GP102-B)
1B41 Graphics Device (GP102-B)
1B6E Graphics Device (GP102-B)
1B6F Graphics Device (GP102-B)
1B70 Graphics Device (GP102GL-B)
1B78 Graphics Device (GP102GL-B)


http://news.mydrivers.com/1/484/484149.htm

Sunrise
2016-05-27, 10:18:00
...Im Endeffekt hat sich mit HBM recht wenige getan, eine neue Ausbaustuffe des Speichers um die nötige Bandbreite zu erzeugen die solche grossen GPUs sicherlich benötigen, nicht mehr und nicht weniger. Auf dem Wattmeter steht immer noch ca. der selbe Wert, klar mit mehr Leistung.
So siehts aus, und genau deshalb lohnt sich HBM aktuell (Herstellungskosten der gesamten Karte) auch erst, wenn die Bandbreite überhaupt ausgeschöpft werden kann. Der Preis den man dafür zahlt ist eben dennoch immer ein maximal ausgefahrenes Produkt bei 250W oder mehr, was den Vorteil aber nicht wegfrisst, es sieht nur so aus, weil es anders garnicht erst existiert.

Drunter sind GPUs mit GDDR5/5X wesentlich billiger in der Herstellung, ansonsten würde man diesen Weg ja nicht gehen, denn HBM hätte untenrum mit deutlich weniger Modulen/Stacks auch praktisch nur Vorteile.

Ailuros
2016-05-27, 10:27:22
Ist zwar verdammt OT aber es wuerde mich sehr ueberraschen wenn Apple bei der naechsten oder uebernaechsten tablet SoC Generation kein HBM benutzen wuerde. Fuer ihre uebliche "lieber breit und niedrig getaktet"-Philosophie ist HBM ideal; wobei aber auch Herstellungskosten bei deren grossen tablet Margen auch uebersehen werden koennen.

Sunrise
2016-05-27, 10:30:58
Richtiges 3D-Stacking von HBM wäre mal was, das sollte bei den A-SoCs aufgrund der geringen Wärmeentwicklung auch machbar sein. Vor allem spart es Apple Platz auf dem PCB, bzw. man kann es kleiner machen.

iuno
2016-05-27, 10:34:08
wobei aber auch Herstellungskosten bei deren grossen tablet Margen auch uebersehen werden koennen.

Und bei Nvidias Margen ist das nicht der Fall?
Mich wuerde wirklich gerne mal die Zahlen interessieren, was HBM ggue. G5X mehr kostet. Alles miteinbezogen: Herstellungskosten/Chipflaeche Interposer, Entwicklung, Speicherkosten, PCB.
Wenn NV wegen ein paar Dollar auf HBM verzichtet, waere das schon traurig

Bei Apple wuerde wohl eher WideIO als HBM passen, vom Ansatz her ja aehnlich aber in einer anderen Dimension.

fondness
2016-05-27, 10:35:27
Im Endeffekt hat sich mit HBM recht wenige getan, eine neue Ausbaustuffe des Speichers um die nötige Bandbreite zu erzeugen die solche grossen GPUs sicherlich benötigen, nicht mehr und nicht weniger. Auf dem Wattmeter steht immer noch ca. der selbe Wert, klar mit mehr Leistung.

Seltsame Ansicht. HBM liefert entweder (deutlich) mehr Bandbreite beim selben Verbrauch oder (deutlich) weniger Verbrauch bei derselben Bandbreite. Ist also deutlich effizienter. Und das würde sich natürlich auch bei kleinen GPUs lohnen, nur sind dort die Kosten noch zu hoch.

Die Bandbreite selbst ist dabei im übrigen nicht wirklich das Problem. Mit 512bit GDDR5X könnte man heute schon mit den Speicher der GTX1080 problemlos 640GB/s erreichen, zukünftig bei bereits angekündigten 14Gb/s GDDR5X wären auch ~900 Gb/s kein Problem.

Skysnake
2016-05-27, 10:53:41
NV koennte womoeglich CCIX fuer Tegras benutzen wenn noetig obwohl wohl auch dort wieder der IWNIH Komplex einschlagen koennte. Bis vor kurzem liessen ARM's interconnect IP Loesungen ziemlich zu wuenschen uebrig; nur ab A72 wurde es wesentlich besser aber sie brauchten womoeglich auch etwas fuer low power datacenters. Wieso ueberrascht IBM hier ueberhaupt? Sie werden wohl auch Interessen an low power datacenters haben oder?
Natürlich, aber CAPI gibt es schon lange bei IBM, und auch das Ökosystem drum herum. Für IBM gibt es daher an sich keinen Druck sich da gemein mit den anderen zu machen. Klar Mellanox und Xilinx wird das voll rein laufen, aber für nVidia muss eh wieder eine Extrawurst gemacht werden, und man muss das Zeug eben auch erst mal entwickeln, und um das wirklich so effizient nutzen zu können wie CAPI muss du halt den gesamten Uncore Bereich und wahrscheinlich auch große Teile des Core Bereichs umkrempeln. Das ist jetzt nicht wirklich erstrebenswert, wenn man eine gut funktionierende Lösung hat. Man muss ja auch bedenken, dass das eventuell auch Auswirkung auf SystemZ hat. Ich gehe nämlich eher nicht davon aus, das man CAPI und CCIX parallel laufen lässt. Es sei denn CCIX ist quasi CAPI, was durchaus im Bereich des Möglichen ist, wenn ich es auch nicht glaube.

Ist zwar verdammt OT aber es wuerde mich sehr ueberraschen wenn Apple bei der naechsten oder uebernaechsten tablet SoC Generation kein HBM benutzen wuerde. Fuer ihre uebliche "lieber breit und niedrig getaktet"-Philosophie ist HBM ideal; wobei aber auch Herstellungskosten bei deren grossen tablet Margen auch uebersehen werden koennen.
Mich schon. Ich würde da eher WideIO2 mal erwarten.

w0mbat
2016-05-27, 11:36:56
So, wir haben den 27., wo sind die verfügbaren Karten?

iuno
2016-05-27, 11:48:19
Darueber wird im 1080 (P)Review Thread diskutiert, Startschuss ist wohl 15 Uhr.

reaperrr
2016-05-27, 11:48:36
So, wir haben den 27., wo sind die verfügbaren Karten?
Wenn die Nachfrage bei den Vorbestellungen das [mickrige] Angebot übersteigt, gibt's auch keine verfügbaren Karten.
Ich persönlich habe nichts anderes erwartet.

SimonX
2016-05-27, 11:53:29
Wann kann man eigentlich mit einer Consumer Karte mit HBM2 rechnen? GP102 scheint ja auch nur mit GDDR5X daher zu kommen?

Gipsel
2016-05-27, 11:59:52
Wann kann man eigentlich mit einer Consumer Karte mit HBM2 rechnen? GP102 scheint ja auch nur mit GDDR5X daher zu kommen?Zum Jahreswechsel. Aber das paßt dann eher in den Vega-Thread. ;)

Hübie
2016-05-27, 12:26:10
Aida Eintraege

http://news.mydrivers.com/1/484/484149.htm

Ui. Und gleich so viele :eek:

R.I.P.
2016-05-27, 12:27:16
Angeblich von Nvidia empfohlener Preis für die 1070 Founders Edition 499 Euro :freak:

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-1070/news-artikel/nvidia_geforce_gtx_1070,986,3273166.html

scully1234
2016-05-27, 12:43:42
Ui. Und gleich so viele :eek:

Werden wohl die Quadro Modelle darunter sein

Hat jemand ne Ahnung was das ''GL'' bedeutet ? ''Geforce Label'' ???

dildo4u
2016-05-27, 12:47:27
Angeblich von Nvidia empfohlener Preis für die 1070 Founders Edition 499 Euro :freak:

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-1070/news-artikel/nvidia_geforce_gtx_1070,986,3273166.html
Und die Karte ist schneller als Fury X hat mehr Vram und ist 100€ billiger.

Hübie
2016-05-27, 12:51:27
Werden wohl die Quadro Modelle darunter sein

Hat jemand ne Ahnung was das ''GL'' bedeutet ? ''Geforce Label'' ???

GeiL. :biggrin: SCNR

Und RIP besser nicht füttern. Er kauft eh keine GeForce, aber stänkert gern. :P

Loeschzwerg
2016-05-27, 12:56:31
Ich vermute GL entlehnt sich aus OpenGL.

Hübie
2016-05-27, 13:03:12
Sprich: Quadro. Das wäre jetzt auch so meine Vermutung. Wissen wird's hier wohl keiner.

ilibilly
2016-05-27, 13:11:31
499€ sind doch ok,dann kosten die customs 399€ ,bei der leistung wohl angemessen,ok 50€ mehr als damals bei 970 aber dafür doppelt ram und keine 7,5gb :)

Unicous
2016-05-27, 13:13:42
GL wird schon seit Ewigkeiten sowohl von AMD als auch Nvidia als Kürzel für die professionellen Karten genutzt siehe auch FireGL. (oder auch Cayman Pro GL, G72GL):wink:

Wobei das ja auch paradox seitens Nvidia ist, wenn sie eh (fast) nur CUDA nutzen.:freak:


Das mit den 499 Euro finde ich bemerkenswert. Denn damit üben sie Druck nicht nur auf ihr altes Protfiolio aus, sondern auch direkt auf AMD, obwohl sie das gar nicht nötig haben.

Hübie
2016-05-27, 13:54:27
Ne bei CAD wie Autodesk Inventor ist's OGL. Ich hoffe ja dass Autodesk ebenfalls auf Vulkan umstellt. Aber das ist ein anderes Thema. ;)

Nakai
2016-05-27, 14:00:20
An die Leute die nicht an GP102 glauben. AMD hat mit Fiji auch einen HBM-Testballon gefahren. Warum sollte es NV anders machen? Ebenso versucht NV seit längerer Zeit ihre Hardware als die Deep Learning-Hardware zu vermarkten. GP100 ist dafür erstmal ausgelegt.

Hübie
2016-05-27, 14:06:02
Na ja. Ich hatte es wirtschaftlich betrachtet und NVIDIA war nie ein Unternehmen mit hoher Risikobereitschaft. Daher war es unwahrscheinlich, aber ich habe mich offensichtlich geirrt. Das ist an sich gut, denn ich liiiiebe Überraschungen.:smile: Aber noch mal wollte ich nicht aufrüsten. Das nächste Mal erst, wenn ein neuer Monitor da ist.

Mancko
2016-05-27, 15:34:09
So, wir haben den 27., wo sind die verfügbaren Karten?

Hier kannst welche kaufen. 15 Uhr war Startschuss:

https://www.caseking.de/search?sSearch=GTX+1080

Zettabit
2016-05-27, 18:26:43
Hier kannst welche kaufen. 15 Uhr war Startschuss:

https://www.caseking.de/search?sSearch=GTX+1080
Und es gibt massig Karten zu kaufen.

scully1234
2016-05-28, 13:15:36
Nix los hier

Hübie
2016-05-28, 13:17:48
Oh ha. Wenn kein Fake, dann könnte so ein Release schneller kommen als gedacht. :eek:

scully1234
2016-05-28, 13:23:05
Das waere schon was feines fuer Daddy wenns stimmt:smile:

BlacKi
2016-05-28, 13:33:11
und würde gddr5x bestätigen.

scully1234
2016-05-28, 13:40:36
Vor allem hat Zotac die ''Panne'' auszubügeln versucht, dabei aber leider nicht die Taktraten hochgeschoben:biggrin:


http://cdn.videocardz.com/1/2016/05/ZOTAC-GeForce-GTX-1080-1.jpg

Knuddelbearli
2016-05-28, 13:51:27
also TI salvage und Titan Y.

999$ ti und 1499$ titan?

irgendwohin müssen ja die salvage

Pumpi74
2016-05-28, 14:26:21
1070 - 379€, 1080 - 599€, 1080Ti - 849€, 1090 - 1099€.

Titan mit 24GB Vram fällt aus wegen maximaler Absurdität.

(my2cents)

Knuddelbearli
2016-05-28, 14:57:34
an eine 1090 glaube ich nicht erst recht ohne eine dazu passende TI. da halte ich eine 24GB Titan weit wahrscheinlicher. Oder NV nutzt den Vorteil das man GDDR5XC ungleich bestücken kann. 10GB TI 16GB Titan.

und am unwahrscheinlichsten ( jaja ich weiss ) wäre eine so baldige Preissenkung der 1070 und 1080

Pumpi74
2016-05-28, 15:12:24
an eine 1090 glaube ich nicht erst recht ohne eine dazu passende TI.

Die 1090 steht in meiner Vermutung für den Vollausbau des GP102, die 1080ti ist der abgespeckte Part. Die 90er Endung braucht nVidia vorerst nicht mehr für Dualcards. Sie sagen ja selbst das PCI-E 3.0 limitiert. Wenn schon 2xGP104 die neue SLI Spezialbrücke braucht, dann braucht 2xGP102 sicherlich die Brücke und 2x16 PCI-E 3.0 Lanes. Somit wäre 1090 frei.

scully1234
2016-05-28, 15:30:30
Titan mit 24GB Vram fällt aus wegen maximaler Absurdität.

(my2cents)

Nicht jeder hat das Geld fuer ein Quadro Plex System samt Support....

Die Titan Reihe war auch dazu gedacht ,diese Mittelschicht einzufangen, die damit produktiv ist.

Von daher wuerde ich 24GB Vram, zur Postproduktion von hochauflösenden Videomaterials, jetzt nicht zwangsweise als absurd ablegen

Das Klientel ,wuerde sicher auch noch mehr Vram nehmen als 24GB,wenn er denn verbaut wuerde ,koennte ich mir vorstellen

AnarchX
2016-05-29, 09:50:02
Hier hat man wohl den technischen Hintergrund der Deep Learning Ops aufgeklärt:
https://devtalk.nvidia.com/default/topic/934562/cuda-programming-and-performance/nvidia-pascal-geforce-gtx-1080-amp-gtx-1070/post/4889704/#4889704

Ist offenbar doch unabhängig von FP16x2 in CC6.0 und wohl möglich nicht in GP100 vorhanden.


Daneben gibt es wohl noch Gerüchte, dass man die FP16-Leistung auf den nicht GP100-Karten bzw. vielleicht nur GeForce stark limitiert hat:
https://forum.beyond3d.com/threads/nvidia-pascal-announcement.57763/page-58#post-1917598 :ugly:

Leonidas
2016-05-29, 10:02:59
Neuste aus den Glaskugel.
http://www.bitsandchips.it/9-hardware/7037-rumor-gtx-titan-next-con-chip-gp102-e-gddr5x
http://www.3dnews.ru/933451
1399$ !!! DE 1500E ?
Titan 6GB, Titan X 12Gb, Titan Next 24Gb ? Wieso nicht.


Die verwursten doch alle nur die Chiphell-Tabelle. Und jene ist glasklare Annahme. Keine echte Info, sondern geraten. Darf man machen, sollte man aber dazuschreiben.




Man kann jetzt natürlich das Lineal rausholen, aber Faktor 3 kommt schon recht gut hin. Dass GDDR5X das aufholt bezweifel ich, denn GDDR5 war gegenüber GDDR3 auch nur schneller, aber kaum effizienter.



GDDR5 hatte aber auch mehr Takt als DDR3. GDDR5X kommt mit derzeit niedrigeren Taktraten daher. Theoretisch sogar Stromersparnis.

Trotzdem ist der Gedanke mit HBM2 nicht falsch. Je größer der Chip, umso mehr Chipfläche und Stromverbrauch gehen für GDDR5X drauf. Mit HBM2 kann man hier gegensteuern.

Rampage 2
2016-05-29, 12:53:02
1070 - 379€, 1080 - 599€, 1080Ti - 849€, 1090 - 1099€.

Titan mit 24GB Vram fällt aus wegen maximaler Absurdität.

(my2cents)

1070: 300$ (später irgendwann)
1080: 500$ (später irgendwann)
1080Ti: 650-700$ *
Titan III: 999$

*(IMO wird die Preissenkung für 1070/1080 relativ zeitgleich mit der Markteinführung der 1080 Ti geschehen...)

Die Frage, die mir weiterhin im Kopf schwebt, ist, ob es einen Aufguss der 1080 geben wird, falls GP102 schnelleren Speicher (12-14 Gbps GDDR5X oder HBM mit 512GB/sek.) spendiert bekommt...

R2

Sunrise
2016-05-29, 13:00:46
...Die Frage, die mir weiterhin im Kopf schwebt, ist, ob es einen Aufguss der 1080 geben wird, falls GP102 schnelleren Speicher (12-14 Gbps GDDR5X oder HBM mit 512GB/sek.) spendiert bekommt...
Das hat sich NV geschickt offen gehalten, aufgrund des Übertaktungsspielraums. Ich denke aber nicht, denn man wird weder die 1080 in den Specs aktualisieren, noch eine 1090 nachschieben, und die 1080 Ti und drüber ist wohl für GP102 reserviert. Möglich ist alles in den Namenswirrwarr, aber da glaube ich nicht dran.

Noch ein Grund: Es würde den Abstand zu GP102 weiter verringern, das will NV nicht. Die wollen, dass du dann tiefer in die Tasche greifst.

AnarchX
2016-05-29, 15:45:43
Vor allem hat Zotac die ''Panne'' auszubügeln versucht, dabei aber leider nicht die Taktraten hochgeschoben:biggrin:


http://cdn.videocardz.com/1/2016/05/ZOTAC-GeForce-GTX-1080-1.jpg

Vielleicht 2.6GHz. Bei der 1080 wurden anfangs wohl nur 899MHz (halber Takt) ausgelesen: http://m.3dcenter.org/news/hardware-und-nachrichten-links-des-2829-mai-2016

scully1234
2016-05-29, 16:46:27
Kann es sein das der GP104 noch nicht die maximale Packdichte erreicht hat, und die 1080 eigentlich salvage Part ist ?


GP104-725-A1 / GP104-PS-DT (http://www.overclock.net/t/1601338/tt-geforce-gtx-1080-ti-teased-from-zotacs-firestorm-oc-software/20#post_25204157)


Ueber diesen Chip diskutiert man gerade bei Overclock.net

Oder ist die ominoese 1080Ti vielleicht ein Doppel Wopper, mit reduziertem Takt????

Dann waere die Namensgebung aber diesmal arg schraeg:confused:

hardtech
2016-05-29, 17:23:06
http://wccftech.com/nvidia-geforce-gtx-1070-titan-x-killer/

review gtx10170.
verbrauch wie gtx960. leistung knapp über titan x. mal sehen welche gtx1070 in meinen htpc wandert für gute 400€.
das pervide ist: wir finden die preise billig. so hat nv uns mittlerweile nach 5 jahren stillstand erzogen. respekt!

Blediator16
2016-05-29, 17:24:14
http://wccftech.com/nvidia-geforce-gtx-1070-titan-x-killer/

review gtx10170.
verbrauch wie gtx960. leistung knapp über titan x. mal sehen welche gtx1070 in meinen htpc wandert für gute 400€.
das pervide ist: wir finden die preise billig. so hat nv uns mittlerweile nach 5 jahren stillstand erzogen. respekt!

Ist doch toll. Der Kreislauf wird am Leben gehalten das Geld dreht seine Runden :)

StefanV
2016-05-29, 17:28:38
Und über die 7GiB, die bei der GTX 1070 ausgelesen wurden, kein Wort...

iuno
2016-05-29, 18:08:04
Kann es sein das der GP104 noch nicht die maximale Packdichte erreicht hat, und die 1080 eigentlich salvage Part ist ?
[...]
Oder ist die ominoese 1080Ti vielleicht ein Doppel Wopper, mit reduziertem Takt????

Dann waere die Namensgebung aber diesmal arg schraeg:confused:
Ueber eine Ti mit GP104 hatte ich auch schon spekuliert, an eine "Ti" mit 2 GPUs glaube ich nicht. Die werden das "Ti" Label schon nicht mit dGPU kaputtmachen.

Und über die 7GiB, die bei der GTX 1070 ausgelesen wurden, kein Wort...
Getrolle oder was war da?

dildo4u
2016-05-29, 18:25:17
Und über die 7GiB, die bei der GTX 1070 ausgelesen wurden, kein Wort...


Wird die GTX 1070 ein GTX-970-ähnliches Speicherinterface haben?

A: Nein, wir haben diesbezüglich sehr explizit bei Nvidias Entwicklern nachgehakt: Speichercontroller, ROPs, L2-Cache und verbesserte Delta-C-Kompression - für alle praktischen Belange wird die GTX 1070 über ein vollständiges, dem der GTX 1080 entsprechendes Speichersubsystem verfügen. Einziger Unterschied: GDDR5- anstelle von GDDR5X-RAM und eine entsprechend geringere Datentransferrate


http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Geforce-GTX-1080-GTX-1070-KFKA-1195567/

scully1234
2016-05-29, 21:55:19
Ueber eine Ti mit GP104 hatte ich auch schon spekuliert,


Mmmh hier gibt's angeblich noch mehr Codierungen fuer den 104er Core


GP104-200-A1 / GP104-PR-DT
GP104-200-A1 / GP104-PS-NB - ASUS' teaser?
GP104-200-A1 / GP104-PS-DT / GeForce GTX 1070
GP104-400-A1 / GP104-PR-DT
GP104-400-A1 / GP104-PS-DT / GeForce GTX 1080 / dev_id 1B80
GP104-725-A1 / GP104-PS-DT
GP104-950-KD-A1 / GP104-PR-DT
GP104-975-A1 / GP104-QS-9XX
GP104-985-A1 / GP104-QS-9XX

http://www.geeks3d.com/forums/index.php?topic=4547.0

AnarchX
2016-05-29, 23:02:57
Da ist keine neue Desktop GeForce dabei.
Bis 499 sind diese eingeordnet. 600-799 ist Mobile und darüber Tesla/Quadro.

iuno
2016-05-30, 19:28:02
Das neue ASUS Gaming Notebook hat offenbar zwei Pascals im SLI:
http://www.pcgameshardware.de/Notebook_Laptop-Hardware-201330/Specials/Asus-GX800-Geforce-GTX-1080-1196867/

Demnach duerften 1080M/1070M bald kommen, Vorstellung vielleicht noch auf der Computex?

Unicous
2016-05-30, 19:36:41
:confused:

http://pics.computerbase.de/7/2/6/0/9/3-1080.848777766.jpg

http://www.computerbase.de/2016-05/asus-rog-gx800/

AnarchX
2016-05-30, 19:49:36
Der untere Vergleich ist das GX800 vs ein anderes 980 SLI Notebook von der Konkurrenz.
Fragt sich nur, wer jetzt noch eine auf 1,4GHz übertaktete GTX 980 für zig Tausend Euro kauft, wenn Pascal hervor steht.


4Gamer hat die aktuellste Version des PX2 gesehen: http://www.4gamer.net/games/049/G004964/20160530012/
GP106 hat wohl nun eine Haube und wurde auf 128-Bit gestutzt, das PCB ist aber weiterhin 256-Bit.
Daneben gibt es das Parker Silizium zu sehen, mit immerhin ~162mm².

Unicous
2016-05-30, 20:11:36
PCGH spricht von Pascal, CB und die Screens von Asus sprechen von 980(SLI), darauf wollte ich hinaus.

dildo4u
2016-05-31, 10:42:43
Inno3D Confirms NVIDIA Pascal Based GeForce GTX 1060 / Ti Graphics Card – Performance Hinted Between GTX 970 and GTX 980 Levels, Sub 150W TDP

http://wccftech.com/nvidia-geforce-gtx-1060-confirmed/

Fliwatut
2016-05-31, 10:43:57
Jetzt wollen sie es aber wissen...

StefanV
2016-05-31, 10:48:31
Schaut wohl so aus, als ob nVidia hier wieder gewaltsam versucht, Marktanteile von AMDs Polaris Architektur zu ergattern...

Den Reaktionen von nVidia nach zu urteilen, muss Polaris wohl ganz gut sein, sonst würden sie ja wohl kaum so panisch reagieren.

Complicated
2016-05-31, 10:50:00
Na das kann ja eigentlich nur der noch fehlende GP104-150 Salvage sein. Kommt doch ungefähr hin mit weiteren 25% Beschnitt. 1080 100%, 1070 75%, 1060 Ti 50% der Shader.
Ich glaube die Verbrauchswerte dieser Lösungen werden nur schwer mit P10/P11 mithalten können. Sowieso scheint Nvidias Lineup fast nur aus Salvage zu bestehen. Alles was voll funktionsfähig ist, wird so teuer angeboten, dass kaum eine Nachfrage besteht und selbst diese kann kaum befriedigt werden. Bei Caseking ist derzeit nur die GTX 1080 FE-Edition von Inno3D lieferbar. Das selbe bei Mindfactory. Der Rest teilweise schon bis Mitte Juni nicht lieferbar nachdem gerade mal 5 Stück verkauft wurden. Also die immer wieder kolportierten hohen Margen erhält man nur wenn man auch etwas zu dem Preis verkauft bekommt. Hier scheint Nvidia eindeutig eine Grenze überschritten zu haben, und scheint damit gar nicht so unglücklich zu sein. Die Presse-Hoheit kompensiert das vielleicht eine Weile.

dildo4u
2016-05-31, 10:50:55
Die 16nm Yield's werden einfach noch nicht sonderlich gut sein so kann man auch die Schrott Chip's loswerden.

Timbaloo
2016-05-31, 10:55:34
Schaut wohl so aus, als ob nVidia hier wieder gewaltsam versucht, Marktanteile von AMDs Polaris Architektur zu ergattern...
YOU DON'T SAY?

iuno
2016-05-31, 10:59:49
Inno3D Confirms NVIDIA Pascal Based GeForce GTX 1060 / Ti Graphics Card – Performance Hinted Between GTX 970 and GTX 980 Levels, Sub 150W TDP

http://wccftech.com/nvidia-geforce-gtx-1060-confirmed/


Bitte Originalquelle verlinken :rolleyes:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39298-dreimal-inno3d-ichill-geforce-gtx-1080-vorgestellt.html

Lurtz
2016-05-31, 11:18:51
Eine GTX 1060 wird AMD natürlich massiv Marktanteile wegnehmen. Armes AMD, immer einen Schritt hinterher...

Nightspider
2016-05-31, 11:21:05
:facepalm:

Ehm....NV dominiert diesen Bereich schon seit langem da AMD nur alte Chips in diesem Segment anbieten konnte.
Mit Polaris hat AMD erstmals seit Jahren zwei brandneue GPUs in diesem Bereich.
Wenn jemand Marktanteile wegnehmen wird dann AMD denn für AMD gibts mehr zu holen als für Nvidia.

Hübie
2016-05-31, 11:24:55
Schaut wohl so aus, als ob nVidia hier wieder gewaltsam versucht, Marktanteile von AMDs Polaris Architektur zu ergattern...

Den Reaktionen von nVidia nach zu urteilen, muss Polaris wohl ganz gut sein, sonst würden sie ja wohl kaum so panisch reagieren.

Ja, das wird's sein. Jensen reagiert panisch. X-D

dildo4u
2016-05-31, 11:34:46
Die 1060 wird massiv dominieren,da sie die selben VR Verbesserungen wie die anderen Pascal Karten haben wird.Es wird die Einstieg's VR Karte überhaupt schon unheimlich wie gut die Execution bei Nvidia ist.Diese Punktlandung mit der Massenverfügbarkeit der VR Headsets,das Ganze muss ja schon vor Jahren geplant gewesen sein.

Ailuros
2016-05-31, 11:42:15
Zwischen teilweise zu roten und teilweise zu gruenen Dreck den es hier zunehmend in letzter Zeit zu lesen gibt, ist die Wahrheit wohl eher dass NV vielleicht ein paar Opfer machen muss fuer eine 1060 und AMD von der anderen Seite mit den kleinsten Vega salvage chips, ausser die binning yields fuer jeweils GP104 bzw. Vega sind so miserabel dass es doch eine Eulogie am Ende fuer beide IHVs ist.

Tatsache ist dass egal wie man gewisse Marktspalten bedient man nie wirklich immer und ueberall gewinnen kann und dieses gilt fuer beide IHVs. Sonst insgesamt wuerde ich mich als gruener fanboy mit der heutigen Situation zuruecklehnen und es nur locker ansehen und als roter fanboy mal zur Abwechslung versuchen meine eigene Panik erstmal zu kontrollieren bevor man nur Mist in den Raum schreibt.

Rabiata
2016-05-31, 12:08:02
http://wccftech.com/nvidia-geforce-gtx-1070-titan-x-killer/

review gtx10170.
verbrauch wie gtx960. leistung knapp über titan x. mal sehen welche gtx1070 in meinen htpc wandert für gute 400€.
das pervide ist: wir finden die preise billig. so hat nv uns mittlerweile nach 5 jahren stillstand erzogen. respekt!
Halb-OT, aber den Kommentar kann ich mir nicht verkneifen:
Gemessen an den Vorgängermodellen ist das Preis-Leistungs-Verhältnis klar besser. Die GTX 1070 ist leistungsmäßig mindestens mit der alten 980 Ti vergleichbar, aber deutlich preiswerter.

Für knackige Abzocke ist Intel (Broadwell E-Serie) zuständig, da hat sich P/L bei vergleichbaren Modellen nur minimal verbessert. Und der neue 10-Kerner kommt zum Rekordpreis von 1699$.

Botcruscher
2016-05-31, 12:11:58
Die 1060 wird massiv dominieren,da sie die selben VR Verbesserungen wie die anderen Pascal Karten haben wird.
;D
Der Sub 300€ Markt steckt also noch mal 500+ in eine der VR Lösungen mit mieser Softwareunterstützung und noch immer offener Zukunft.
Die Bereiche mit den großen Spielerzahlen sind schlicht VR inkompatibel. Kotzsimulationen erster Güte.

Halb-OT, aber den Kommentar kann ich mir nicht verkneifen:
Gemessen an den Vorgängermodellen ist das Preis-Leistungs-Verhältnis klar besser. Die GTX 1070 ist leistungsmäßig mindestens mit der alten 980 Ti vergleichbar, aber deutlich preiswerter.
Für das Gesamtpaket noch immer total überteuert.
Für knackige Abzocke ist Intel (Broadwell E-Serie) zuständig, da hat sich P/L bei vergleichbaren Modellen nur minimal verbessert. Und der neue 10-Kerner kommt zum Rekordpreis von 1699$.
Kein Wettbewerb. Mit Zen könnten 8 Kerne ganz schnell Standard werden. Mit ordentlich Druck könnten lächerliche 300mm² auch ins sub 250€ Segment passen.

bloub
2016-05-31, 12:29:13
Schaut wohl so aus, als ob nVidia hier wieder gewaltsam versucht, Marktanteile von AMDs Polaris Architektur zu ergattern...

wie soll das eigentlich funktionieren bei einen polaris marktanteil von ganz genau 0%?

Mancko
2016-05-31, 12:54:58
;D
Der Sub 300€ Markt steckt also noch mal 500+ in eine der VR Lösungen mit mieser Softwareunterstützung und noch immer offener Zukunft.
Die Bereiche mit den großen Spielerzahlen sind schlicht VR inkompatibel. Kotzsimulationen erster Güte.

Naja gerade AMD wird ja nicht müde bei Polaris VR zu betonen. Also entweder ist VR jetzt in diesem Marktsegment relevant oder halt nicht relevant. Wohl kaum ist es für den einen relevant und für den anderen nicht :)

Ich muss ja ehrlich sagen ich halte VR in diesem Preissegment für quatsch. Keiner kauft sich eine GTX 1060 oder Polaris um jetzt VR samt Brillen einzusetzen. Das dürfte doch bei dem Preis der VR Hardware eher in den Bereich Performance, High End und Enthusiast fallen. Da wird es allerdings interessant wenn Nvidia mittels Moneten und dem entsprechenden SDK anfängt die Pascal Features reinzudrücken. Das könnte in dem Segment im VR Anwendungsfall für deutliche Unterschiede sorgen. Wäre zumindest, natürlich nur unter der Annahme dass AMD nicht das gleiche auch bietet, ein ordentliches Differenzierungsmerkmal.

Botcruscher
2016-05-31, 13:29:57
VR ist ein Hype den das Marketing gerne mitnimmt. Das ganze erinnert im Moment extrem an 3D im Fernsehbereich. Mal sehen was in 2 Jahren noch übrig ist. Viele der Anwendungen erinnern ja in Moment an die Playmobilecke beim Arzt.
Mal eben einen Shooter anwerfen ist nicht. Der Versuch alleine endet über einem Eimer.


Die Frage ist eher wie weit GP104 noch kastriert werden kann. Ein "Ersatz" der 970 geht auch nur zu deren Preisen. 16nm läuft also entweder bescheiden oder NV verdient sich mal wieder blöde.

y33H@
2016-05-31, 13:50:22
GTX 1060 im Juni bzw Customs etwas später erwarten mehrere AIBs einstimmig. idR werden die PCBs der GTX 1070 verwendet, was für 256 statt 192 Bit spricht.
PCGH spricht von Pascal, CB und die Screens von Asus sprechen von 980(SLI), darauf wollte ich hinaus.Derzeit (in den laufenden Prototypen) 2x GTX 980 mit Option auf Pascal.

iuno
2016-05-31, 13:51:41
GTX 1060 = GP104-150 oder GP106 :confused:

Ailuros
2016-05-31, 14:17:52
GTX 1060 = GP104-150 oder GP106 :confused:

Mein Bauchgefuehl sagt mir dass sie GP104-150 fuer eine kurze Zeit als Bruecke benutzen werden bis GP106 ankommt. Ausser ich hab etwas verpasst und es gab gleichzeitige Zauba shipments fuer beide chips; afaik erschien 106 um einige Wochen spaeter.


Die Frage ist eher wie weit GP104 noch kastriert werden kann. Ein "Ersatz" der 970 geht auch nur zu deren Preisen. 16nm läuft also entweder bescheiden oder NV verdient sich mal wieder blöde.

Es wuerde mich sehr ueberraschen wenn 16FF+ schon auf "Trab" sein sollte fuer so grosse chips. Dass aber ihre binning yields so beschissen sind dass sie mit so vielen GP104 fast halb kastrierten chips ankommen will ich ernsthaft bezweifeln. Da wohl GP106 unmittelbar hinter GP104 in die Massenproduktion geht, werden sie eben fuer 1 oder 2 Monate das Ganze ueberleben muessen. Wenn ich mich jetzt nicht irre ist GP106 einen Schuss ueber 200mm2@16FF+ welches schon ein ziemlicher Unterschied zu GP104 ist.

BlacKi
2016-05-31, 14:29:01
achtung speku

gtx 1060 ti

gp104 -150

1536 shader

192bit SI

6gb VRAM

tdp 120w

3dc index 600%

AffenJack
2016-05-31, 15:39:07
idR werden die PCBs der GTX 1070 verwendet, was für 256 statt 192 Bit spricht.

Das überrascht mich doch etwas, hätte einfach gleiche Shaderanzahl mit 192Bit gerechnet für ne GTX1060Ti. Kann man nicht einfach Bestückung weglassen?

Mit 192 Bit wäre die Reduktion dann genauso wie bei der 660Ti damals zu 670. Ich weiß nicht wie das damals mit den PCBs war.
Wenn es wirklich eine 1060 mit noch mehr Shaderbeschneidung wird, dann frage ich mich wie Ailuros ob das nicht nur ne Übergangskarte wird, weil man P10 nicht den Markt überlassen will.

iuno
2016-05-31, 15:41:44
Natuerlich ginge das, dann bestueckt man einfach nur 192 Bit -> 6 Chips, 6 GiB.
Vielleicht wollen sie aber wegen Polaris 10 auch 8 GiB haben oder es kommt ihnen einfach nur gelegener, den Takt wieder deutlich von den 8 Gbps runternehmen zu koennen.

Mancko
2016-05-31, 16:15:10
Schaut wohl so aus, als ob nVidia hier wieder gewaltsam versucht, Marktanteile von AMDs Polaris Architektur zu ergattern...

Den Reaktionen von nVidia nach zu urteilen, muss Polaris wohl ganz gut sein, sonst würden sie ja wohl kaum so panisch reagieren.

Oh ja das ist total panisch...

Gewöhn Dich einfach daran, dass Nvidia auf Grund seiner deutlich größeren Marktmacht, deutlich größeren Finanzen, dem besseren Image eben genauso agieren wird und auch kann. Die werden immer noch genügend Geld verdienen und 2 bis 3 Monate mit einer netten Flut an GP104 Salvage Prozessoren + Marktflutung mit billigen Maxwells reicht dicke aus um Roy Taylors Träumereien von "way ahead of competition" zu zerstören. Danach gibt es dann den netten GP106. Sprich unten geht man preislich soweit mit wie man muss und oben schöpft man die Sahne ab. So wie sich das für mich darstellt wird AMD einfach nicht genug Zeit haben hier eine ordentliche Wende herbeizuführen, zumal sie einfach wegen der Abstinenz im High End Segment auch auf die entsprechend positive Presse verzichten müssen. Da wird der allgemeine Herdentrieb vermutlich auch weiter eher zu Gunsten von Nvidia ausfallen. Wer die Single GPU Krone holt der hat es auch unten einfacher. Das ist kein neues Gesetzt.

scully1234
2016-05-31, 16:35:40
GTX 1060 im Juni bzw Customs etwas später erwarten mehrere AIBs einstimmig. idR werden die PCBs der GTX 1070 verwendet, was für 256 statt 192 Bit spricht.
Derzeit (in den laufenden Prototypen) 2x GTX 980 mit Option auf Pascal.


Und von der Notebooksparte hoert man derweil noch nix klingeln bezueglich GP106?

GTX 1060 = GP104-150 oder GP106


Das wuerde dann auch das PCB Raetzel in ein anderes Licht ruecken

Ja, das wird's sein. Jensen reagiert panisch. X-D

Panik ist erst angesagt wenns einen Engpass an Lederjacken gibt in Kalifornien=)

y33H@
2016-05-31, 17:12:07
Und von der Notebooksparte hoert man derweil noch nix klingeln bezueglich GP106?So September/Oktober, hab mich aber zugegeben zuletzt wenig informiert in diese Richtung.

Knuddelbearli
2016-05-31, 18:34:08
Halb-OT, aber den Kommentar kann ich mir nicht verkneifen:
Gemessen an den Vorgängermodellen ist das Preis-Leistungs-Verhältnis klar besser. Die GTX 1070 ist leistungsmäßig mindestens mit der alten 980 Ti vergleichbar, aber deutlich preiswerter.

Für knackige Abzocke ist Intel (Broadwell E-Serie) zuständig, da hat sich P/L bei vergleichbaren Modellen nur minimal verbessert. Und der neue 10-Kerner kommt zum Rekordpreis von 1699$.

Wenn man deine Logik benutzt ( schnellere Karten immer teurer ) würde man heute für eine 1070 100.000€ zahlen ...

Aber hier haben wir nunmal einen Shrink

AnarchX
2016-05-31, 19:10:58
GTX 1060 = GP104-150 oder GP106 :confused:

Vieles spricht für GP106, es gibt ja auch schon Zauba-Listungen und NV hat den Chip schon selbst auf 256-Bit PCBs gezeigt.

Vielleicht darf ja GP106 die 2GHz deutlicher überschreiten und die 1,25V Barriere bei GP104 Schützt weniger den Chip als das noch viel höhere Taktpotential. Bei der GTX 960 gab es ja auch 225W Platinen, wenn da GP106 mit Powertarget entsprechend skaliert und mit vielleicht 256-Bit 7Gbps GDDR5 genügend Bandbreite hat, wäre das ein ziemlicher Killer für das $199-299 Segment.

basix
2016-05-31, 20:33:11
Ist eigentlich jemandem aufgefallen, dass es auf HWbot.org (http://HWbot.org) kaum Scores von GTX1080 gibt? Warten alle auf die Customs oder ist eh schon was grösseres im Anmarsch? Weil vom Intel 6950X sind nämlich massenhaft Scores aufgetaucht, alle mit 980 Ti :freak:

Rabiata
2016-05-31, 20:57:09
Ist eigentlich jemandem aufgefallen, dass es auf HWbot.org (http://HWbot.org) kaum Scores von GTX1080 gibt? Warten alle auf die Customs oder ist eh schon was grösseres im Anmarsch? Weil vom Intel 6950X sind nämlich massenhaft Scores aufgetaucht, alle mit 980 Ti :freak:
Vielleicht liegt es an der Lieferbarkeit?
Ich habe heute mittag mal in eine Preisvergleichsseite reingeschaut, und die GTX 1080 ist erst bei wenigen Händlern überhaupt als "lagernd" gelistet. Die meisten reden noch von "bestellt" oder "3 Wochen Lieferzeit".

TheGood
2016-05-31, 21:38:29
Die 1060 wird massiv dominieren,da sie die selben VR Verbesserungen wie die anderen Pascal Karten haben wird.Es wird die Einstieg's VR Karte überhaupt schon unheimlich wie gut die Execution bei Nvidia ist.Diese Punktlandung mit der Massenverfügbarkeit der VR Headsets,das Ganze muss ja schon vor Jahren geplant gewesen sein.

Da kannst du schon Recht haben, aber seien wir doch mal ehrlich, die wirklichen VR Schnittstelle wird von AMD CPUs beherrscht werden. Diese kommt nämlich mit Sonys Morpheus auf die Playstation 4. Das gleiche wenn die XBOX später mit Oculus Rift zusammenarbeitet (sofern das Gerücht stimmt). Daher werden die Spiele wohl eher auf AMDs TEchnik wie auf Nvidias Technik getrimmt sein.
Darüber kann man jetzt mal streiten, aber ich sehe das NVidia Feature, wie so viele andere auch, mal wieder ziemlich alleine im Wald dastehen. Nur diesesmal könnte es für NVidia auch mal schlecht ausgehen.
Vor allem da Sony Morpheus auf den Massenmarkt zielt und schon zig spiele angekündigt hat.

In zwei Jahren wissen wir mehr.

TheGood
2016-05-31, 21:43:57
Vielleicht liegt es an der Lieferbarkeit?
Ich habe heute mittag mal in eine Preisvergleichsseite reingeschaut, und die GTX 1080 ist erst bei wenigen Händlern überhaupt als "lagernd" gelistet. Die meisten reden noch von "bestellt" oder "3 Wochen Lieferzeit".
Das war letzte Woche Freitag auch nicht anders. Mal schauen ob es sich noch ändert. Die Early Adopter haben Ihre KArten auf jedenfall mal erhalten.

dildo4u
2016-05-31, 21:56:56
Da kannst du schon Recht haben, aber seien wir doch mal ehrlich, die wirklichen VR Schnittstelle wird von AMD CPUs beherrscht werden. Diese kommt nämlich mit Sonys Morpheus auf die Playstation 4. Das gleiche wenn die XBOX später mit Oculus Rift zusammenarbeitet (sofern das Gerücht stimmt). Daher werden die Spiele wohl eher auf AMDs TEchnik wie auf Nvidias Technik getrimmt sein.
Darüber kann man jetzt mal streiten, aber ich sehe das NVidia Feature, wie so viele andere auch, mal wieder ziemlich alleine im Wald dastehen. Nur diesesmal könnte es für NVidia auch mal schlecht ausgehen.
Vor allem da Sony Morpheus auf den Massenmarkt zielt und schon zig spiele angekündigt hat.

In zwei Jahren wissen wir mehr.
Die Konsolen haben jetzt schon lange AMD GPU's hindert NV nicht daran Gameworks in den PC Versionen unterzubringen.So lange sich NV dumm und dämlich verdient haben sie Geld um sich um den Entwickler Support zu kümmern.

Mancko
2016-05-31, 22:02:19
Die Konsolen haben jetzt schon lange AMD GPU's hindert NV nicht daran Gameworks in den PC Versionen unterzubringen.So lange sich NV dumm und dämlich verdient haben sie Geld um sich um Entwickler Support zu kümmern.

Die werden dafür sorgen, dass das in wichtige Spiele und Engines reinkommt und das macht auch Sinn. Geld ist da wohl eher kein Problem.

TheGood
2016-05-31, 23:04:52
Die Konsolen haben jetzt schon lange AMD GPU's hindert NV nicht daran Gameworks in den PC Versionen unterzubringen.So lange sich NV dumm und dämlich verdient haben sie Geld um sich um den Entwickler Support zu kümmern.
Aber erst seit zwei jahren sind sie auch wirklich PC nah. DAs ist wohl der entscheidende Unterschied. Auch ist der dazugehörige Unterbau im gleichen Zeitraum viel PC naher geworden. Die Zukunft bleibt auf jedenfall spannend.

Felixxz2
2016-06-01, 01:51:12
Letzte Endes wird das auch erst dann durchschlagen, wenn die Upgrade Versionen der Konsolen erscheinen. Neu hinzugekommene oder einzigartige Features von AMDs GPUs könnten dann den Unterschied machen, siehe DX12 und async. Es ist noch nicht aller Tage Abend, aber die Konsolen haben AMD sicher einen enormen Schub gegeben und könnten viell. Sogar zu einem Machtwechsel im GPU oder sogar CPU Bereich auslösen.

Hakim
2016-06-01, 14:47:04
Weiß man schon ungefähr wann die gp106 kommen könnte?

scully1234
2016-06-01, 14:57:01
Eine Seite vorher
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11051310&postcount=5909

Wobei noch nicht ganz 100% geklärt ist ob die GTX 1060 jetzt auch zwingend den GP106 Core bekommt

Hakim
2016-06-01, 15:05:37
Wenn die 1060 auf einer Gp104 basiert, wo 50% der Einheiten deaktiviert ist, ist das wirtschaftlich nicht sehr schlecht? Mal abwarten

Dural
2016-06-01, 15:08:27
Kann schon sein das die 1060 noch den GP104 drauf hat, je nach Ausschuss ist dies sogar Sinnvoller als ein voller GP106 zu nehmen, der man im Mobile bereich sicher deutlich besser und vorallem teurer verwenden kann.

In der Regel kommen solche Karte zwar immer am Ende einer Generation, und nicht am Anfang.

scully1234
2016-06-01, 15:23:36
Wenn die 1060 auf einer Gp104 basiert, wo 50% der Einheiten deaktiviert ist, ist das wirtschaftlich nicht sehr schlecht? Mal abwarten

Koennte aber auch als Zwischenloesung dienen solange die Produktionsstrassen mit GP100 und GP104 blockiert sind

Je nach dem wie viele GP104 abkömmlich sind fuer solche taktischen ''Spielereien''

Und spaeter im Herbst baut man dann um, auf den kleineren wirtschaftlicheren Core, und kann trotzdem derzeit alle Märkte bedienen vorerst

Reine Spekulation allerdings:wink:

Ailuros
2016-06-01, 19:51:47
Wenn die 1060 auf einer Gp104 basiert, wo 50% der Einheiten deaktiviert ist, ist das wirtschaftlich nicht sehr schlecht? Mal abwarten

Nicht wenn es zu einer temporaeren Loesung dient bis GP106 erscheint.

scully1234
2016-06-02, 10:08:53
Angeblich will man den GP104 auch in Notebooks verwursten

http://www.pcgamer.com/nvidia-geforce-gtx-1070-and-1080-coming-to-gaming-notebooks/

Mancko
2016-06-02, 10:18:30
Angeblich will man den GP104 auch in Notebooks verwursten

http://www.pcgamer.com/nvidia-geforce-gtx-1070-and-1080-coming-to-gaming-notebooks/

Warum auch nicht. Das Performance / Watt Verhältnis ist sehr gut, insbesondere von der 1070. Wenn man den Chip noch weiter zusammenstreicht, kann es sogar noch ein wenig besser werden - 1065 und so.

Mit Polaris wird AMD ja leider gar keinen Druck auf die 1070 und 1080 ausüben können. Mich stimmen die angegebenen 150W bei Polaris auch ein wenig nachdenklich. Ich befürchte fast, dass Nvidia mit GP106, vermutlich sogar mit einem beschnittenen GP104 das knacken wird und AMD muss aktuell schon wieder voll über den Preis gehen. Keine hohen Preispunkte mehr zum quersubventionieren. Das geht erst ab Vega und das dauert noch. Irgendwie werde ich das Gefühl nicht los, dass AMD gehofft hat dass es besser mit Polaris aussehen wird. Jetzt könnte man sich fragen woran das liegt. Falsche Design Entscheidungen? Ich denke eher nicht. Irgendwie habe ich das Gefühl, dass GFs 14nm Prozess nicht ganz auf die Werte von TSMCs 16FF bzw. 16FF+ kommt.

maximus_hertus
2016-06-02, 12:01:55
Mit Polaris wird AMD ja leider gar keinen Druck auf die 1070 und 1080 ausüben können.

Surprise, Surprise. Gehen wir mal zurück ins Jahr 2010 => die GTX 460 kann ja leider gar keinen Druck auf die HD 5850 und 5870 ausüben (klar, die Fermi Heizer gab es ja auch, aber wirklich populär waren sie ja nicht). Am Ende war die 460 ein sehr rundes, schönes und günstiges Paket und hat den (Gaming) Markt dominiert.

Mich stimmen die angegebenen 150W bei Polaris auch ein wenig nachdenklich. Ich befürchte fast, dass Nvidia mit GP106, vermutlich sogar mit einem beschnittenen GP104 das knacken wird und AMD muss aktuell schon wieder voll über den Preis gehen.


Nun ja, GTX 980 => 165W, ein HALBER Chip aka GM106 => 120W. Man sieht, so viel wird nV auch nicht runter kommen (vermutlich). Mich würde es nicht wundern, wenn der GP106 Top-Dog bei rund 130W liegt und ggf. nur minimalst unterhalb von Polaris 10 herauskommt (sowohl Watt als auch fps).

GTX 970 => 90% fps, 145W, 280 Euro
GP106 Top-Karte => 100% fps, 130W, spekuliere mit 250 Euro
RX 480 => 105-110% fps, 140-150W, 220 Euro (4 GiB)
RX 480 => 110% fps, 150W, 250 Euro (8 GiB)
GTX 980 => 115-120% fps, 165W, 450 Euro
GTX 1070 => 140-150% fps, 150W, 430-500 Euro

Sieht ja nicht so schlecht für Polaris aus?

Complicated
2016-06-02, 12:20:05
Da AMD genau die Performance abliefert wie angekündigt, zu dem Preispunkt wie angekündigt (und keiner glauben wollte) wüsste ich nicht woher der Eindruck kommt, dass AMD hier irgendwie Enttäuscht wäre oder mehr von Polaris wollte. Also alles im Plan, daher muss man auch nicht Ursachenforschung betreiben nach irgendwelchen Problemen die nicht existieren.

AMD braucht wohl keinen hohen Preispunkt für das Quersubventionieren. Daraus könnte man ableiten: Bessere Yield in 14nm als für Nvidia in 16nm, was auch logisch ist bei 100mm² kleinerem Chip (P10 vs GP104). Ich habe es schon mal vorgerechnet: Wenn AMD 3 P10 Dies verkauft haben sie ca. so viel Diefläche herstellen müssen wie Nvidia mit 2 GP104 Dies. Bessere Yields durch kleinere Chips bringen nochmal mehr Spielraum.
3 x RX480 8GB (249$/299€) = ca. 750$ (900,- €) Umsatz
2xGTX 1070 (379$/450€) = ca. 750$ (900,- €) Umsatz

Es wird praktisch genauso viel Umsatz pro Diefläche erzielt wenn man die beiden vergleicht. Nur sind das mehr Marktanteile aufgrund der 3x mehr Käufer die GPUs unterhalb von 300,- € als Markt zur Verfügung haben.

Nvidias Quersubventionierung mit der GTX 1080 läuft bei der derzeitigen Verfügbarkeit ins Leere, das heist hier ist noch gar nicht klar ob der Schritt mit dem vorgezogenen Launch sich auch rechnen wird. Es wird darauf ankommen wie schnell Stückzahlen machbar sind und dann auch die Preise in die 600,- € Region kommen für die GTX 1080. Vorher wird hier kein Nennenswertes Volumen über den Tisch gehen, da jeder mit Vega rechnet das einfach 3x mal größer dann 3 mal mehr kosten soll=600,- €. 3x RX480 landet auch bei der GTX 1080 mit der Performance.

AMDs Salvage Chip hingegen ist die Cachcow für AMD - entweder ist es schon die RX480, dann kommen nochmal 50,- € für den Großen als Marge dazu oder der Kleinere liegt dann bei 20-30$ niedriger (Die Preisabstände der Salvage Varianten sind in diesem Segment deutlich kleiner als wo Nvidia seinen GP104 platziert hat). Nvidia fehlt der GP106 für dieses Segment. Der GP104-150 könnte da noch etwas abfangen, doch keiner wird erwarten, dass Nvidia hier günstiger zu kaufen sein wird.

Fazit: Bei RX480 wird keiner warten auf den Konkurrenten bei dem Preispunkt. Bei der GTX1070/1080 werden viele darauf warten was die Konkurrenz kann. Bis Jahresende wird AMD mindestens doppelt so viele Dies verkauft haben als Nvidia, zumal auch alle OEMs direkt zum Ende des Monats fertige Komplettsysteme anbieten werden mit Polaris - da ist die RX480 der perfekte Sweetspot-> Gaming, VR, FullHD, 800,- bis 1000,-€ für das Komplettsystem mit schnellem Quadcore.

Siehe Bestseller bei HP:
http://store.hp.com/GermanyStore/Merch/List.aspx?sel=DTP&ctrl=f&fc_form_tower=1&fc_form_mtower=1&fc_form_minitower=1
900,- € für einen Gaming-PC mit GTX 745 (+i7 6700) oder GTX 960 (+i7 6400). Der mit einer GTX 970 liegt gleich 500,- € höher. Dazwischen ist ein AMD System mit R9 370 (+i7 6400) für 700,- € zu finden.

Also hier wird sich AMD verbessern mit den Margen, doch Nvidia wird seine nicht halten können, denke ich.

Mancko
2016-06-02, 12:23:46
Surprise, Surprise. Gehen wir mal zurück ins Jahr 2010 => die GTX 460 kann ja leider gar keinen Druck auf die HD 5850 und 5870 ausüben (klar, die Fermi Heizer gab es ja auch, aber wirklich populär waren sie ja nicht). Am Ende war die 460 ein sehr rundes, schönes und günstiges Paket und hat den (Gaming) Markt dominiert.


Aber auch nur weil Nvidia trotz Heizung oben im High End mitgespielt hat. Nur alleine irgendwo ein Produkt unten zu bringen ist bisserl wenig. Zumal es einfacher ist von oben nach unten mit Ausschuss Chips zu skalieren und zu Guter letzt ist es immer einfacher den Preis anzupassen als die EIgenschaften eines Produkts anzupassen. Daher stimmen mich die 150W auch nachdenklich.


GTX 970 => 90% fps, 145W, 280 Euro
GP106 Top-Karte => 100% fps, 130W, spekuliere mit 250 Euro
RX 480 => 105-110% fps, 140-150W, 220 Euro (4 GiB)
RX 480 => 110% fps, 150W, 250 Euro (8 GiB)
GTX 980 => 115-120% fps, 165W, 450 Euro
GTX 1070 => 140-150% fps, 150W, 430-500 Euro

Sieht ja nicht so schlecht für Polaris aus?

Hm weiß nicht. Da fehlt mir das außergewöhnliche oder Alleinstellungsmerkmal. Das ist dann eher so bisserl "me too". Vor allem die Preise der 970 und 980 würde ich nicht als Maßstab nehmen. Die kann Nvidia nach so langer Zeit des Verkaufs auch senken. Der 28nm Prozess dürfte für solche Produkte auch nicht mehr viel kosten weil dort die Nachfrage eher zurück geht und jeder lieber auf die neueren Prozesse will. Ich würde jetzt mal die ersten Reviews abwarten aber für mich sind die Eigenschaften eines Produktes immer erstmal ausschlaggebend. Preisschild ist dann eine nachgelagerte Betrachtung da man wie gesagt den Preis jeder Zeit anpassen kann die Eigenschaften aber nicht mehr ohne Weiteres. Und gerade wenn ein Produkt 1 Jahr oder länger im Verkauf sein wird ist das nicht unerheblich, denn man wird nach einigen Monaten kaum mehr verlangen können. Sprich der jetztige Preis ist dann der Startpunkt und danach geht die Richtung Stück für Stück über die Monate nach unten, egal ob nun Low End, Mid-Range, Performance, High End oder Enthusiast.

dargo
2016-06-02, 12:30:35
Hm weiß nicht. Da fehlt mir das außergewöhnliche oder Alleinstellungsmerkmal. Das ist dann eher so bisserl "me too". Vor allem die Preise der 970 und 980 würde ich nicht als Maßstab nehmen. Die kann Nvidia nach so langer Zeit des Verkaufs auch senken.
Jetzt mal ehrlich? Welcher Vollhonk interessiert sich noch für eine verkrüppelte GTX970 wenn es eine echte 4GB Karte in Form der RX470 bei vermutlich 130W TDP für ca. 149$ geben wird? Und da reden wir noch nicht mal über die Probleme bei Async Compute @Maxwell.

Mancko
2016-06-02, 13:00:23
Jetzt mal ehrlich? Welcher Vollhonk interessiert sich noch für eine verkrüppelte GTX970 wenn es eine echte 4GB Karte in Form der RX470 bei vermutlich 130W TDP für ca. 149$ geben wird? Und da reden wir noch nicht mal über die Probleme bei Async Compute @Maxwell.

Wen interessiert bitte Async Compute? 99% der Spiele nutzen das gar nicht. Und soweit ich weiß stehen auf der 970 4GB auf der Packung oder nicht? :)

dargo
2016-06-02, 13:05:24
Entschuldige... habe vergessen, dass Nvidianer Grafikkarten nur für hier und jetzt kaufen. Zu den 4GB... :facepalm:

maximus_hertus
2016-06-02, 13:08:25
Hm weiß nicht. Da fehlt mir das außergewöhnliche oder Alleinstellungsmerkmal. Das ist dann eher so bisserl "me too". Vor allem die Preise der 970 und 980 würde ich nicht als Maßstab nehmen. Die kann Nvidia nach so langer Zeit des Verkaufs auch senken. Der 28nm Prozess dürfte für solche Produkte auch nicht mehr viel kosten weil dort die Nachfrage eher zurück geht und jeder lieber auf die neueren Prozesse will. Ich würde jetzt mal die ersten Reviews abwarten aber für mich sind die Eigenschaften eines Produktes immer erstmal ausschlaggebend. Preisschild ist dann eine nachgelagerte Betrachtung da man wie gesagt den Preis jeder Zeit anpassen kann die Eigenschaften aber nicht mehr ohne Weiteres. Und gerade wenn ein Produkt 1 Jahr oder länger im Verkauf sein wird ist das nicht unerheblich, denn man wird nach einigen Monaten kaum mehr verlangen können. Sprich der jetztige Preis ist dann der Startpunkt und danach geht die Richtung Stück für Stück über die Monate nach unten, egal ob nun Low End, Mid-Range, Performance, High End oder Enthusiast.

DX12 Performance, Async Compute, 8 GiB VRAM, full hd ultra details in jedem game, ca 250 Euro. Dieses Paket ist schon stark und bisher EINZIGARTIG, bzw. ohne Konkurrenz.

Die Händler versuchen gerade irgendwie die teils noch ziemlich sehr großen Lagerbestände der GTX 970 und 980 los zu werden. Jedoch werden die keine extrem Preisnachlässe geben wollen, um den Verlust nicht zu groß werden zu lassen.

Polaris 10 tut nVidia und vor allem den Händlern weh, da es damit fast unmöglich wird, die 900er Karten zu verkaufen.

Zu "me too" => gibt es bei nvidia grob gtx 980 leistung mit nur einem 6pin pcie stromstecker? Async compute / dx12 performance? Unter 200 usd bzw. Ca. 230 euro = gtx 960 preis, gtx 980 leistung aber weniger stromverbrauch. Bis gp106 aufschlägt hat nV schlicht keine wirkliche Optionen.

Sunrise
2016-06-02, 13:13:50
...Irgendwie werde ich das Gefühl nicht los, dass AMD gehofft hat dass es besser mit Polaris aussehen wird. Jetzt könnte man sich fragen woran das liegt. Falsche Design Entscheidungen? Ich denke eher nicht. Irgendwie habe ich das Gefühl, dass GFs 14nm Prozess nicht ganz auf die Werte von TSMCs 16FF bzw. 16FF+ kommt.
Sofern Vega etwa 40% effizienter wird (eine Schätzung aufgrund einer Folie, die hier getätigt wurde), dann hast du eigentlich deine Antwort.

AMD hat es wohl nicht geschafft, für Polaris alle Stromsparmechanismen zu integrieren, denn nur rein durch HBM2 wird der Chip nicht 40% mehr Perf/W liefern, da müssen weit tiefere Änderungen erfolgen (falls das überhaupt stimmt).

AMD muss aber auch mal Geld verdienen, du kannst nicht ewig warten und warten, daher hatte AMD sicher auch genau gewusst, was bereit ist und was nicht, als das Design fertiggestellt wurde. Der Prozess ist natürlich auch mitverantwortlich, wie effizient das Ding wird, aber da scheinen die Schätzungen von AMD ja recht realistisch gewesen zu sein, wenn man die versprochene Leistung bei 150W liefern kann.

Dass der Samsung-Prozess bei starker Last beim A9 (Apple, Geekbench) schlechter als der von TSMC ist, wissen wir ja. Dafür hat er wohl die höhere Packdichte. Wenn AMD einen günstigen Einstieg wollte, damit sie ihr Ziel erreichen können, dann ist die Fläche eben entscheidend. Die 150W TDP sehe ich jetzt nicht als Thema an, denn NVs Angaben sind mit äußerster Vorsicht zu genießen, also sollten wir da mal lieber reale Werte abwarten.

Achja, der Grund, warum Vega als eigene Architektur gelistet wird und erst später nachkommt gibt dir ja eigentlich auch schon genug Hinweise.

NV hat immer den größeren Die bis GP106 kommt, insofern geht das natürlich auch auf NVs Marge, egal wie man es drehen will. Nur ist der Preispunkt von AMD schon so tief, dass es so aussieht, als wollte AMD lieber mehr Marktanteile mit niedrigerer Marge als weniger Marktanteile mit höherer Marge. Bei der ersten Strategie müssen dann aber kurz darauf sehr gute weitere Produkte folgen, da scheint AMD eben ein Spiel einzugehen.

scully1234
2016-06-02, 13:16:20
in Form der RX470 bei vermutlich 130W TDP für ca. 149$ geben wird? .

Auf der Marketingfolie stehen 150Watt ,woher also diese optimistische Schaetzung???

Selbst ein Leistungsspektrum in Hoehe einer 980ti stand ja schon im Raum,obwohl Computex Quellen da bei weiten nicht so weit gingen, nicht das dann nachher einige die Realitaet einholt...???

Edit: sorry du sprachst ja vom kleinen sehe ich gerade ,da koennte es sogar hin kommen

Rabiata
2016-06-02, 13:18:53
Hm weiß nicht. Da fehlt mir das außergewöhnliche oder Alleinstellungsmerkmal. Das ist dann eher so bisserl "me too". Vor allem die Preise der 970 und 980 würde ich nicht als Maßstab nehmen. Die kann Nvidia nach so langer Zeit des Verkaufs auch senken.
Die GTX 970 dürfte mit der 3,5 GB Problematik ziemlich tot sein, wie Dargo schon angedeutet hat.
Bei der GTX 980 könnte ich es mir noch vorstellen, daß sie weiterverwertet wird. Aber ähnlich wie bisher AMD müßte dann Nvidia über den Preis gehen. Eine in der Chipfläche etwas kleinere AMD R9 380X kostet derzeit um die 220 Euro im Online-Preisvergleich, da könnte ich mir 240-250 Euro für die GTX 980 vorstellen. Zu dem Preis müßte sie auch noch absetzbar sein.

dildo4u
2016-06-02, 13:22:48
Surprise, Surprise. Gehen wir mal zurück ins Jahr 2010 => die GTX 460 kann ja leider gar keinen Druck auf die HD 5850 und 5870 ausüben (klar, die Fermi Heizer gab es ja auch, aber wirklich populär waren sie ja nicht). Am Ende war die 460 ein sehr rundes, schönes und günstiges Paket und hat den (Gaming) Markt dominiert.



Nun ja, GTX 980 => 165W, ein HALBER Chip aka GM106 => 120W. Man sieht, so viel wird nV auch nicht runter kommen (vermutlich). Mich würde es nicht wundern, wenn der GP106 Top-Dog bei rund 130W liegt und ggf. nur minimalst unterhalb von Polaris 10 herauskommt (sowohl Watt als auch fps).

GTX 970 => 90% fps, 145W, 280 Euro
GP106 Top-Karte => 100% fps, 130W, spekuliere mit 250 Euro
RX 480 => 105-110% fps, 140-150W, 220 Euro (4 GiB)
RX 480 => 110% fps, 150W, 250 Euro (8 GiB)
GTX 980 => 115-120% fps, 165W, 450 Euro
GTX 1070 => 140-150% fps, 150W, 430-500 Euro

Sieht ja nicht so schlecht für Polaris aus?
Wo ist die 1060 in deiner Aufstellung?

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Nvidia-Geforce-GTX-1060-Inno3D-deutet-Grafikkarte-an-1197024/

Nvidia hat sich mit dem Preis der 1070 Luft gelassen um noch eine Karte im Preis Bereich der 970 zu verkaufen und der Chip ist diesmal sogar kleiner.

dargo
2016-06-02, 13:25:26
@scully1234

Ich sehe die RX470 als direkten Konkurrent zur GTX970, +/- paar Prozentpunkte je nach Spiel.

scully1234
2016-06-02, 13:27:06
Wenn Herr Sauter nicht wieder getrollt hat wird sie das gar nicht erst

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11051310&postcount=5909

dildo4u
2016-06-02, 13:39:40
Ich sehe auch Null Problem die 1060 mit dem "großen" Chip zu verkaufen,da der min Preis 100€ über der 480 4GB liegen wird.Die Margen werden immer noch ordentlich sein,die Karte wäre ideal für Leute mit 960 oder einer 380.

Birdman
2016-06-02, 13:40:10
Wenn die RX480 in kommenden und unabhängigen Reviews das hält was die AMD Marketingpräsentation versprochen hat, dann ist die GTX970 tot.
Ich glaube nicht dass nvidia diese Karte für annähernd 199$ raushauen kann und ohne passenden Preis ist diese ansonsten uninteressant geworden.

Sunrise
2016-06-02, 13:50:48
Wenn die RX480 in kommenden und unabhängigen Reviews das hält was die AMD Marketingpräsentation versprochen hat, dann ist die GTX970 tot.
Ich glaube nicht dass nvidia diese Karte für annähernd 199$ raushauen kann und ohne passenden Preis ist diese ansonsten uninteressant geworden.
Das wurde ziemlich scharf von AMD kalkuliert.

Sagen wir mal, GM204 ist auf 28nm um etwa über die Hälfte billiger herzustellen als ein Chip auf 14nm. Da aber GM204 auch annähernd doppelt so groß ist, müsste NV hier ihre Margen vernachlässigen, bei weitaus schlechterem Featureset (Video- und Display-IP und diverse GCN, bzw. Neuheiten auf Pascal fehlen komplett). Das wird nicht passieren.

Eher geht NV temporär den Weg, GP104 in einer Konkurrenzkarte günstiger anzubieten, bis GP106 kommt, Spielraum ist da scheinbar genug.

-/\-CruNcher-/\-
2016-06-02, 13:52:10
Die GTX 970 wird so schnell es geht ersetzt werden durch die GTX 1060

Und die GTX 1060 wird auch der direkte Konkurent mit Nvidias regulärem Ökosystem Aufpreis gegen die RX480

AMD = 200-250
Nvidia = 300-350

Allerdings wird Nvidias Ökosystem durch AMDs initiativen langsam immer uninterssanter und verliert immer mehr an Bedeutung, es stellt so gut wie keinen Value mehr für den Endkunden da und wird immer mehr zu einer Belastung und wenn etwas zu einer Belastung wird für ein System was dann passiert kennen wir doch alzu gut von den Rauchern und der Tabakindustrie ;)

Birdman
2016-06-02, 14:37:53
Und die GTX 1060 wird auch der direkte Konkurent mit Nvidias regulärem Ökosystem Aufpreis gegen die RX480

AMD = 200-250
Nvidia = 300-350

Allerdings wird Nvidias Ökosystem durch AMDs initiativen langsam immer uninterssanter und verliert immer mehr an Bedeutung...
Also für 300-350$ muss aber klar GTX980 Performance her.
Die 970er bekommt man aktuell für 270-280$, da funktioniert kein performancegleicher Nachfolger zu höherem Preis, auch wenn diese ansonsten ein moderneres Featureset bietet.

scully1234
2016-06-02, 16:02:52
http://videocardz.com/60881/first-and-only-benchmarks-of-pascal-gp100-spotted
Ganz schoen flottes Kerlchen

Pumpi74
2016-06-02, 16:16:54
Schnell ? 22% Schneller als eine 1080 bei 100% mehr Größe. Selbst für 50% mehr Größe wäre das eher Meh.

scully1234
2016-06-02, 16:21:32
fuer 32bit allemal:wink:

Precision Model = SPFP (GPU), Double Precision (CPU)


Da es ja nicht sein primaeres Aufgabengebiet sein duerfte da unten rumzuwurschteln

maximus_hertus
2016-06-02, 16:29:22
Wie könnte eine GTX 1060 aussehen? Wenn ich y33H@ richtig verstehe, ist ein 256 Bit GDDR5 Interface sehr wahrscheinlich. Die Karte muss natürlich einen gewissen Abstand zur GTX 1070 einhalten, auch mit OC.

Vielleicht 1664 Shader mit einem geringen Powertarget (130W)? Dazu evtl. "nur" 4GB für 279 USD? 299 könnten fast schon zu nah an den 379 USD dran sein, gerade wenn der ein oder andere Hersteller vielleicht sogar Richtung 350 USD gehen würde.

Man könnte versuchen genau auf GTX 980 (und damit leicht oberhalb der RX 480) raus zu kommen. Dabei noch etwas weniger Verbrauch (im Vergleich zur RX 480), 4 GB und wie schon geschrieben, 279 USD UVP bzw. 299 USD für eine "Referenzkarte".

Timbaloo
2016-06-02, 16:37:47
Ich weiss nicht was ich von 256Bit @GP106 halten soll... Das würde imho nur Sinn ergeben wenn man niedrig taktenden GDDR5 nimmt. Aber ein 192Bit SI mit GDDR5X wäre hinsichtlich Effizienz sicher deutlich attraktiver und man könnte den GP106-Salvage genauso bauen wie den GP104-Salvage. Auch 8GB auf einem GP106 kommt mir etwas viel vor. 6GB würden da wunderbar passen imho.

woodsdog
2016-06-02, 17:07:09
Auf der Volumen Karte wird es in dieser Gen ganz sicher kein GDDR5X geben.

Was genau spricht denn gegen schnelles 128Bit GDDR5/lahmes 192 BIt GDDR5 Interface? Wir reden hier ja vom 970 Level wo GP106 hin muss.

N0Thing
2016-06-03, 01:06:39
Auf der Volumen Karte wird es in dieser Gen ganz sicher kein GDDR5X geben.

Was genau spricht denn gegen schnelles 128Bit GDDR5/lahmes 192 BIt GDDR5 Interface? Wir reden hier ja vom 970 Level wo GP106 hin muss.

Finde ich auch naheliegender als ein 256Bit Speicherinterface.

Dural
2016-06-03, 10:43:06
Auf der Hardware wo man bis jetzt GP106 gesehen hat (man nimmt es jedenfalls an das es GP106 war) hatte das PCB 256Bit.

Muss natürlich noch nichts heissen. 192Bit mit 3/6GB wären für die 1060 natürlich Perfekt. Mit 128Bit hätte man ein ziemlicher Bandbreite krüppel, mit 1280SP und ohne GDDR5X.

victore99
2016-06-03, 10:56:41
Auf der Hardware wo man bis jetzt GP106 gesehen hat (man nimmt es jedenfalls an das es GP106 war) hatte das PCB 256Bit.

Muss natürlich noch nichts heissen. 192Bit mit 3/6GB wären für die 1060 natürlich Perfekt. Mit 128Bit hätte man ein ziemlicher Bandbreite krüppel, mit 1280SP und ohne GDDR5X.
Verhielt sich das bei den 6er-Chips der letzten Jahre je anders? GM106 -128 bit für FHD.
GK106 - 128bit für den ersten GB, der zweite GB hat die letzten 64 bit bekommen.

Dural
2016-06-03, 11:02:24
Wie gesagt, GP106 mit den 1280SP und ohne GDDR5X würde kläglich untergehen, selbst der GP104 mit GDDR5X hat schon so seine mühe.

192Bit würden schon sehr viel Sinn ergeben, auch was die Speicher Menge anbelangt.

woodsdog
2016-06-03, 11:10:54
Der Hauptgrund gegen X beim RAM ist doch aber immer noch Lieferbarkeit/Kosten.

Gerade in der GP106 Klasse besteht doch gar nicht die Notwendigkeit für GDDRX

victore99
2016-06-03, 11:22:26
Andererseits.. Käufer des 6er-Chips haben entweder kein Geld - und kaufen aus Sachzwängen NV, oder kennen sich nicht aus.
Letztere Zielgruppe reicht, damit sich die Geldeinsparung beim kleineren IF schon rentiert. Die paar wenigen Kunden, die einen 6er-Chip rein wegen der Leistung im Vergleich zur Konkurrenz kaufen, sind am Ende nur Peanuts.

Auf deutsch:
NV kann ein Interfacelimit scheissegal sein, die fankids kaufen den krams eh.

StefanV
2016-06-03, 18:05:43
Was genau spricht denn gegen schnelles 128Bit GDDR5/lahmes 192 BIt GDDR5 Interface? Wir reden hier ja vom 970 Level wo GP106 hin muss.
Polaris.

Godmode
2016-06-03, 19:08:05
Von der Hauptseite geklaut: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2-juni-2016

Hier sieht man sehr schön, warum NV GP102 benötigt:

https://abload.de/img/screenshot2016-06-03aahxsu.png

Der Abstand zwischen GP102 und GP100 ist sehr minimal, bei horrenden Kosten für GP100. Für knappe 22% Mehrleistung ein doppelt so großer Die und HBM. FP64 und die HPC-Features kosten eben einiges an Transtorbudget.

maximus_hertus
2016-06-03, 19:25:57
Auf der anderen Seite sind es ja im Gamingalltag mehr als die rund 13% Differenz zwischen der GTX 1080 und der Titan X. Sogar deutlich mehr, so dass man da schon vorsichtig sein sollte. Allerdings stimmt es, dass der Abstand zwischen GP100 und GP104 doch arg klein ist.

Ravenhearth
2016-06-03, 19:43:38
Er bezog sich wohl eher auf die Differenz in der Rohleistung als auf die Differenz in dem Benchmark.

wolik
2016-06-03, 23:57:52
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/GP100-Amber-Benchmarks-1197178/
Ich sehe schon GP102 ist so schnell wie 4 (vier) Titan X. Eigentlich nichts neues.

Ravenhearth
2016-06-04, 00:14:01
Weil 4 Titan X in dem Benchmark nur 50% schneller sind als eine.

AnarchX
2016-06-04, 09:09:48
PG410-A01 SKU0030 GP 106 192B 128MX32 DP+ COMPUTER GRAPHICS CARDS, 699-1G410-0030-100
https://www.zauba.com/import-pg-computer-graphics-hs-code.html
Offenbar noch eine 192-Bit Variante von GP106. Entweder nur mit 3GiB (128MX32 -> 4GBit) oder wieder mal eine 3+1GiB Variante.
Das ist wohl dann der Gegner der RX 470?

Troyan
2016-06-04, 09:32:56
Sie verschippern auch die mobilen Versionen:

PG418-A00 SKU0503 MXM3.1 MODULE COMPUTER GRAPHICS CARDS, 699-5G418-0503-000

AnarchX
2016-06-04, 09:35:54
Bei den Vorlaufzeiten für Notebooks, sind die Samples wohl meist schon mit den Desktop-Samples unterwegs, auch wenn die NB-GPUs meist ein Quartal später kommen.

Thunder99
2016-06-04, 10:09:13
nvidia hat schon mal 256bit in die Mittelklasse gebracht aka G96 aka 9600GT

Ob dafür aber Platz ist ist eine andere Frage :redface:

Godmode
2016-06-04, 11:10:16
Was sind eigentlich so die Meinungen zum Vorstellungsdatum von GP102? Ich würde mich ja freuen, wenn wir ihn noch in diesem Jahr sehen, denke aber eher an 2017.

Da ich gerade wieder Witcher 3 spiele, überlege ich wieder eine zweite Titan X zu kaufen, die gehen ja gerade extrem billig weg.

4Fighting
2016-06-04, 11:34:48
Da ich gerade wieder Witcher 3 spiele, überlege ich wieder eine zweite Titan X zu kaufen, die gehen ja gerade extrem billig weg.

same here...warte eigentlich auch auf gp102:freak:

aber letztlich wissen wir beide vermutlich, dass SLI eben nur max. netto 50-60% mehr an FPS liefert, sofern es eben unterstützt wird.

scully1234
2016-06-04, 12:34:43
Was sind eigentlich so die Meinungen zum Vorstellungsdatum von GP102? .


Wenn er gebraucht wird

Also die naechsten 2-3 Monate glaube ich eher nicht, da wird erstmal GP104 die Butter ins Lager bringen:smile:

Mancko
2016-06-04, 16:24:22
Die GTX 970 wird so schnell es geht ersetzt werden durch die GTX 1060

Und die GTX 1060 wird auch der direkte Konkurent mit Nvidias regulärem Ökosystem Aufpreis gegen die RX480

AMD = 200-250
Nvidia = 300-350

Allerdings wird Nvidias Ökosystem durch AMDs initiativen langsam immer uninterssanter und verliert immer mehr an Bedeutung, es stellt so gut wie keinen Value mehr für den Endkunden da und wird immer mehr zu einer Belastung und wenn etwas zu einer Belastung wird für ein System was dann passiert kennen wir doch alzu gut von den Rauchern und der Tabakindustrie ;)

Was Du immer für einem Müll zusammenlaberst. AMD verdient kein Geld und wird Nvidia derzeit 0,0 daran hindern weiter Geld zu verdienen und dieses Geld so einzusetzen dass es für Nvidia und die eigenen Kunden vorteilhaft ist. Und das Nvidia einen Aufpreis verlang ist völlig normal. Nvidia ist der deutsche Autobauer unter den GPUs. Die Kunden zahlen dafür nunmal mehr ob es den AMD Fanboys gefällt oder nicht. Ich werde niemals in meinem Leben für den Billigladen AMD das gleiche bezahlen.Die sind für mich halt wie KIA & Co und das Image haben sie sich selber über viele Jahre erarbeitet und das bleibt halt auch bestehen :)

Mancko
2016-06-04, 16:29:43
Sofern Vega etwa 40% effizienter wird (eine Schätzung aufgrund einer Folie, die hier getätigt wurde), dann hast du eigentlich deine Antwort.

AMD hat es wohl nicht geschafft, für Polaris alle Stromsparmechanismen zu integrieren, denn nur rein durch HBM2 wird der Chip nicht 40% mehr Perf/W liefern, da müssen weit tiefere Änderungen erfolgen (falls das überhaupt stimmt).

AMD muss aber auch mal Geld verdienen, du kannst nicht ewig warten und warten, daher hatte AMD sicher auch genau gewusst, was bereit ist und was nicht, als das Design fertiggestellt wurde. Der Prozess ist natürlich auch mitverantwortlich, wie effizient das Ding wird, aber da scheinen die Schätzungen von AMD ja recht realistisch gewesen zu sein, wenn man die versprochene Leistung bei 150W liefern kann.

Dass der Samsung-Prozess bei starker Last beim A9 (Apple, Geekbench) schlechter als der von TSMC ist, wissen wir ja. Dafür hat er wohl die höhere Packdichte. Wenn AMD einen günstigen Einstieg wollte, damit sie ihr Ziel erreichen können, dann ist die Fläche eben entscheidend. Die 150W TDP sehe ich jetzt nicht als Thema an, denn NVs Angaben sind mit äußerster Vorsicht zu genießen, also sollten wir da mal lieber reale Werte abwarten.

Achja, der Grund, warum Vega als eigene Architektur gelistet wird und erst später nachkommt gibt dir ja eigentlich auch schon genug Hinweise.

NV hat immer den größeren Die bis GP106 kommt, insofern geht das natürlich auch auf NVs Marge, egal wie man es drehen will. Nur ist der Preispunkt von AMD schon so tief, dass es so aussieht, als wollte AMD lieber mehr Marktanteile mit niedrigerer Marge als weniger Marktanteile mit höherer Marge. Bei der ersten Strategie müssen dann aber kurz darauf sehr gute weitere Produkte folgen, da scheint AMD eben ein Spiel einzugehen.

Das Problem ist nur, dass

1) bis Vega kommt Nvidia mit GP106 da ist und zusätzlich zu dem Mainstream Bereich die Sahne oben abschöpfen kann. AMD kann das nicht und kann es vermutlich auch mit Vega nicht weil Nvidia's Antwort dazu im Prinzip schon absehbar ist und AMD somit nicht ohne Konkurrenz dasteht.

2) Nvidia kann AMD kurzfristig mit Maxwell Dumping weh tun. Das verhindert einen zu großen Polaris Erfolg

3) Nvidia kann sich dank höherer Preise auch größere DIEs leisten. Das war schon immer so. Packdichte war nie Kriterium Nummer 1.

4) Und Nvidia kann auch auf Margen verzichten, weil deren Margen eh sehr groß sind. Sie haben über viele Jahre genügend Geld verdient. Die könnten auch locker 1 Jahr kein GEld verdienen. AMD hat das PRoblem: SIe müssen jetzt GEld verdienen sonst ist der Ofen verdientdermaßen aus denn das Unternehmen pfeift aus dem letzten Loch.

dargo
2016-06-04, 16:32:21
Was Du immer für einem Müll zusammenlaberst. AMD verdient kein Geld und wird Nvidia derzeit 0,0 daran hindern weiter Geld zu verdienen und dieses Geld so einzusetzen dass es für Nvidia und die eigenen Kunden vorteilhaft ist. Und das Nvidia einen Aufpreis verlang ist völlig normal. Nvidia ist der deutsche Autobauer unter den GPUs. Die Kunden zahlen dafür nunmal mehr ob es den AMD Fanboys gefällt oder nicht. Ich werde niemals in meinem Leben für den Billigladen AMD das gleiche bezahlen.Die sind für mich halt wie KIA & Co und das Image haben sie sich selber über viele Jahre erarbeitet und das bleibt halt auch bestehen :)
Ich frage mich bei deinen Posts immer wieder welchen Müll du dir da zusammenreimst. Die Poleposition hast du jedenfalls vor Cruncher.


2) Nvidia kann AMD kurzfristig mit Maxwell Dumping weh tun. Das verhindert einen zu großen Polaris Erfolg

Ich lach mich schlapp. Was will Nvidia bei Maxwell deutlich im Preis drücken? Die GTX960 die bereits im zweiten DX12 Titel völlig versagt? ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11054630&postcount=3362

Die verkrüppelte GTX970? Sobald Polaris 10 mit echten 4GB und keinem verkrüppelten SI für 199$ kommt ist die GTX970 Geschichte. Das einzige was NV bleibt ist GTX980 auf 199-249$ runterzudrücken. Ob das passieren wird werden wir sehen. Selbst wenn es passiert... die AC Schwäche von Maxwell wird für immer bleiben. Also wieder eine Grafikkarte mit schnellem Verfallsdatum, ganz im Sinne von Nvidia. Setz mal endlich deine grüne Brille ab, das ist ja kaum mehr auszuhalten.

Dural
2016-06-04, 17:31:47
wie irgend jemand auf amd warten würde, maxwell war jetzt über ein jahr konkurenz los, fiji karten lagen wie blei in den regalen.

amd hat den high-end bereich komplett aufgegeben, jedenfall in diesem jahr. das bedeutet locker 90%+ marktanteil im 300.- markt aufwärts für nv.

und so jetzt rate mal was ein standard käufer kauft, sicher kein produkt das im oberen bereich rein gar nichts zu melden hat. und das zieht sich natürlicher auch zu den unteren produkten durch.

man muss schon sehr naiv sein um zu glauben das polaris gross was ändern wird. natürlich werden sie damit etwas marktanteile zurück holen, aber auch nur weil die vorgänger produkte ausser apple wirklich niemanden mehr wollte.

Monsta
2016-06-04, 17:41:36
Maxwell war konkurrenzlos zum Teil wegen der 970er.
Das ist ja die meistverkaufte Gpu der letzten zwei Jahre. Wurde von allen Fachzeitschriften gehyped wie Sau.
Aus meiner Sicht ist das Betrug, wie ein Auto mit zurückgedrehtem Tacho. In hohen Auflösungen platzt die einfach nur weg. Haltbarkeit eingeschränkt.
Da ich auch geschädigt bin sehe ich das wahrscheinlich durch eine andere Brille.
Das war für mich die letzte Nvidia.
Ist mir auch ein Rätsel warum das viele andere nicht so sehen. Laut Formresonanz stürzen die sich regelrecht auf die neuen Gpus.

scully1234
2016-06-04, 17:49:05
natürlich werden sie damit etwas marktanteile zurück holen, aber auch nur weil die vorgänger produkte ausser apple wirklich niemanden mehr wollte.


Wenn da nicht GP104 - 200 waere, der auch fuer Referenzplatinen taugt unterhalb GTX1070 Leistung und nicht nur fuer Nootebooks ... 1060/1060Ti

https://www.chiphell.com/thread-1598511-1-1.html

BlacKi
2016-06-04, 18:02:10
Ich lach mich schlapp. Was will Nvidia bei Maxwell deutlich im Preis drücken? Die GTX960 die bereits im zweiten DX12 Titel völlig versagt? ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11054630&postcount=3362
http://www.overclock3d.net/reviews/gpu_displays/total_war_warhammer_pc_performance_review/9

Troyan
2016-06-04, 18:19:16
Was Blue Byte Deutschland mit Anno2205 erreicht hat, ist wirklich beeindruckend. Kein DX12, dafür bessere Grafik bei besserer Leistung als diese angeblichen DX12 Vorzeigespiele.

dargo
2016-06-04, 18:26:56
wie irgend jemand auf amd warten würde, maxwell war jetzt über ein jahr konkurenz los, fiji karten lagen wie blei in den regalen.

Es geht hier nicht um den Preisbereich von 500-650€. Der ist eh fast bedeutungslos wenn schon bei >300$ AMD von 16% Gameranteil spricht. Bei über 500€ wirst du schon unter 10% fallen. Obwohl Fiji sich schlecht verkauft hat hat AMD mit der 380/390 einiges wieder an Marktanteilen aufgeholt. Wie wird das wohl erst mit einem sparsamen Polaris für 199$ aussehen?

Kriton
2016-06-04, 18:35:24
Das Proble ist nur, dass

1) bis Vega kommt Nvidia mit GP106 da ist und zusätzlich zu dem Mainstream Bereich die Sahne oben abschöpfen kann. AMD kann das nicht und kann es vermutlich auch mit Vega nicht weil Nvidia's Antwort dazu im Prinzip schon absehbar ist

Aha, also Nvidia hat einen Vorteil weil sie in einem Segment schneller als AMD sind, aber AMD nicht, wenn sie in einem anderem Segment schneller als Nvidia sind. :rolleyes: Dein AMD-Hass blendet Dich.

Kriton
2016-06-04, 18:39:12
wie irgend jemand auf amd warten würde, maxwell war jetzt über ein jahr konkurenz los, fiji karten lagen wie blei in den regalen.

amd hat den high-end bereich komplett aufgegeben, jedenfall in diesem jahr. das bedeutet locker 90%+ marktanteil im 300.- markt aufwärts für nv.

und so jetzt rate mal was ein standard käufer kauft, sicher kein produkt das im oberen bereich rein gar nichts zu melden hat. und das zieht sich natürlicher auch zu den unteren produkten durch.

man muss schon sehr naiv sein um zu glauben das polaris gross was ändern wird. natürlich werden sie damit etwas marktanteile zurück holen, aber auch nur weil die vorgänger produkte ausser apple wirklich niemanden mehr wollte.

Du wirst Dich wundern. Als jemand, der keine 600,- € für eine Karte ausgibt, interessiert es mich nur jenseits meines Kaufes aus allgemeinem Interesse wer vorn liegt. gekauft wird, was in dem von mir angestrebtem Preisbereich besser ist. Alles andere wäre auch irrational.

dargo
2016-06-04, 18:50:45
http://www.overclock3d.net/reviews/gpu_displays/total_war_warhammer_pc_performance_review/9

Testing scenario

When testing the game we played one of the Total War Warhammer's Quest battles, allowing us to play a scene that was very repeatable over a large number of GPUs and a variety of settings.


DirectX 12 Benchmark

Creative Assembly did provide us with access to an early access build of the game's DirectX 12 benchmark, but it is a standalone application and cannot be used with DirectX 11 for comparison purposes. The scene used in the benchmarking tool is one of the better performing maps in the game, making it a great tool to compare GPU performance but not representative of the games performance in certain maps.

Klingt für mich erstmal nicht vergleichbar. Guru3d hatten afaik den intergrierten Benchmark genommen.

Edit:
Aber irgendwas stimmt da bei Guru3d nicht. So katastrophal sieht die 960 bei anderen Seiten nicht aus.
http://www.pcgamer.com/total-war-warhammer-benchmarks-strike-fear-into-cpus/
http://wccftech.com/total-war-warhammer-dx12-tested-gpu-cpu/
http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/Specials/Benchmarks-Test-DirectX-12-1196355/

Screemer
2016-06-04, 20:14:03
Klingt für mich erstmal nicht vergleichbar. Guru3d hatten afaik den intergrierten Benchmark genommen.

Edit:
Aber irgendwas stimmt da bei Guru3d nicht. So katastrophal sieht die 960 bei anderen Seiten nicht aus.
http://www.pcgamer.com/total-war-warhammer-benchmarks-strike-fear-into-cpus/
http://wccftech.com/total-war-warhammer-dx12-tested-gpu-cpu/
http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/Specials/Benchmarks-Test-DirectX-12-1196355/
Das beste an dem oc3d Test sind die Graphen. Für den schnellen Leser bzw. Bildergugger suggerieren sie, dass der prozentuale Abstand von nv zu amd unter dx11 größer ist als umgekehrt unter dx12. Liegt schlicht an dem unterschiedlich gewählten Maximum auf der x-achse. Super Arbeit. nv Marketingabteilung hätte es nicht besser machen können.

BlacKi
2016-06-04, 20:28:55
Aber irgendwas stimmt da bei Guru3d nicht. So katastrophal sieht die 960 bei anderen Seiten nicht aus.

echt jetzt? du hast doch absichtlich den test genommen weil die karte dort besonders schlecht abschneidet...

Knuddelbearli
2016-06-04, 20:43:33
Sofern Vega etwa 40% effizienter wird (eine Schätzung aufgrund einer Folie, die hier getätigt wurde), dann hast du eigentlich deine Antwort.

AMD hat es wohl nicht geschafft, für Polaris alle Stromsparmechanismen zu integrieren, denn nur rein durch HBM2 wird der Chip nicht 40% mehr Perf/W liefern, da müssen weit tiefere Änderungen erfolgen (falls das überhaupt stimmt).



Polaris ist doch GloFo 14nm ( von Samsung eingekauft )
Vega 16nm von TSMC das kann auch daher kommen.

War nicht bei Apple auch der Samsungchip zwar kleiner aber deutlich stromhungriger?

Kartenlehrling
2016-06-04, 20:56:30
Bei PCgames hat gerade die gtx960-4gb abgekackt und das sogar gegen 2gb version, die 2gb wurde bei guru3d auch genommen.
Welches DX12 Spiel wird den von Nvidia gesupporte ausser RotTR, dachte eigentlich das Justcause3 mit Nvidia Pascal dx12.x kommt?!

Locuza
2016-06-04, 21:23:29
Man könnte die Behauptung aufstellen das Rise of the Tombraider den DX12 Pfad nicht wegen Nvidia hat.
Just Cause 3 wird ihn bestimmt nicht wegen Nvidia haben, es supportet wenn schon Intel.

Ex3cut3r
2016-06-04, 21:26:02
Wer Guru3D ernst nimmt, der kann auch gleich Gamestar und Hardwareluxx anschließen. Alle genannten Seiten sind vollkommen unseriös was Benchmarks bzw Grafikkarten Test angeht, bei denen ist immer derjenige ganz oben, der am Tag davor den dicksten Check überwiesen hat. :ulol:

dargo
2016-06-04, 21:55:18
echt jetzt? du hast doch absichtlich den test genommen weil die karte dort besonders schlecht abschneidet...
Kannst deine Unterstellungen stecken lassen. Ich habe einfach nur Parallelen dazu gesehen.
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html

Wixi
2016-06-05, 00:06:14
Das beste an dem oc3d Test sind die Graphen. Für den schnellen Leser bzw. Bildergugger suggerieren sie, dass der prozentuale Abstand von nv zu amd unter dx11 größer ist als umgekehrt unter dx12. Liegt schlicht an dem unterschiedlich gewählten Maximum auf der x-achse. Super Arbeit. nv Marketingabteilung hätte es nicht besser machen können.

Liegt vielleicht daran weil die 380 unter DX12 über 100FPS erreicht und die x-Achse dementsprechend angepasst wurde!? ;)

HOT
2016-06-05, 01:23:16
wie irgend jemand auf amd warten würde, maxwell war jetzt über ein jahr konkurenz los, fiji karten lagen wie blei in den regalen.

amd hat den high-end bereich komplett aufgegeben, jedenfall in diesem jahr. das bedeutet locker 90%+ marktanteil im 300.- markt aufwärts für nv.

und so jetzt rate mal was ein standard käufer kauft, sicher kein produkt das im oberen bereich rein gar nichts zu melden hat. und das zieht sich natürlicher auch zu den unteren produkten durch.

man muss schon sehr naiv sein um zu glauben das polaris gross was ändern wird. natürlich werden sie damit etwas marktanteile zurück holen, aber auch nur weil die vorgänger produkte ausser apple wirklich niemanden mehr wollte.

Ich bezweifle sehr stark, dass je so grosse Mengen von Fiji produziert wurden. Das Teil ist von Anfang an nur auf Kostendeckung produziert worden, echte Chancen ein Hit zu werden hatte der Chip eh nie.

Sollte Polaris die Tesselationsschwaeche und einige andere Baustellen angehen wird er auch entsprechen besser sein als seine Vorgänger.

Digidi
2016-06-05, 01:23:50
Wo sind denn eigentlich die dx12 Benchmarks von survival evolve? Das wurde ja auch groß angekündigt. Hat da Nvidia als Sponsor den Finger drauf gelegt?