PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26

fondness
2016-04-23, 12:28:16
Gute Nacht wenn es Dir erst JETZT einleuchtet dass die beiden IHVs schon seit R600 ihre chips anders positionieren.

Naja, als NV den hohen ALu-Takt aufgegeben hatte, waren die Taktraten eine Zeit lang relativ ähnlich, jetzt gibt es wieder deutliche Unterschiede.

Troyan
2016-04-23, 12:30:44
Na dann warte ab. P10 wird nicht über ~125W liegen. Und Tonga XT hat 190W TDP btw.

Es gibt kein Referenzdesign von Tonga XT. Die Custom-Karten liegen bei 200W:
http://www.hardware.fr/articles/945-6/consommation-efficacite-energetique.html

Custom-Karten der GTX980 liegen ebenfalls bei 200W - dann aber mit Taktraten >1350Mhz.

Mancko
2016-04-23, 12:32:03
Na dann warte ab. P10 wird nicht über ~125W liegen und auch deutlich <300mm². Und Tonga XT hat 190W TDP btw.

Dann wird er aber auch nicht in der gleichen Performance Klasse wie GP104 spielen. Dann vergleichen wir Äpfel mit Birnen.

Ailuros
2016-04-23, 12:35:54
Naja, als NV den hohen ALu-Takt aufgegeben hatte, waren die Taktraten eine Zeit lang relativ ähnlich, jetzt gibt es wieder deutliche Unterschiede.

Darum geht es nicht; NV hat stets einen Riesen-chip und skaliert von dort ab nach unten. AMD im Gegenteil macht bei performance-chips halt, ergo faengt einen Schnitt weiter unten an. Sollte doch klar sein dass der Verschnitt fuer diverse Markt-sparten (mainstream-performance-high end) an anderen Stellen anfaengt zwischen den beiden. Dabei ist NV's grosser Nachteil stets dass Ihr mainstream-chip stets zu relativ schwach ausfaellt bzw. alles der letzten Jahre mit G*x06 ;)

Ailuros
2016-04-23, 12:39:25
Es gibt kein Referenzdesign von Tonga XT. Die Custom-Karten liegen bei 200W:
http://www.hardware.fr/articles/945-6/consommation-efficacite-energetique.html

Custom-Karten der GTX980 liegen ebenfalls bei 200W - dann aber mit Taktraten >1350Mhz.

Bei den Frequenzen gibt EVGA eine TDP von 300W an bzw. einen 8+8+6 form factor: http://www.evga.com/Products/Product.aspx?pn=04G-P4-2983-KR

Ausgangspunkt fuer EVGA's 980-er SKUs sind 180W; ausser ich hab ein fake hier in der Hand liegt GP104-400 immer noch darunter fuer die Referenz-SKU.

Sunrise
2016-04-23, 12:45:34
Naja, als NV den hohen ALu-Takt aufgegeben hatte, waren die Taktraten eine Zeit lang relativ ähnlich, jetzt gibt es wieder deutliche Unterschiede.
Nö, die waren bei NV seit GCN eigentlich immer höher relativ zur Die-Size, davon redet er ja. Zudem auch immer effizienter, da GCN zu "fett" war. AMD und NV haben da trotz Ähnlichkeit auch aufgrund der Architektur andere Ansätze.

NV hat diesen Taktvorteil schon seit einiger Zeit was es ihnen erleichtert hat und wohl auch weiter wird ihre Chips klein aber ihre GP104 SKUs sehr weit von unten nach oben zu skalieren, insgesamt (auf alle Chips im Lineup gesehen) kommt man aber immer von oben nach unten.

AMD kommt jetzt allerdings einen Schritt näher. Fragt sich nur ob das auch stimmt oder ob NV nochmal deutlich drauflegen konnte.

Mancko
2016-04-23, 12:48:43
Darum geht es nicht; NV hat stets einen Riesen-chip und skaliert von dort ab nach unten. AMD im Gegenteil macht bei performance-chips halt, ergo faengt einen Schnitt weiter unten an. Sollte doch klar sein dass der Verschnitt fuer diverse Markt-sparten (mainstream-performance-high end) an anderen Stellen anfaengt zwischen den beiden. Dabei ist NV's grosser Nachteil stets dass Ihr mainstream-chip stets zu relativ schwach ausfaellt bzw. alles der letzten Jahre mit G*x06 ;)

Das liegt aber auch daran, dass Nvidia damit weniger Probleme hat. Die gute Performance im Enthusiast, High End und Performance Segment sorgt für das entsprechende Marketing und Image. Da wird dann das Mainstream im Fahrtwind mitverkauft, völlig egal was das im Vergleich zur Konkurrenz kann.

fondness
2016-04-23, 12:52:51
Nö, die waren bei NV seit GCN eigentlich immer höher relativ zur Die-Size, davon redet er ja. Zudem auch immer effizienter, da GCN zu "fett" war. AMD und NV haben da trotz Ähnlichkeit auch aufgrund der Architektur andere Ansätze.

NV hat diesen Taktvorteil schon seit einiger Zeit was es ihnen erleichtert hat und wohl auch weiter wird ihre Chips klein aber ihre GP104 SKUs sehr weit von unten nach oben zu skalieren, insgesamt (auf alle Chips im Lineup gesehen) kommt man aber immer von oben.

AMD kommt jetzt allerdings einen Schritt näher. Fragt sich nur ob das auch stimmt oder ob NV nochmal deutlich drauflegen konnte.

Wir können uns jetzt gerne in Details verzetteln, aber ich denke es war klar, worauf ich hinaus wollte. Das Fenster geht auf. Welche Ansatz die "beste" Lösung darstellt, werden dann harte Effizienzkriterien wie Perf/Watt oder Perf/mm² zeigen. Wobei die Performace natürlich auch immer stark vom Anwendungsgebiet abhängt.

Ailuros
2016-04-23, 12:57:00
Das liegt aber auch daran, dass Nvidia damit weniger Probleme hat. Die gute Performance im Enthusiast, High End und Performance Segment sorgt für das entsprechende Marketing und Image. Da wird dann das Mainstream im Fahrtwind mitverkauft, völlig egal was das im Vergleich zur Konkurrenz kann.

Man kann auch nicht wirklich alles haben; Nachteile wird jede Strategie am Ende haben.

Wir können uns jetzt gerne in Details verzetteln, aber ich denke es war klar, worauf ich hinaus wollte. Das Fenster geht auf. Welche Ansatz die "beste" Lösung darstellt, werden dann harte Effizienzkriterien wie Perf/Watt oder Perf/mm² zeigen. Wobei die Performace natürlich auch immer stark vom Anwendungsgebiet abhängt.

Wenn AMD einen salvage Vega brauchen sollte um die GP104-400 Leistung zu erreichen ist perf/mm2 eben nicht besser fuer AMD.

Sunrise
2016-04-23, 13:01:00
Wir können uns jetzt gerne in Details verzetteln, aber ich denke es war klar, worauf ich hinaus wollte. Das Fenster geht auf. Welche Ansatz die "beste" Lösung darstellt, werden dann harte Effizienzkriterien wie Perf/Watt oder Perf/mm² zeigen.
Ich sehe da keine beste Lösung, denn die von AMD ist klar billiger in der Herstellung (falls die 250mm^2 stimmen) und falls die Performance und Effizienz stimmt, wird Polaris sehr gut dastehen.

Es sieht mit den vorliegenden Daten aber danach aus, dass NV schon aufgrund ihrer besseren Effizienz bisher wohl gleichzeitig weit nach unten könnte und _gleichzeitig_ weiter nach oben gehen kann aufgrund des GDDR5X-kompatiblen IMCs und der GDDR5-Kompatibilität ganz unten.

Das wird eine sehr spannende Runde dieses Mal, bei NV war es abzusehen, bei AMD fehlen die relevanten bestätigten Leaks fast komplett.

HOT
2016-04-23, 13:15:19
Auch Polaris10 wird bei hohen Taktraten und GDDR5X wieder knapp die 180-200W erreichen. Die große GP104-Karte wird ebenfalls dieses Niveau erreichen. Beide Chips müssen sicherlich massiv hoch getaktet werden, um die jetzigen GM200 und Fiji zu ersetzen. Dank FinFETs und GDDR5X scheint das ja sogar relativ einfach zu gehen, aber es wird eben auf die Effizienz gehen.
Dennoch ist nicht davon auszugehen, dass Polaris10 GP104 erreichen kann, wenn dann nur in ausgewählten Scenarien, AMD positioniert die Karte ja auch gar nicht so offenbar. Fiji erreichen ja, GP104 schlagen nein. Dafür ist der Chip sehr effizient in der Produktion.

igg
2016-04-23, 13:25:47
Unter 300mm² sollte man nicht weit über einer GTX 980TI @1400 Mhz kommen, also GTX 980 Stock plus maximal 15% ist wohl drinn.
OC sei mal dahingestellt, jedoch der GDDR5X Support ist schon Nice

Bezieht sich das auf 1070 oder 1080? Dachte die 70er bekommt nur GDDR5.

AnarchX
2016-04-23, 13:36:49
Wenn man den Gerüchten bei Chiphell glaubt, wird wohl die GTX 1080 für einen 4er-Chip preislich völlig abheben - $650.
Durch die 8GiB GDDR5X und möglicherweise einer entsprechenden Mehrleistung gegenüber einer 980Ti lässt sich das wohl aus Marketing-Sicht auch rechtfertigen.

Interessanter könnte wohl das Duell Polaris10 vs GP104-200/150 werden, wenn AMD sein versprechen wahr macht das VR-Einstiegsleistungslevel(290/970) im Preis zu senken, sollten es hier <$349 sein. Wenn auch auch die asiatischen Gerüchte die 1070 bei ~$499 sehen.

Troyan
2016-04-23, 13:45:43
Laut Videocardz stammt der Leak von MSI: http://videocardz.com/59310/leaked-gp104-400-is-from-msi-geforce-gtx-1080-gaming-8g

Und zum Preis: AMD will eine Crossfire-Karte für $1699 verkaufen, die gerade mal 50% schneller als Titan X ist. Wenn GP104 30-50% auf die GTX980TI zulegt, sieht es selbst mit $650 aus wie ein Schnäppchen...

Sunrise
2016-04-23, 13:53:25
Wenn man den Gerüchten bei Chiphell glaubt, wird wohl die GTX 1080 für einen 4er-Chip preislich völlig abheben - $650.
Durch die 8GiB GDDR5X und möglicherweise einer entsprechenden Mehrleistung gegenüber einer 980Ti lässt sich das wohl aus Marketing-Sicht auch rechtfertigen.

Interessanter könnte wohl das Duell Polaris10 vs GP104-200/150 werden, wenn AMD sein versprechen wahr macht das VR-Einstiegsleistungslevel(290/970) im Preis zu senken, sollten es hier <$349 sein. Wenn auch auch die asiatischen Gerüchte die 1070 bei ~$499 sehen.
Abseits dem 980Ti-Vergleich wird NV ihren Die-Größennachteil zu Geld machen müssen. NV scheint hier mit den 300mm^2 wieder eine sehr gute Entscheidung getroffen zu haben.

Die bis zu 250mm^2 bei AMD sind eine komische Größe, die ich nicht verstehe, falls die bestätigt werden. Klar, man würde von sagen wir konservativen 230mm^2 bis 300mm^2 ordentlich an Kosten sparen. Wäre es aber möglich gewesen, auch bei AMD 300mm^2 mit etwa 3072 ALUs zu bauen, mit allen anderen Verbesserungen?

Es könnte natürlich auch sein, dass das schon so dermaßen Bandbreiten-limitiert gewesen wäre, dass es nichtmehr schön ist. Ich bin mal auf die exakten Eckdaten gespannt, wenn AMD endlich mal etwas kommuniziert.

scully1234
2016-04-23, 14:00:03
Die Platine von der der Chip abfotografiert war scheint wohl vom Layout zu MSI zu passen

http://cdn.wccftech.com/wp-content/uploads/2016/04/MSI-GeForce-GTX-1080-GAMING-8G-PCB.jpg

Das wuerde doch dann bedeuten das hier schon abseits der Referenzboards konstruiert wird

HOT
2016-04-23, 14:16:28
Abseits dem 980Ti-Vergleich wird NV ihren Die-Größennachteil zu Geld machen müssen. NV scheint hier mit den 300mm^2 wieder eine sehr gute Entscheidung getroffen zu haben.

Die bis zu 250mm^2 bei AMD sind eine komische Größe, die ich nicht verstehe, falls die bestätigt werden. Klar, man würde von sagen wir konservativen 230mm^2 bis 300mm^2 ordentlich an Kosten sparen. Wäre es aber möglich gewesen, auch bei AMD 300mm^2 mit etwa 3072 ALUs zu bauen, mit allen anderen Verbesserungen?

Es könnte natürlich auch sein, dass das schon so dermaßen Bandbreiten-limitiert gewesen wäre, dass es nichtmehr schön ist. Ich bin mal auf die exakten Eckdaten gespannt, wenn AMD endlich mal etwas kommuniziert.
AMD verwendet sicherlich einfach kein GDDR5X bei Polaris10. Ob er trotzdem QDR kann oder nicht ist ja davon erstmal nicht abhängig. Damit wär man dann knapp über dem Niveau der 1070 und würde damit Fiji grad so schlagen. Polaris10 ist quasi AMDs neuer Pitcairn und Polaris 11 AMDs neuer CapVerde.


NV wird die GP10x sicherlich anders organisieren als den GP100. GP106 (und GP104-150) hat bestimmt 1536 Shader und GP104 2304. Die GTX1070 würde demnach mit 1920 an den Start gehen. Das alles garniert mit mehr Takt und voilá bekommt man die angepeilte Leistung. GP102 hätte demnach 3840 oder 4608 Shader, je nachdem wie groß die den Chip machen wollen.

Dural
2016-04-23, 14:40:53
Sehr cool, meine 980 wurde gestern gerade verkauft. Gddr5x kann kommen. :)

deLuxX`
2016-04-23, 14:42:29
Sehr cool, meine 980 wurde gestern gerade verkauft. Gddr5x kann kommen. :)
Ich bin da vorsichtiger. Diesmal warte ich ab, ob es bei irgendeinem Modell wieder so eine Vera***e gibt wie bei der 970.
Wenn nach 3 Monaten nichts bekannt ist, wird gekauft.

fondness
2016-04-23, 14:44:49
Abseits dem 980Ti-Vergleich wird NV ihren Die-Größennachteil zu Geld machen müssen. NV scheint hier mit den 300mm^2 wieder eine sehr gute Entscheidung getroffen zu haben.

Die bis zu 250mm^2 bei AMD sind eine komische Größe, die ich nicht verstehe, falls die bestätigt werden. Klar, man würde von sagen wir konservativen 230mm^2 bis 300mm^2 ordentlich an Kosten sparen. Wäre es aber möglich gewesen, auch bei AMD 300mm^2 mit etwa 3072 ALUs zu bauen, mit allen anderen Verbesserungen?

Es könnte natürlich auch sein, dass das schon so dermaßen Bandbreiten-limitiert gewesen wäre, dass es nichtmehr schön ist. Ich bin mal auf die exakten Eckdaten gespannt, wenn AMD endlich mal etwas kommuniziert.

Sorry, aber WTF? Dann haben Pitcain oder GM206 wohl auch eine "komische Größe"^^. P10 und GP104 konkurrieren nicht direkt gegeneinander, das ist wohl offensichtlich. Und was ist das überhaupt für eine Frage, klar wäre mit mehr Die-Size auch 3072 ALUs möglich gewesen, man wollte aber einen Chip im Bereich >=Hawaii mit niedrigen Kosten und guter Perf/watt. Das Ding soll schließlich auch im Notebookmarkt überzeugen wo AMD aktuell den größten Handlungsbedarf hat. Im Bereich ~350mm² liegt wohl eher Vega10 mit 60% mehr ALUs und HBM2.

ShinyMcShine
2016-04-23, 14:46:11
Ich bin da vorsichtiger. Diesmal warte ich ab, ob es bei irgendeinem Modell wieder so eine Vera***e gibt wie bei der 970.
Wenn nach 3 Monaten nichts bekannt ist, wird gekauft.

Die Lösung dafür: gleich den vollen GP104 auf der GTX 1080 kaufen. :tongue:

Troyan
2016-04-23, 14:48:36
Ich bin da vorsichtiger. Diesmal warte ich ab, ob es bei irgendeinem Modell wieder so eine Vera***e gibt wie bei der 970.
Wenn nach 3 Monaten nichts bekannt ist, wird gekauft.

Naja, es kann ja jetzt nachgemessen werden.

fondness
2016-04-23, 14:54:25
Es sieht mit den vorliegenden Daten aber danach aus, dass NV schon aufgrund ihrer besseren Effizienz bisher wohl gleichzeitig weit nach unten könnte und _gleichzeitig_ weiter nach oben gehen kann aufgrund des GDDR5X-kompatiblen IMCs und der GDDR5-Kompatibilität ganz unten.


Nach unten gehen kann man prinzipiell immer, wenn einem das nicht zu teuer ist. Die bessere Perf/Watt von NV wird Geschichte sein.

deLuxX`
2016-04-23, 14:58:40
Die Lösung dafür: gleich den vollen GP104 auf der GTX 1080 kaufen. :tongue:
Es muss ja nicht der gleiche Schindluder wie bei Maxwell getrieben werden. Vor der 970 wusste ja auch keiner was die da so anstellen können.
Der Beschiss kann ja auch in eine ganz andere Richtung gehen.

Naja, es kann ja jetzt nachgemessen werden.
Ja, auf diesen Sachverhalt hin schon. Aber sagt ja niemand, dass nicht auch in einem ganz anderem Bereich "nicht so gute" Designentscheidungen getroffen werden können.

Troyan
2016-04-23, 15:02:11
Nach unten gehen kann man prinzipiell immer, wenn einem das nicht zu teuer ist. Die bessere Perf/Watt von NV wird Geschichte sein.

Ziemlicher unsinn. nVidia wird weiterhin einen Vorteil haben, weil die mehr Geld für Forschung und Entwicklung besitzen. Es gibt überhaupt keine Anzeichen, dass sich die Gegebenheiten ändern werden.


Ja, auf diesen Sachverhalt hin schon. Aber sagt ja niemand, dass nicht auch in einem ganz anderem Bereich "nicht so gute" Designentscheidungen getroffen werden können.

Das hast du ja bei AMD auch. Oder warnen die dich, dass deren Geometrieleistung so absurd schlecht ist?
Gut, man kann 6 bis 12 Monate warten, aber dann wäre man hier ja sowieso falsch, oder? :D

dildo4u
2016-04-23, 15:12:26
Nach unten gehen kann man prinzipiell immer, wenn einem das nicht zu teuer ist. Die bessere Perf/Watt von NV wird Geschichte sein.
Macht kein Sinn nochmal schon eine 980 ist im Bereich der 390X und braucht 175 Watt weniger Strom.(165 vs 340) 340 Ist die Sparsamste 390X die PCGH getestet hat.AMD selber gibt zu das sie nur 2X bessere Performance per Watt erreichen,also sind sie in 14nm grad mal im Bereich von Maxwell.Klar die 1080 wird nicht so sparsam sein,da sie deutlich schneller als die AMD Karten wird, eine 1070 hingegen wird im Bereich der "Top" AMD Karte sein und deutlich weniger Saft brauchen.

igg
2016-04-23, 15:16:37
Die Lösung dafür: gleich den vollen GP104 auf der GTX 1080 kaufen. :tongue:
Hab ich überlegt. Aber mit dem Wissen, dass da noch eine Ti kommt Anfang 2017 trotzdem 650€ ausgeben?

Sunrise
2016-04-23, 15:19:43
...Die bessere Perf/Watt von NV wird Geschichte sein.
Ich werde dich bei Gelegenheit daran erinnern.

Im Bereich ~350mm² liegt wohl eher Vega10 mit 60% mehr ALUs und HBM2.
Du gehst bei Vega10 gerademal von 350mm^2 aus? Und NV überlässt man dann erneut die klare Performancekrone darüber?

Unicous
2016-04-23, 15:20:31
Es gibt auch bessere Photos von chiphell wo wenn man den Rand nicht mitberechnet sehen kann dass der die tatsaechlich 19+*15+mm ist. Meine Schaetzung fuer die Transistoren waere definitiv unter 7.5b wenn sie bei 25Mio/mm2 geblieben sind.


Sieht für mich eher nach 19+x16+mm² aus. Oder habe ich einen Knick in der Optik? Lineal ist natürlich nicht optimal an die Kante gelegt, dennoch sieht das für mich momentan nach 300mm²+ aus.
http://i1024.photobucket.com/albums/y303/martmail55/113552rhhbz4qh2ci47mtq_zpsbpgkvwi3.jpg
http://i1024.photobucket.com/albums/y303/martmail55/113607xvji8o88vdv8jcgy_zpslzv7k2n7.jpg

iuno
2016-04-23, 15:21:01
Wenn AMD einen salvage Vega brauchen sollte um die GP104-400 Leistung zu erreichen ist perf/mm2 eben nicht besser fuer AMD.
Inwiefern?
Glaubst du immer noch, P10 soll mit GP104 konkurrieren?
Ja, AMD hat schon mit kleineren Chips konkurriert (z.B. Hawaii vs GK110), imho macht das aber hier keinen Sinn. Mit den jeweils zwei Vega und Polaris Chips ist die Einteilung in die Marktsegmente doch logisch. Warum soll AMD nicht mit V10 PRO gegen GP104 antreten? Interessant wird da dann imho eher noch, wie es ganz oben aussieht, also wie V10 gegen GP102 dasteht und ob V10 mglw. auch in den Consumer-Markt kommt und dann ausgerichtet wird.
Ein 1024 Bit HBM MC von Fiji ist kaum groesser als ein 64 Bit GDDR5 MC von Tonga. V10 wird wohl 2048 Bit SI haben, P10 256 Bit. Wenn V10 etwa 50% auf P10 drauf legt (~60 CUs), koennte man immer noch deutlich <400mm² raus kommen. Zusaetzlich zur Radeon koennte V10 aber wohl wieder dicke FP64 Perf. liefern und auch gut als FirePRO laufen, dort sind die Margen dann viel groesser und koennten den Unterschied im Gaming-Bereich ausgleichen. Das ist dann eine vergleichbare Situation wie Hawaii (groesserer Chip, FP64) vs. GM204, ausser dass hier diesmal V10 auch wirklich vor GP104 liegen sollte. Wo ist dann genau das Problem, Salvage direkt gegen GP104 zu stellen?

Ziemlicher unsinn. nVidia wird weiterhin einen Vorteil haben, weil die mehr Geld für Forschung und Entwicklung besitzen. Es gibt überhaupt keine Anzeichen, dass sich die Gegebenheiten ändern werden.
Ausser, dass die Software gerade zunehmend an GCN angepasst wird und fein-getunte Radeons so dann schon annaehernd auf Maxwell-Niveau kommen.
Es gibt davon Abgesehen auch ueberhaupt keine Anzeichen, dass Nvidia diesen Vorsprung klar ausbauen kann, da ist imho. alles offen.

Pumpi74
2016-04-23, 15:24:20
Hab ich überlegt. Aber mit dem Wissen, dass da noch eine Ti kommt Anfang 2017 trotzdem 650€ ausgeben?

Zu erst wird doch sicherlich wieder der Vollausbau zum Megapreis angeboten. "Stichwort maximales melken". Die Ti Version kommt vermutlich wieder 3-4 Monate später, also womöglich erst im Mai 2017.

fondness
2016-04-23, 15:27:04
Ich werde dich bei Gelegenheit daran erinnern.

Gerne. :)

illidan
2016-04-23, 15:28:42
(165 vs 340) 340 Ist die Sparsamste 390X die PCGH getestet hat.
Es gibt überhaupt keine Referenz-Designs der Rebrand-Reihe und die sparsamste 290X ootb zieht 250W maximal in Form der 290X Tri-X New.
Ich finds schon regelrecht peinlich, dass du die 340W als Bezugsgröße heranziehst...

fondness
2016-04-23, 15:40:10
Du gehst bei Vega10 gerademal von 350mm^2 aus? Und NV überlässt man dann erneut die klare Performancekrone darüber?

Es sind zwei Vega-Chips bestätigt. Von den meinetwegen 230mm² mit P10 wird man kaum direkt auf >400mm² gehen ohne was dazwischen. Der ALU-Unterschied von 2560 bei P10 auf 4096 bei V10 gibt das auch nicht her, was genau soll da viel mehr als ~350mm² benötigen? Das HBM Interface ist sogar eher Platzsparender als das GDDR5-INterface.

/Edit: Die andere Alternative wäre natürlich, dass P10 deutlich größer wird, also zB ~280mm². Das würde natürlich auch die relativ Betrachtung von V10 verschieben.

Ascorvit
2016-04-23, 15:46:04
.(165 vs 340)

Also in Anbetracht, das HTu4 fuer die Sapphire R9 290X Tri-X 8GB 250W unter Last gemessen hat, solltest du deinen Post nochmal ueberlegen. (und vielleicht loeschen .... )

Troyan
2016-04-23, 15:54:07
Ausser, dass die Software gerade zunehmend an GCN angepasst wird und fein-getunte Radeons so dann schon annaehernd auf Maxwell-Niveau kommen.
Es gibt davon Abgesehen auch ueberhaupt keine Anzeichen, dass Nvidia diesen Vorsprung klar ausbauen kann, da ist imho. alles offen.

Der Vorsprung von AMD in AMD-optimierten Spielen ist kaum vorhanden - Tonga vs. GM204. Dagegen ist Maxwell deutlich schneller, wenn Spiele auf nVidia-Hardware optimiert werden.

Ascorvit
2016-04-23, 16:03:13
Tonga vs. GM204

???

220€ AMD Karte gegen 450€ Nvidia Karte und da ist Nvidia dann deutlich schneller. Also jetzt bin ich beeindruckt.

Rampage 2
2016-04-23, 16:04:17
Ruhig bleiben ;)
Erstmal sind es 320 GB/s
Es gibt ja noch keinen Hinweis darauf, dass micron die 11 oder 12 Gbps chips rechtzeitig fertig bekommt und an einen paperlaunch glaube ich nicht

Es steht also schon fest, dass GP104-400 nur mit 10Gbps GDDR5X kommt? Das wären dann nur 25% Abstand zu GP104-200...

R2

Troyan
2016-04-23, 16:09:39
???

220€ AMD Karte gegen 450€ Nvidia Karte und da ist Nvidia dann deutlich schneller. Also jetzt bin ich beeindruckt.

Wie wäre es mit Kontext? Ich vergleiche GM204 und Tonga, weil diese Polaris 10 und GP104 widerspiegeln könnten.

Das AMD Tonga für die Hälfte verscherbeln muss, hat mit dem Thema nichts zu tun.

illidan
2016-04-23, 16:15:44
Tonga war keine komplett neue GPU, ich würd die eher als Verlegenheitslösung bezeichnen. Nicht ganz so schlimm wie Fiji, aber trotzdem. Der Vergleich zu komplett neuen GPUs hinkt arg.

Troyan
2016-04-23, 16:17:05
Tonga und GM204 sind zur selben Zeit veröffentlicht worden. Der Vergleich zur neuen Generation macht sinn, weil beide Architekturen von den Grundkonzepten ähnlich sind. Und das wiederum schein wohl auch bei Polaris 10 und GP104 zu zutreffen.

illidan
2016-04-23, 16:24:01
Mit dem GP104 Vollausbau mit GDDR5X kann Polaris 10 sicher nicht mithalten, bestreitet das ernsthaft jemand?
An die anderen Varianten könnte man vielleicht zumindest halbwegs nahe herankommen, wenn die Taktbarkeit von P10 stimmt. So könnte dann noch noch Fiji-Niveau drin sein (weil das Ding halt abartig schlecht skaliert).
Aber natürlich wirds auch höhertaktende GP104 Salvages geben, spätestens als Hersteller-Custom, die P10 wieder nicht wird schlagen können.
Also muss AMD in einem anderen Preisbereich verkaufen, was man aufgrund der geringeren Die-Größe hoffentlich diesmal auch mit Gewinn machen kann.
Ich versteh den Anlass der Diskussion übrigens nicht.

Ascorvit
2016-04-23, 16:25:19
Zwischen Tonga und dem GM204 liegt eine Generation und 100% Preisunterschied. Der Vergleich ist unsinnig.

Und seid wann ist sicher das Polaris 10 und GP104 in der gleichen Leistungs / -Preisklasse sein werden?

Edit:

Mit dem GP104 Vollausbau mit GDDR5X kann Polaris 10 sicher nicht mithalten, bestreitet das ernsthaft jemand?

Noe, davon ist fest auszugehen.

Mancko
2016-04-23, 16:27:02
Der Vorsprung von AMD in AMD-optimierten Spielen ist kaum vorhanden - Tonga vs. GM204. Dagegen ist Maxwell deutlich schneller, wenn Spiele auf nVidia-Hardware optimiert werden.

Um die Softwareseite würde ich mir sowieso keine Gedanken machen. Bei DX11 hatte Nvidia auch nicht diesen riesigen Vorteil von Anfang an. Den haben die sich über Jahre durch Investments in diesem Bereich erarbeitet. Das wird bei DX12 und was zukünftig noch kommt auch nicht anders sein. Die haben Geld ohne Ende um dort anzusetzen und im Zweifel fummeln die sich da wieder so etwas generisches rein, dass dann einfach die ganze Zeit den Code on the Fly austauscht. An der Stelle traue ich Nvidia extrem viel zu. Gerade bei Software sind die doch sehr erfinderisch. Da können wir uns gern in 2 Jahren wieder unterhalten und mal schauen wie es dann ausschaut. Ich tippe darauf, dass Nvidia sich dann auch in DX12 Spielen entsprechend alles hinoptimiert hat. Parallel dazu wird einfach mit Gameworks & Co. weiter dafür gesorgt, dass eigene Architekturvorteile entsprechend ausgenutzt werden. Dazu muss man die Konkurrenz nicht künstlich verlangsamen was immer behauptet wird. Man muss nur analysieren wo sie ihre Schwächen und man selber Vorteile hat und dann gezielt diesen Teil vermehrt in die Spiele einbauen bzw. einbauen lassen. Dafür braucht man bisserl Geld für eigenes R&D auf der Softwareseite und bisserl Geld für die Entwicklerstudios und Publisher. Mit 5Mrd. $ auf dem Bankkonto ist da mehr als genug vorhanden. Da würde ich mich keiner Illusion hingeben.

illidan
2016-04-23, 16:33:53
Ihr malt es euch aber auch sehr schön.
GK110 und Hawaii stammen für den Consumer aus dem gleichen Jahr und Hawaii killt GK110 trotz 1:2 DP, 100mm² kleinerer Die-Size und vergleichbarem Verbrauch signifikant in vielen aktuellen Spielen.
Von AMD gab es einfach seit längerem keine gescheite GPU mehr. Man sollte deshalb aber nicht annehmen, dass nicht wieder etwas besseres kommen würde. Gut möglich, dass Vega wieder mit kleinerer Die-Size den NV-Topdog schlägt (und diesmal von Anfang an).

Troyan
2016-04-23, 16:36:59
Ihr malt es euch aber auch sehr schön.
GK110 und Hawaii stammen für den Consumer aus dem gleichen Jahr und Hawaii killt GK110 trotz 1:2 DP, 100mm² kleinerer Die-Size und vergleichbarem Verbrauch signifikant in vielen aktuellen Spielen.
Von AMD gab es einfach seit längerem keine gescheite GPU mehr. Man sollte deshalb aber nicht annehmen, dass nicht wieder etwas besseres kommen würde. Gut möglich, dass Vega wieder mit kleinerer Die-Size den NV-Topdog schlägt (und diesmal von Anfang an).

Wenn schon denn schon:
GK110 - Juni 2012 | Hawaii - Oktober 2013

GM204 und Tonga stammen beide aus September 2014, gehören beide zur gleichen Generation.

Skysnake
2016-04-23, 16:37:16
https://forum.beyond3d.com/posts/1908151/

Nettes video fuer techno-nerds (und nein GM200 hat natuerlich nicht 9b.... :P )
An sich relativ unspektakulär und was man halt so etwartet, mit einigen Ausnahmen.

1. IR-Laser Probing? WTF? Habe ich jetzt noch nichts von gehört scheint aber ziemlich cool/nützlich zu sein
2. Die Menge an Palladium Kisten, die die da haben, und vor allem ist es auch interessant, dass Sie auch die ganz neuen ServerRacks von Cadence mit dem Palladium-Nachfolger haben, und auch da nicht nur ein Rack.
3. Bringup in Stunden? Naja, Power an und mal erste Tests, aber validiert ist da dann noch nichts. Trotzdem sehr schön, wenn man einen Chip zurück bekommt, und der gleich an geht, und nicht tot vor einem liegt, was durchaus nichts ungewöhnliches ist. Da sieht man halt, wie wichtig Simulation ist. :up:

illidan
2016-04-23, 16:53:08
Wenn schon denn schon:
GK110 - Juni 2012 | Hawaii - Oktober 2013

Das ist nicht korrekt.
Ich schrieb von Consumer: Die Titan war ab Februar 2013 erhältlich, der Vollausbau in Form der 780 Ti sogar erst im November und damit nach Hawaii XT.

Sunrise
2016-04-23, 16:55:38
...Gut möglich, dass Vega wieder mit kleinerer Die-Size den NV-Topdog schlägt (und diesmal von Anfang an).
Nunja, mit Polaris- und weiteren Architekturverbesserungen wäre Vega mit HBM2 und 4096 ALUs natürlich wieder schneller als GP104. Nur eben auch deutlich teurer.

Da NV ohne Konkurrenz aber erstmal bis 2017 Preise wie $649 US fahren kann, kann AMD eigentlich nur genau dort rein, aber mit HBM vs. GDDR5X. Rein von der Leistung hat NV hier dann aber ein Problem diesen Preis noch abzurufen.

Das mit Vega ist leider etwas verwirrend, denn wir kennen nur 2017 als Datum und dann gleich 2 Chips die beide auch Salvages haben müssen. Das ist irgendwie etwas viel, auch wenn das natürlich ein sehr gutes Lineup zuließe.

Es wäre also dann folgendermaßen zu sehen:

$399 US
Polaris 10 (ersetzt nano)
GP104-xxx (GDDR5)

$499 US
Vega11 Salvage (HBM) 8GB VRAM (ersetzt >Fury X)
GP104-xxx (GDDR5)

$649 US
GP104-400 (GDDR5X) 8GB VRAM
Vega11 (HBM) 8GB VRAM

$799-849 US
Vega10 Salvage (HBM) 8 GB VRAM
GP102 Salvage (HBM) 8 GB VRAM

$999 US
Vega10 (HBM) 16GB VRAM
GP102 (HBM) 16GB VRAM

Sunrise
2016-04-23, 16:58:56
An sich relativ unspektakulär und was man halt so etwartet, mit einigen Ausnahmen.

1. IR-Laser Probing? WTF? Habe ich jetzt noch nichts von gehört scheint aber ziemlich cool/nützlich zu sein
2. Die Menge an Palladium Kisten, die die da haben, und vor allem ist es auch interessant, dass Sie auch die ganz neuen ServerRacks von Cadence mit dem Palladium-Nachfolger haben, und auch da nicht nur ein Rack.
3. Bringup in Stunden? Naja, Power an und mal erste Tests, aber validiert ist da dann noch nichts. Trotzdem sehr schön, wenn man einen Chip zurück bekommt, und der gleich an geht, und nicht tot vor einem liegt, was durchaus nichts ungewöhnliches ist. Da sieht man halt, wie wichtig Simulation ist. :up:
Wird nicht von ungefähr kommen, dass aufgrund der engen Zusammenarbeit und der riesigen Simulationsfarm bei NV neuerdings praktisch jeder Chip als A1 in Massenproduktion geht. NV zahlt hier entweder Unsummen für High-Tech-Equipment oder deren Chip-Konstrukteure sind dermaßen gut mittlerweile. Wird wohl eine Kombination aus beidem sein.

Troyan
2016-04-23, 16:59:23
Das ist nicht korrekt.
Ich schrieb von Consumer: Die Titan war ab Februar 2013 erhältlich, der Vollausbau in Form der 780 Ti sogar erst im November und damit nach Hawaii XT.

Doch, ist es. Ansonsten ist Hawaii auch ein 2015 Chip und viel neuer als GM204. :rolleyes:

Können wir den Nonsense nun lassen? Wäre klasse.

Unicous
2016-04-23, 17:01:22
Die Pro Duo kostet übrigens $1499, nicht $1699, wie ein gewisser FUD-spreader hier mal wieder behauptet.:rolleyes:

https://www.computerdiy.com.tw/amd-polaris-radeon-pro-duo-liquidvr-xconnect/

Googlish:

建議售價為 1,499 美元,將近5萬元台幣的身價,提供給VR遊戲開發者,以及發燒玩家使用,Radeon Pro Duo預計在4/26號上市。

Suggested retail price is $ 1,499, nearly 50,000 yuan worth of NT, available to VR game developers, and enthusiasts use, Radeon Pro Duo expected in the number 4/26.

illidan
2016-04-23, 17:03:50
Doch, ist es. Ansonsten ist Hawaii auch ein 2015 Chip und viel neuer als GM204. :rolleyes:

Können wir den Nonsense nun lassen? Wäre klasse.
Wieso "wir"? Den Nonsens verbreitest nur du.
Es ging um Gaming-Performance und irgendwelche Auslieferungen an HPC-Exklusivkunden, oder was auch immer sonst du meinen könntest, interessieren hier null.

AnarchX
2016-04-23, 17:05:58
[...]
$799-849 US
Vega10 Salvage (HBM) 8 GB VRAM
GP102 Salvage (HBM) 8 GB VRAM

$999 US
Vega10 (HBM) 16GB VRAM
GP102 (HBM) 16GB VRAM
Aus heutiger Sicht wäre, wohl bald 384-Bit GDDR5X für GP102 attraktiver: ~500GB/s. Wo HBM2 momentan wohl noch Probleme hat die 2GHz zu erreichen und eine 2048-Bit Variante bei unter 500GB/s läge. Ebenso kann man wohl auch 16GiB mit den 1,5GiB Modulen realisieren, wenn Micron solche Anfang 2017 liefert.

Aber die Entscheidung dafür ist wohl schon vor vielen Monaten gefallen. Und GDDR5X muss sich erst mal beweisen, immerhin gibt es ja noch gewisse Zweifel ob hier die 64Bit pro Datenzugriff durchgängig von den NV-GPUs verarbeitet werden können.

Wer weiß ob GP102 nicht vielleicht eher als erwartet kommt, GP106 erschien auch plötzlich aus dem Nichts.

Troyan
2016-04-23, 17:16:17
Wieso "wir"? Den Nonsens verbreitest nur du.
Es ging um Gaming-Performance und irgendwelche Auslieferungen an HPC-Exklusivkunden, oder was auch immer sonst du meinen könntest, interessieren hier null.

Ehrlich? Entweder hast du keine Ahnung oder du willst nur trollen.
GK110 als Chip wurde im Juni 2012 ausgeliefert. Hawaii hat erst im Oktober 2013 seinen Weg zu irgendwen gefunden. Offensichtlich ist die Architektur von GK110 über ein Jahr älter als Hawaii. Der Respin hat nichts geändert und entspricht dem, was AMD mit Hawaii im Sommer 2015 beworben hat.

Und wenn du nicht begreifst, dass zwei neue Chips, die innerhalb von zwei Wochen veröffentlicht werden und fast identisch von den Leistungsdaten sind, zu der gleichen Generation gehören, dann brauchen wir in Zukunft nicht weiter diskutieren.

Skysnake
2016-04-23, 17:16:50
Die CRC von NVLink soll ja 25Bit lang sein.

Soweit ich das gesehen habe, verwendet PCI-E eine 32Bit CRC. Hat da jemand nähere Infos insbesondere zu 4.0?

Eine kürzere CRC wäre gut für die Latenz, allerdings steigt damit dann auch der Verschnitt, wenn ich es richtig im Kopf habe.

illidan
2016-04-23, 17:25:08
Und wenn du nicht begreifst, dass zwei neue Chips, die innerhalb von zwei Wochen veröffentlicht werden und fast identisch von den Leistungsdaten sind, zu der gleichen Generation gehören, dann brauchen wir in Zukunft nicht weiter diskutieren.
Brauchen wir wirklich nicht, denn deine Gleichsetzung TFLOPs = zu erwartende Gaming-Leistung ist so fehl am Platz, dass man sie selbst in einem gesonderten Thread nicht diskutieren sollte.

Naennon
2016-04-23, 17:25:45
Die Platine von der der Chip abfotografiert war scheint wohl vom Layout zu MSI zu passen




Das wuerde doch dann bedeuten das hier schon abseits der Referenzboards konstruiert wird


2 mal 8pin? wtf ^^

fondness
2016-04-23, 17:35:10
Wird nicht von ungefähr kommen, dass aufgrund der engen Zusammenarbeit und der riesigen Simulationsfarm bei NV neuerdings praktisch jeder Chip als A1 in Massenproduktion geht. NV zahlt hier entweder Unsummen für High-Tech-Equipment oder deren Chip-Konstrukteure sind dermaßen gut mittlerweile. Wird wohl eine Kombination aus beidem sein.

Das ist mittlerweile üblich, die Simulationen und Tools werden immer besser. Man braucht sich ja nur ansehen, wie oft es früher zu erheblichen Verzögerungen und Fehlschlägen bei Tapeout kam und wie oft das heute noch bei AMD/NV/Intel der Fall ist.

dargo
2016-04-23, 17:52:58
Macht kein Sinn nochmal schon eine 980 ist im Bereich der 390X und braucht 175 Watt weniger Strom.(165 vs 340) 340 Ist die Sparsamste 390X die PCGH getestet hat.AMD selber gibt zu das sie nur 2X bessere Performance per Watt erreichen,also sind sie in 14nm grad mal im Bereich von Maxwell.
Öhm... dir ist aber schon klar, dass die Perf/W Verbesserung sich bei AMD auf Tonga und nicht Grenada XT bis zum Limit hochgeprügelt bezieht? :freak:

BlacKi
2016-04-23, 18:12:17
Öhm... dir ist aber schon klar, dass die Perf/W Verbesserung sich bei AMD auf Tonga und nicht Grenada XT bis zum Limit hochgeprügelt bezieht? :freak:
jap, man müsste beide im perf./watt sweetspot messen, fernab von den custom designs und deren taktraten, um sie ehrlich vergleichen zu können. und selbst dann wäre es schwierig einen festen factor festzulegen der wirklich stimmt.

btt: ich bezweifle stark das amd mit polaris pascal übertumpfen können wird im perf./watt verhältnis. aber wieder näher ran. hieß es nicht das 14nm nur noch 1/3 watt von 28nm verbrauchen wird? also ist abseits der fertigungstechnologie fast nichts verbessert worden.

scully1234
2016-04-23, 18:34:08
2 mal 8pin? wtf ^^

Die Platine darunter stammt von einer 980 GTX, aber das Layout scheint sich nicht geandert zu haben bei MSI

Zu Stromversorgung kann man da noch nix sagen :smile:

Kartenlehrling
2016-04-23, 19:27:38
das Beste ist photobucket.com wo die Fotos von den Chips hochgeladen wurden,
wenn es mit dem Release nicht klappt hat man wenigsten freude am Kalenderblatt.

:tongue:

Mancko
2016-04-23, 20:49:09
Wird nicht von ungefähr kommen, dass aufgrund der engen Zusammenarbeit und der riesigen Simulationsfarm bei NV neuerdings praktisch jeder Chip als A1 in Massenproduktion geht. NV zahlt hier entweder Unsummen für High-Tech-Equipment oder deren Chip-Konstrukteure sind dermaßen gut mittlerweile. Wird wohl eine Kombination aus beidem sein.

Ist vermutlich auch eine Folge der Verzögerungen mit FERMI und weil sie selber ja fett im HPC Geschäft sind. Die werden auch mit Unmengen eigener Hardware Serverfarmen zum Simulieren betreiben.

Hübie
2016-04-23, 21:14:27
An sich relativ unspektakulär und was man halt so etwartet, mit einigen Ausnahmen.

1. IR-Laser Probing? WTF? Habe ich jetzt noch nichts von gehört scheint aber ziemlich cool/nützlich zu sein
2. Die Menge an Palladium Kisten, die die da haben, und vor allem ist es auch interessant, dass Sie auch die ganz neuen ServerRacks von Cadence mit dem Palladium-Nachfolger haben, und auch da nicht nur ein Rack.
3. Bringup in Stunden? Naja, Power an und mal erste Tests, aber validiert ist da dann noch nichts. Trotzdem sehr schön, wenn man einen Chip zurück bekommt, und der gleich an geht, und nicht tot vor einem liegt, was durchaus nichts ungewöhnliches ist. Da sieht man halt, wie wichtig Simulation ist. :up:

Die testen blockweise. In einigen Stunden hast du einen Logikblock getestet. Aber klar: Klingt besser wenn du das Detail am Rande einfach im Satz "vergisst" und vor der Kamera sagst es dauert nur einige Stunden. :biggrin:

Skysnake
2016-04-24, 09:14:56
Das geht ja aber eher schon in Richtung Validierung.

Am ehesten bringste den Chip ja, falls noch nicht geschehen auf ein Package, dann auf nen PCB und dann eben in nen Rechner und schaust, ob das Teil zum Leben erwacht, sprich ob PCI-E schon mal geht und man auf die Register zugreifen kann.

Kann mir auch gut vorstellen, dass die auch direkt das Ding mit Treiber laden. Es ist nur eben schon nicht klar, das man dann auch ein Bild bekommt.

Je nachdem kann da schon noch sehr viel Feintuning an der Clockgenerierung und den SERDES nötig sein, bis das am Ende dann auch wirklich alles zuverlässig funktioniert.

Daher finde ich es auch erstaunlich, dass die den Bringup in Stunden machen. Es gibt heute einfach soooo viele Stellschrauben um die Designs zum Laufen zu bekommen. Und da rede ich jetzt nicht von ner BER von 10^-11 vs 10^-12, sondern von überhaupt funktionieren.

reaperrr
2016-04-24, 12:04:50
Bei AMD kommt schon seit einer Weile ebenfalls fast jeder Chip in A1. Heutzutage ist es durch die gestiegene Komplexität der Chips und die teuren Herstellungsprozesse wohl auch unterm Strich einfacher und günstiger, kleinere Bugs der Hardware software-seitig (ob nun über Bios/ROM oder Treiber) zu beheben oder umgehen.
War auch der Grund warum Kaveri trotz A1-Stepping und älterer Grafik-IP als Bonaire erst zum Jahreswechsel 13/14 kam, da wurden alle Probleme über MicroCode und Treiber behoben.

Complicated
2016-04-24, 12:50:51
Das hat eher etwas damit zu tun, dass diskrete GPUs andere Transistoren nutzen als APUs. Da ist eine ganz eigene Entwicklung mit eigenen Problemen zu Gange. Die selbe GPU-IP kommt immer erst 1 Jahr oder später in den APUs an.

Hübie
2016-04-24, 13:26:09
Was genau meinst du mit anderen Transistoren? :|

Complicated
2016-04-24, 14:57:31
Ich meinte das... Transitoren war zu salopp und nicht exakt:
Die Schwierigkeit ist es, eine Prozessoption zu finden, die nicht einseitig auf CPU- oder GPU-Erfordernisse optimiert ist, wie es beispielsweise bei Richland noch der Fall war. Denn während GPUs typischerweise eine hohe Packdichte für die Transistoren anstreben, um viele Recheneinheiten bei mäßigem Takt auf geringer Fläche unterzubringen, ist bei CPUs die erreichbare Maximalfrequenz wichtiger, da die üblicherweise wenigen Kerne gegenüber dem Cache einen vergleichsweise geringen Platzbedarf haben, serielle Aufgaben aber schnell bewältigen sollen.http://www.pcgameshardware.de/A10-7850K-CPU-258237/Tests/Kaveri-A10-7850K-Spiele-Tests-Benchmarks-APU-1104954/

CountDoku
2016-04-24, 18:46:29
Weiss man denn schon beim Lochabstand ob ich meinen Morpheus da drauf schnallen kann? GP104 wird wohl meine GTX 770 ersetzen. PCGH hat wohl schon Bilder von der MSI gepostet.

Für Antworten wäre ich sehr dankbar:)

Godmode
2016-04-24, 18:46:36
http://www.computerbase.de/2016-04/nvidia-geforce-gtx-1080-pascal-gp104-400-mit-8-gbyte-gddr5x-von-micron/

CountDoku
2016-04-24, 18:51:28
Godmode, das sind doch gute Nachrichten. Ich freue mich auf GP104:)

Und nochmal zu meiner Frage. Passt der Morpheus da drauf?

Zergra
2016-04-24, 19:05:22
Bin ich der einzige der findet das die Bilder die bei cb hochgeladen aussehen wie ein fake? Die Schrift passt ja mal überhaupt nicht dazu.


Und auf dem Bild mit der Die Größe steht auch noch Samsung auf den Speicher...

CountDoku
2016-04-24, 19:07:37
Nein das wird kein Fake sein. Es ist einfach zu offensichtlich. PCGH zeigt ja auch Bilder. Die Frage bleibt bezüglich Lochabstand.

Leider kann AMD erst mit VEGA kontern. Ich brauche aber JETZT ne neue Graka.

Und 8 Gigabyte sind Minimum. Das kann auch gerne was kosten.

woodsdog
2016-04-24, 20:00:35
Na dann stehen die Chancen ja gut das hier die meisten TI/Titan Besitzer wieder erst den kleinen und dann in 6 Monaten den Großen chip kaufen :P

Zergra
2016-04-24, 20:00:42
https://pics.computerbase.de/7/1/9/2/1/2-1080.2746855020.jpg

Da steht doch unter GP 104 zu 100% GM 204

CountDoku
2016-04-24, 20:03:04
Achso du denkst jetzt das Bild wäre fake. OK, Auf PCGH gibts ein genaueres Bild. Von MSI. Also Fake hin fake her. Auf PCGH wird echt sein.

Am Ende warten wir alle auf die Performance von Pascal. Ich mit meiner GTX 770 werde wohl einen riesen Sprung machen.

Complicated
2016-04-24, 20:05:31
Ja ist eindeutig zu entziffern...schlecht gemacht.
Bei CB kann man es gut rein zoomen und dann kann man es lesen.

CountDoku
2016-04-24, 20:06:59
Also sind wir uns einig dass das Bild von PCGH kein Fake ist, oder?

OK jetzt warten wir mal ab. Wir wissen das GP104 im Sommer kommt. Das zählt.

Das Bild ist doch von Videocardz? Ob die sich so natzen lassen? Keine Ahnung was da ab geht.

VooDoo7mx
2016-04-24, 20:14:51
Na dann stehen die Chancen ja gut das hier die meisten TI/Titan Besitzer wieder erst den kleinen und dann in 6 Monaten den Großen chip kaufen :P

Kommt darauf an wie schnell die 1080 wird. Bei spekulierten 2560 Shadern wird sie kaum bis gar nicht schneller als eine 980Ti, Von daher für mich uninteressant.

Ich spekuliere immer noch darauf, dass die 1080 mindestens 3072 Shader haben wird. Das sollte bei über 300mm² und 256Bit SI locker bei 16nm drin sein.

Zergra
2016-04-24, 20:16:10
Also sind wir uns einig dass das Bild von PCGH kein Fake ist, oder?

Der wäre auf jedenfall besser gemacht.

CountDoku
2016-04-24, 20:17:24
Die GTX 1080 wird ganz sicher schneller als alles was mit 980 zu tun hat. Sonst könnten die sich das sparen. Neue Fertigung+Verbesserungen in der Architektur (Async Shader) erwarte ich.

Zergra
2016-04-24, 20:18:15
Die GTX 1080 wird ganz sicher schneller als alles was mit 980 zu tun hat. Sonst könnten die sich das sparen.
Er hat TI geschrieben ;)

CountDoku
2016-04-24, 20:19:27
Ja auch Ti.

Was haben die da rein gesteckt (Geld) alles anderes als schneller wäre enttäuschend.

Gipsel
2016-04-24, 20:19:48
https://pics.computerbase.de/7/1/9/2/1/2-1080.2746855020.jpg

Da steht doch unter GP 104 zu 100% GM 204Da wurden schlicht zwei Bilder halbtransparent übereinander gelegt, um zu zeigen, daß das Layout der Karte zur MSI GTX980 Gaming paßt. Und deswegen sieht man auch die Beschriftungen beider Dies.

Zergra
2016-04-24, 20:21:56
Da wurden schlicht zwei Bilder halbtransparent übereinander gelegt, um zu zeigen, daß das Layout der Karte zur MSI GTX980 Gaming paßt. Und deswegen sieht man auch die Beschriftungen beider Dies.
Habe ich mir auch gedacht, aber das müsste man dann auch an dem GDDR5X Speicher sehen.

Gipsel
2016-04-24, 20:27:18
Habe ich mir auch gedacht, aber das müsste man dann auch an dem GDDR5X Speicher sehen.Der Grad der Transparenz variiert zwischen 0% und 50%, um die Ausrichtung des Package zu demonstrieren ;). Außen ist das GP104-Board komplett zu sehen.

Complicated
2016-04-24, 20:40:51
Ich bin mir nicht so sicher. Beide Bilder stammen von wccftech: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/
Und bei beiden wird die selbe Schrift verwendet mit dem dunklen Hintergrund. Mir scheint es lediglich bei dem einen Bild misslungen zu sein.

Also hier kann man es lesen:
55742

Hier bei diesem nicht, doch die Ähnlichkeiten sind da.
55743

Gipsel
2016-04-24, 20:52:11
Ich bin mir nicht so sicher. Beide Bilder stammen von wccftech: http://wccftech.com/nvidia-pascal-gp104-gpu-gddr5x-leak/
Und bei beiden wird die selbe Schrift verwendet mit dem dunklen Hintergrund. Mir scheint es lediglich bei dem einen Bild misslungen zu sein.

Also hier kann man es lesen:
55742

Hier bei diesem nicht, doch die Ähnlichkeiten sind da.
55743Und beim oberen siehst Du auch das (deutlich größere) GM204-Die im Hintergrund. Unten ist GP104, oben ist GM204 und GP104 überlagert. Schaut doch mal genau hin!

Complicated
2016-04-24, 21:00:00
Ja ich weisst was du meinst. Doch die Schrift bei dem unteren zeigt ungewöhnliche Kompressionsartefakte wenn man es ganz hoch zoomt. Und über dem A1 am Ende gibt es einen seltsamen Block der so nicht entstehen würde. Ich bin mir nicht sicher, doch es sieht seltsam aus:
55744

Gipsel
2016-04-24, 21:18:20
Ja ich weisst was du meinst. Doch die Schrift bei dem unteren zeigt ungewöhnliche Kompressionsartefakte wenn man es ganz hoch zoomt. Und über dem A1 am Ende gibt es einen seltsamen Block der so nicht entstehen würde. Ich bin mir nicht sicher, doch es sieht seltsam aus:
55744Also ich würde in die Kompressionsartefakte nicht zu viel hineininterpretieren. Bedenke, daß das ein Shot ist, der vermutlich mit einem Handy gemacht wurde (wo alle möglichen Algos über das Bild laufen, um z.B. Rauschen zu unterdrücken und Kontraste an Kanten anzuheben), danach beinahe totkomprimiert und mit Wasserzeichen versehen wurde und auf einer Webseite gelandet ist.

Aber egal.

MorPheuZ
2016-04-24, 21:27:46
Es geht doch auf den Bilder nicht um den Chip ansich, sondern das Layout um den Sockel und die Bohrungen. Das Gelbe ist das überlagerte vom GP104

scully1234
2016-04-24, 21:33:09
Da wurden schlicht zwei Bilder halbtransparent übereinander gelegt, um zu zeigen, daß das Layout der Karte zur MSI GTX980 Gaming paßt. Und deswegen sieht man auch die Beschriftungen beider Dies.

Diese elenden Fake Trolle, also impliziert das erstmal gar nicht, das das Layout zu MSI passt.

Die GDDR5X Speicherchips hat man aber, verdaechtig unauffaellig ins Bild gepatcht .:freak:

Wieder zurueck zu den Wurzeln, das erstmal nur Referenz PCBs vom Stapel laufen.

Hat sich aber erstaunlich lange gehalten:smile:

Zergra
2016-04-24, 22:27:37
Ich finde es gibt viel zu viele Gemeinsamkeiten zwischen den beiden Boards. Dazu noch die Schrift im Hintergrund. Das stinkt schon fast...

Naja wir werden es ja bald merken...

Jupiter
2016-04-25, 09:25:11
Leaked GP104-400 is from MSI GeForce GTX 1080 GAMING 8G

http://videocardz.com/59310/leaked-gp104-400-is-from-msi-geforce-gtx-1080-gaming-8g

desert
2016-04-25, 10:41:54
Hm, für mich gerade schwierige Situation. mir ist gerade meine 980 Ti abgeraucht. Jetzt eine TI neu kaufen oder eine kleine 730 bis zum erscheinen der 1080? Wollte eigentlich bis zum Top Dog warten. Ist das denn relativ sicher das das die 1080 so 980 TI niveau erreicht, aber nicht viel mehr?

Wenn ich die vergangenheit schaue dann packt die neue obere Mittelklasse so 10 - 15 im Schnitt auf die alte Highendklasse drauf.

mist, warum muss die gerade jetzt sterben. Bis zum Austausch oder Reparatur dauert das auch 2 Monate.

uweskw
2016-04-25, 10:44:28
@desert

wie abgeraucht?

soLofox
2016-04-25, 10:48:07
wegen der paar wochen würde ich auf jeden fall warten und - sofern vorhanden - den IGP nutzen oder eine kleine grafikkarte einbauen.

die 980ti fällt doch ordentlich im preis wenn die neuen karte erscheinen. abgesehen davon wird die GTX1080 vielleicht ~100EUR aufpreis kosten zur 980ti.

uweskw
2016-04-25, 10:56:18
Polaris 10, 329,00 USD, 8GB und 980TI Niveau. (Wenn es stimmt)
Ich denke momentan ist ein dekbar ungünstiger Moment für Neukauf

greetz
US

desert
2016-04-25, 11:03:04
@desert

wie abgeraucht?

Spannungswandler wohl, ist ein Inno3D 980TI Ichill. Die läuft ein paar Minuten und dann geht Sie aus, Monitore zeigen dann an " kein Eingangsignal" und nach ungefähr einer Minute fährt der Rechner runter und startet neu. Und je öfter das passiert, desto kürzer ist die Zeit bis zum Neustart, packe ich zwei Lüfter vor die Grafikkarte, dauert es länger, aber sobald ich in den 3-Modus wechsel, ist es auch dort vorbei. Karte war unter Wasser mit so max 48 Grad an Chiptemperatur. Doof gelaufen.

desert
2016-04-25, 11:09:00
Polaris 10, 329,00 USD, 8GB und 980TI Niveau. (Wenn es stimmt)
Ich denke momentan ist ein dekbar ungünstiger Moment für Neukauf

greetz
US

Ja das habe ich mir auch gedacht. Der ungünstigste Zeitpunkt wohl momentan. IGP leider nicht vorhanden, ist ein i7 5820.

Naja werde mir günstig eine 730 oder so holen. Für CS wird sie wohl noch reichen;D

Jupiter
2016-04-25, 11:23:04
Warum sollte eine 500€ GTX 1080 nicht die GTX 980Ti überholen können? Wir sind doch vor einem nm-Chipwechsel.

Wenn die das nicht schafft kann ich Pascal gleich vergessen. Selbst die PlayStation 4 soll angeblich ihre Rechenleistung mehr als verdoppeln können.

bananenmann
2016-04-25, 11:26:44
Ich glaub weder, dass Polaris 10 ein 980Ti-Niveau erreicht und dabei lediglich 330 Euro kosten wird, noch, dass die GTX 1080 "nur" 500 Euro kosten wird. Eher 650 Euro ... leider...

iuno
2016-04-25, 11:28:08
330 Euro sowieso nicht, nach Steuern waeren 330$ bei uns ~400€. Aber selbst das ist natuerlich hoechst unrealistisch fuer eine Karte, die 980 Ti Niveau erreichen soll. Der Preis koennte fuer PRO gelten, Leistung fuer XT. Oder nichts davon stimmt.

Jupiter
2016-04-25, 11:29:55
650€ für einen GP104? Da mache ich jedenfalls nicht mit.

Da dies der erste nm-Sprung seit 2012 ist (und 20nm übersprungen wurde) hätte ich für die GTX 1080 50% über der Standard GTX 980Ti geschätzt.

Palpatin
2016-04-25, 11:36:22
Wenn ich die vergangenheit schaue dann packt die neue obere Mittelklasse so 10 - 15 im Schnitt auf die alte Highendklasse drauf.


Die 680 hat ca 30-35% draufgelegt auf die 580.
Die 980 zwar nur ca 10-15% dafür aber gut 20% mehr OC Spielraum als die 780ti.
Kann natürlich jetzt weniger sein, aber mit 20-25% kann man vermutlich schon rechnen, gepaart mit DX 12 Verbesserungen und 2gB mehr, denk da lohnt das Warten.

bananenmann
2016-04-25, 11:41:03
Diese 50% kriegste wahrscheinlich dann mit dem GP102 ...

AnnoDADDY
2016-04-25, 11:43:13
Gp102 sollte locker 100% drauf legen als topdog

Schrotti
2016-04-25, 13:09:24
Ja das habe ich mir auch gedacht. Der ungünstigste Zeitpunkt wohl momentan. IGP leider nicht vorhanden, ist ein i7 5820.

Naja werde mir günstig eine 730 oder so holen. Für CS wird sie wohl noch reichen;D

Na da hab ich Glück. Habe meinem Zweitsys die Graka entrissen ;).

BlacKi
2016-04-25, 15:20:55
Ja das habe ich mir auch gedacht. Der ungünstigste Zeitpunkt wohl momentan. IGP leider nicht vorhanden, ist ein i7 5820.

Naja werde mir günstig eine 730 oder so holen. Für CS wird sie wohl noch reichen;D
raff verkauft ne 290 unter 200€, der preisverfall wird bei der karte nicht gravierend ausfallen in den nächsten 2 monaten, max 40-50€. hinterher kann man sie wieder wieder verkaufen oder sie in der rückhand halten.

Ex3cut3r
2016-04-25, 15:28:43
Also ich finde Release Benches sind sowieso nicht sooooo aussagend, am Anfang sind es 20% nach ein paar Monaten und einigen Treiber macht die Graka dann 40-50% auf die Vorgänger Gen drauf.....

Ailuros
2016-04-25, 16:49:41
Also ich finde Release Benches sind sowieso nicht sooooo aussagend, am Anfang sind es 20% nach ein paar Monaten und einigen Treiber macht die Graka dann 40-50% auf die Vorgänger Gen drauf.....

Teilweise ja weil IHVs die daemliche Angewohnheit haben sich mehr auf die neueste Wahre zu konzentrieren wenn es zu Treiber-Optimierungen kommt. So hoch wird der Leistungs-Unterschied selten aber ob es jetzt 30 oder 35% interessiert wohl weniger.

Ex3cut3r
2016-04-25, 19:27:12
Teilweise ja weil IHVs die daemliche Angewohnheit haben sich mehr auf die neueste Wahre zu konzentrieren wenn es zu Treiber-Optimierungen kommt. So hoch wird der Leistungs-Unterschied selten aber ob es jetzt 30 oder 35% interessiert wohl weniger.

True. Besonders bei Nvidia wird die alte Gen ziemlich vernachlässigt sobald die neue raus ist. :wink:

MFG

Godmode
2016-04-26, 07:43:16
Ob alte Karten noch gepflegt werden, könnt ihr gerne in einem eigenen Thread Diskutieren. In diesem Thread geht es um die Pascal Chips!

Thunderburne
2016-04-26, 08:56:12
Ich bin sehr gespannt wie weit sich der kleine Pascal übertakten lassen wird.
Iwe sagt mein Bauchgefühl das wir unter Wasser mit OC an die 1800MHZ rum bei guten Chips sehen werden.
Natürlich speku aber die 1480Boost beim Big Pascal machen da auf jeden Fall schon mal Hoffnung.

Dural
2016-04-26, 09:28:09
GP104 scheint ziemlich gut ausgewogen zu sein, aber nur mit GDDR5X.
Könnte eine Karte werden wo man lange spass daran hat, relativ nidriger Verbrauch dadurch sicher auch nicht laut und mit 8GB ist man dank Konsolen sicher noch lange mit dabei.

Das dumme ist nur das NV schon in ca. 2 Jahren mit 10nm Volta Chips daher kommen will :freak:

Ailuros
2016-04-26, 10:24:12
GP104 scheint ziemlich gut ausgewogen zu sein, aber nur mit GDDR5X.

Link fuer die relevante unabhaengige Leistungs-Analyse?

Timbaloo
2016-04-26, 10:37:46
Link fuer die relevante unabhaengige Leistungs-Analyse?
Na wenn GP104 mit GDDR5X ausgewogen ist, dann muss GP104 mit GDDR5 ja nicht ausgewogen sein ;D:P

gnomi
2016-04-26, 10:42:00
Die 1080 Karte wird ganz sicher wie die 980 als Gesamtpaket äußerst gut, allerdings wird man einiges auf den Tisch legen dürfen (500-600, je nach Design) und gegenüber der 980TI wahrscheinlich nur 15-25% (je nach Taktung) mehr Performance haben.
Von einer 980 aus kann es sich in WQHD lohnen, falls man die dann noch ordentlich für etwa 300-350 Euro los wird. (doppelter Speicher, 50% mehr GPU Power)
Fraglich bleibt für mich, wie es mit DX 12 bei Pascal aussieht. (wobei das für eine Generation noch in Ordnung geht, so schleppend, wie das hier vorangeht)
Andererseits hat nvidia starken softwareseitigen Support und GSync, was mich eben nicht wechseln lässt.

iuno
2016-04-26, 10:45:39
Na wenn GP104 mit GDDR5X ausgewogen ist, dann muss GP104 mit GDDR5 ja nicht ausgewogen sein ;D:P
Vergleiche Vollausbau mit Salvage. Zwischen 5X und 5 liegen momentan nur 20% Defizit.

Hübie
2016-04-26, 12:26:09
Ich bin sehr gespannt wie weit sich der kleine Pascal übertakten lassen wird.
Iwe sagt mein Bauchgefühl das wir unter Wasser mit OC an die 1800MHZ rum bei guten Chips sehen werden.
Natürlich speku aber die 1480Boost beim Big Pascal machen da auf jeden Fall schon mal Hoffnung.

Gar nicht so abwegig wenn ich daran denke, dass meine GTX 580 auf 940 MHz lief und maximal 980 MHz drin waren. Der ALU-Takt war dann also 1880 bzw. 1960 MHz :eek: :D Die konnte sich somit also auch mit der GTX 680 anlegen.

@iuno: Die Granularität holt aber noch einiges heraus. Nur Prozente machen da nicht den Unterschied.

iuno
2016-04-26, 12:41:45
Kannst du naeher erlaeutern? Die Granularitaet ist bei GDDR5 feiner, was die Zugriffe anbelangt. Inwiefern soll das einen positiven Einfluss fuer GDDR5X haben?

Hübie
2016-04-26, 13:15:54
Granularität ist ja nicht die "Feinkörnigkeit" sondern die "Passgenauigkeit". Die Zugriffe von GDDR5X haben weniger Latenz und können pro Zugriff mehr befördern. Eine Cacheline hat ja auch 64 Byte, also wird es wohl so weniger Zyklen geben. So stelle ich es mir zumindest vor. :smile: Hab GDDR5X noch nicht in Aktion gesehen.

Nightspider
2016-04-26, 13:42:00
Ich bin sehr gespannt wie weit sich der kleine Pascal übertakten lassen wird.
Iwe sagt mein Bauchgefühl das wir unter Wasser mit OC an die 1800MHZ rum bei guten Chips sehen werden.
Natürlich speku aber die 1480Boost beim Big Pascal machen da auf jeden Fall schon mal Hoffnung.

Das war in etwa auch meine Vermutung nach der Pascal Vorstellung.
Maxwell ging Kepler gingen ja schon sehr gut ab mir Wasser.

Ich hoffe immer noch auf GTX980ti +40-50% Leistung mit einer stark übertakteten GP104-400 GPU. Wir werden sehen. :D

Palpatin
2016-04-26, 13:50:41
Ich hoffe immer noch auf GTX980ti +40-50% Leistung mit einer stark übertakteten GP104-400 GPU. Wir werden sehen. :D
Mit ner GP104-400 stark übertaktet ca40-50% auf ne Stock980ti? Sollte locker drinnen sein.
Eine stark übertaktete 980ti schafft ja auch bis zu 40% auf die Stock 980ti.

Hübie
2016-04-26, 14:31:13
Könntet ihr das mal quantifizieren? Was heißt stark übertaktet bei der 980 ti und wo schafft die dann 40%? :| Faktor 1,4 konnte ich jedenfalls selbst mit 1500|4000 nicht feststellen. Mag da Ausnahmen geben, die ich gerade nicht kenne.

Nightspider
2016-04-26, 14:35:35
Stark übertaktet = so das es nicht höher geht. :D

Bei Wakü bedeutet das schon erhöhte Spannung und an der Grenze des Machbaren.

40% sehe ich jetzt auch nirgends bei einer 980ti. Die boostet doch schon auf 1,2Ghz wenn ich mich nicht irre.

Palpatin
2016-04-26, 14:39:45
Könntet ihr das mal quantifizieren? Was heißt stark übertaktet bei der 980 ti und wo schafft die dann 40%? :| Faktor 1,4 konnte ich jedenfalls selbst mit 1500|4000 nicht feststellen. Mag da Ausnahmen geben, die ich gerade nicht kenne.
Ab so 1550 müsste man langsam an die 40% rankommen. Wenn ich mich recht erinnere haben das hier auch einige hinbekommen.

LSSJBroly
2016-04-26, 14:41:15
Die boostet doch schon auf 1,2Ghz wenn ich mich nicht irre.

Das Referenzdesign eher im Bereich von rund 1.100 MHz (dank des Kühlers), ohne Temperaturdrossel eher im Bereich von 1.150 MHz.

Hatstick
2016-04-26, 14:44:44
Kommen 100% Mehrleistung von meiner GTX780 @ 1,1GHz auf eine OC GTX1080 grob hin oder ist das zu optimistisch?

BlacKi
2016-04-26, 14:46:35
Das Referenzdesign eher im Bereich von rund 1.100 MHz (dank des Kühlers), ohne Temperaturdrossel eher im Bereich von 1.150 MHz.
selbst von 11hundert wären 1500 nur 36%mehr takt. dabei schafft nichtmal jede 980ti stabile 1500.

Palpatin
2016-04-26, 14:49:40
Das Referenzdesign eher im Bereich von rund 1.100 MHz (dank des Kühlers), ohne Temperaturdrossel eher im Bereich von 1.150 MHz.
Richtig, die Stock kann zwar in der Theorie auf 1200 hoch boosten. Normal sind aber 1100 wenn die Karte richtig gefordert wird. Eine unter Wasser gesetzte die auf 1550 fixiert ist ist halt dann ~40% schneller.
Ein GP104 der unter Wasser mit max OC 40% auf die Stock 980ti drauflegt wäre also alles andere als spektakulär.

LSSJBroly
2016-04-26, 14:50:42
Kommen 100% Mehrleistung von meiner GTX780 @ 1,1GHz auf eine OC GTX1080 grob hin oder ist das zu optimistisch?

Dürfte in etwa Hinkommen. Ich bin von einer 780 OC auf die 980 Ti OC umgestiegen und hab im Mittel ein Plus von gut 70 % feststellen können. In einzelfällen aber auch mal 100% mehr - gerade in neueren Games.


dabei schafft nichtmal jede 980ti stabile 1500.

Ich brauche für über 1.400 MHz schon über 1,22V :redface:

BlacKi
2016-04-26, 14:52:24
Kommen 100% Mehrleistung von meiner GTX780 @ 1,1GHz auf eine OC GTX1080 grob hin oder ist das zu optimistisch?
nehmen wir mit OC 40% gegenüber 980ti dann, 132% gegenüber einer stock 780.


Ich brauche für über 1.400 MHz schon über 1,22V :redface:
laufen die stock nicht mit höherer spannung?

Dural
2016-04-26, 15:09:39
Naja die 1480MHz auf der P100 lassen schon hoffen.
Ausgehend davon erwarte ich max OC sogar um die 2GHz für GP104.
selbst meine 980 G1 mit 81,7% ASIC schaft 1,6GHz, da sind die 2GHz nicht mehr all zu weit weg. Die grosse Unbekannte ist halt die neue Fertigung, wie die Skaliert wissen wir noch nicht.

LSSJBroly
2016-04-26, 15:11:09
laufen die stock nicht mit höherer spannung?

GM200 läuft stock mit um die 1187 bis 1199mV.

Hübie
2016-04-26, 15:24:55
Ab so 1550 müsste man langsam an die 40% rankommen. Wenn ich mich recht erinnere haben das hier auch einige hinbekommen.

Ne du. Das muss schon wirklich ein Ausnahmefall sein (wenn du einen kennst, schick mir mal den link).
Ich hatte mir vor einiger Zeit mal die Mühe gemacht und eine Liste aller im Luxx gelisteten Karten zu machen:

durchschnittlicher Basistakt: 1105 MHz
durchschnittlicher Maximaltakt @default: 1311 MHz bei 72% ASICQ
durchschnittliche Spannung @default: 1193 mV
durchschnittlicher Maximaltakt bei OC mit positivem Voltageoffset: 1509 MHz


Gemittelt wurden 62 Modelle von denen die meisten custom-PCBs sind. OC Werte von Igor seine Berichte auf THG. Nur damit ihr Anhaltspunkte habt.

iuno
2016-04-26, 15:48:48
Granularität ist ja nicht die "Feinkörnigkeit" sondern die "Passgenauigkeit". Die Zugriffe von GDDR5X haben weniger Latenz und können pro Zugriff mehr befördern. Eine Cacheline hat ja auch 64 Byte, also wird es wohl so weniger Zyklen geben. So stelle ich es mir zumindest vor. :smile: Hab GDDR5X noch nicht in Aktion gesehen.
Passgenauigkeit? :uponder:

Wo kommt es her, dass 5X niedrigere Latenzen hat? Habe mich mangels Interesse nicht detailliert in 5X eingelesen, tendenziell wuerde ich aber genau das Gegenteil erwarten. Der Prefetch ist mit QDR groesser (2x) und der reale Takt (Command clocK) sinkt ja erstmal deutlich (von max. 2 GHz (8 Gbps GDDR5) auf 1,25 GHz (10 Gbps GDDR5X)).

Der_Korken
2016-04-26, 16:06:21
Beim OC der 980Ti sollte man nicht die Speicherbandbreite außer Acht lassen. Von 7Ghz auf 8Ghz sind gerade mal 14% und mehr habe ich bisher noch nicht gesehen, auch bei krassem OC. Das heißt natürlich nicht, dass die Speicherbandbreite immer die Leistung limitiert, aber man sollte die Mehrleistung nicht nur anhand des Chiptaktes bei OC abschätzen. Ich denke, wenn GP104 so viel Power hat, dass man selbst mit 12Gbps GDDR5X schon über Bandbreitenlimitierungen nachdenken müsste, wären sie gleich auf 384bit SI hochgegangen. Zumal die kleinen Modelle gar mit GDDR5 auskommen müssen.

Godmode
2016-04-26, 16:28:52
Beim OC der 980Ti sollte man nicht die Speicherbandbreite außer Acht lassen. Von 7Ghz auf 8Ghz sind gerade mal 14% und mehr habe ich bisher noch nicht gesehen, auch bei krassem OC. Das heißt natürlich nicht, dass die Speicherbandbreite immer die Leistung limitiert, aber man sollte die Mehrleistung nicht nur anhand des Chiptaktes bei OC abschätzen. Ich denke, wenn GP104 so viel Power hat, dass man selbst mit 12Gbps GDDR5X schon über Bandbreitenlimitierungen nachdenken müsste, wären sie gleich auf 384bit SI hochgegangen. Zumal die kleinen Modelle gar mit GDDR5 auskommen müssen.

Man kann stark davon ausgehen, dass die Speicherkompression weiter verbessert wurde. Somit dürfte die reale Bandbreite deutlich höher sein, als das was auf dem Papier steht.

Dural
2016-04-26, 16:41:44
Muss nicht unbedingt sein, schon Maxwell geht extrem gut mit der Bandbreite um. Vielleicht können wir ja auch von sehr guten GDDR5X OC profitieren, da könnte gut was gehen.
Um die Bandbreite beim GP104 mit GDDR5X mache ich mir keine sorgen, das wird schon passen.

Hübie
2016-04-26, 16:49:58
Passgenauigkeit? :uponder:

Wo kommt es her, dass 5X niedrigere Latenzen hat? Habe mich mangels Interesse nicht detailliert in 5X eingelesen, tendenziell wuerde ich aber genau das Gegenteil erwarten. Der Prefetch ist mit QDR groesser (2x) und der reale Takt (Command clocK) sinkt ja erstmal deutlich (von max. 2 GHz (8 Gbps GDDR5) auf 1,25 GHz (10 Gbps GDDR5X)).

War salopp ausgedrückt: Man versteckt die Latenzen besser. Die wirklichen Latenzen sind in der Tat sehr ähnlich bzw. sogar gleich.
Und zu den Taktraten:
http://abload.de/img/gddr5x_clocks1rs0u.png (http://abload.de/image.php?img=gddr5x_clocks1rs0u.png)

Das gilt natürlich für ein GDDR5X-Modul (fallback).

Beim OC der 980Ti sollte man nicht die Speicherbandbreite außer Acht lassen. Von 7Ghz auf 8Ghz sind gerade mal 14% und mehr habe ich bisher noch nicht gesehen, auch bei krassem OC. Das heißt natürlich nicht, dass die Speicherbandbreite immer die Leistung limitiert, aber man sollte die Mehrleistung nicht nur anhand des Chiptaktes bei OC abschätzen. Ich denke, wenn GP104 so viel Power hat, dass man selbst mit 12Gbps GDDR5X schon über Bandbreitenlimitierungen nachdenken müsste, wären sie gleich auf 384bit SI hochgegangen. Zumal die kleinen Modelle gar mit GDDR5 auskommen müssen.

Problem: GDDR5 trainiert sich selber. Setz ich den Takt rauf, ändern sich die Latenzen. Somit geht die Skalierung flöten und wird sogar ins Negative verkehrt wenn die CRC nicht stimmt.
Weiterhin bin ich mir bis heute nicht sicher welche Taktraten man nun wirklich beeinflußt. Wenn alle von einem Oszi kommen und auch gemeinsam gesteuert werden; okay. Dann hebt man alle im gleichen Maße an (oder senkt diese ab). Hat man jedoch mehrere Quellen... Nun ja dann läufts irgendwann so asynchron dass die Zeitfenster stets über- oder unterschritten werden.
Und mit Kompression geht man meistens oder eigentlich immer einen Kompromiss ein. Also hat man hier ebenfalls nur begrenzte Möglichkeiten. Reißt wahrscheinlich auch nicht mehr viel rum.

ndrs
2016-04-26, 17:08:42
Problem: GDDR5 trainiert sich selber. Setz ich den Takt rauf, ändern sich die Latenzen. Somit geht die Skalierung flöten und wird sogar ins Negative verkehrt wenn die CRC nicht stimmt.
Ich meine es so verstanden zu haben, dass es bei dem Latenztuning durch Training nicht um die Vermeidung von Bitfehlern durch zu hohe Taktraten geht sondern um die "Anpassung" der Leitungslängen (16/32bit pro Speicherchip) auf dem PCB. Es hieß ja immer, dass dadurch das Layouten vereinfacht wird. Die dadurch veränderten Latenzen haben nichts mit den chipinternen Zugriffszeiten zu tun und sollten sich unterhalb einer Taktperiode befinden und keinen Einfluss auf die Bandbreite haben.

Falls ich damit falsch liege bitte ich um Korrektur.

Gipsel
2016-04-26, 17:13:20
Problem: GDDR5 trainiert sich selber. Setz ich den Takt rauf, ändern sich die Latenzen. Somit geht die Skalierung flöten und wird sogar ins Negative verkehrt wenn die CRC nicht stimmt.Das Linktraining hat mit den Latenzen nichts zu tun. Beim Training werden die Phasenverschiebungen der Signale auf den einzelnen Pins eingemessen (wegen ungleicher Leitungslänge oder nicht perfekt identischer Impedanz), so dass die im späteren Betrieb über mit den ermittelten Delays programmierte Phasenschieber in den PHYs vernünftig gesampled werden können. Das dient also nur dazu, das "Auge" des Signals perfekt zu erwischen, auch wenn die Leitungen eben nicht alle perfekt identisch sind. Die geschobene Phase bemißt sich da typischerweise zu einer Handvoll Pikosekunden, also deutlich weniger als ein Taktzyklus.
Und die von Mismatches des CRC-Codes ausgelösten Retransmits haben mit der Latenz als solcher auch nicht wirklich was zu tun. Das ist ein Indiz, daß die PHYs (im Controller oder in den Modulen) über die Leitungen halt nicht mehr zuverlässig fehlerfrei kommunizieren können, sprich, der Takt ist bereits etwas zu hoch für die Komponenten (zumindest wenn die Performance bereits sinkt, ab und zu ein Retransmit ist normal).

Daß bei Änderung des Taktes eventuell die Latenzen angepaßt werden, liegt schlicht daran, daß die häufig absolut in Nanosekunden definiert sind (bzw. in variable Anzahl von Takten in Abhängigkeit von der Frequenz, was meist auf das Gleiche hinausläuft). Wird also der Takt innerhalb der Spezifikationen geändert, paßt der Speichercontroller typischerweise auch die Latenzen (innerhalb der Spezifikation) an. Wird übertaktet, könnte man natürlich versuchen, die Latenzen in Takten gezählt konstant zu lassen (man verläßt ja eh die Spezifikation damit). Oft wird aber vermutlich der Weg gewählt, die in absoluter Zeit spezifizierten Latenzen weiterhin einzuhalten, was schlicht meist dazu führen dürfte, daß höhere Taktraten erreicht werden können, bevor es instabil wird.

Raff
2016-04-26, 17:13:46
Die Menge an L2$ von GP104 wird entscheidend sein, wie gut er mit der Speichertransferrate umgeht. GK104 war diesbezüglich eher krüppelig (0,75 MiByte), GK110 bot schon 1,5 MiByte und schlug sich diesbezüglich sehr gut. GP100 verfügt über 4 MiByte L2, was pro (SP-)Einheit mehr ist als die 3 MiByte eines GM200. Wenn GP104 ebenfalls 4 MiByte trägt, wäre er wohl ein Monster – angesichts der spekulierten ~300 mm² sehe ich das aber nicht.

MfG,
Raff

iuno
2016-04-26, 17:15:03
War salopp ausgedrückt: Man versteckt die Latenzen besser. Die wirklichen Latenzen sind in der Tat sehr ähnlich bzw. sogar gleich.
Und zu den Taktraten:
http://abload.de/img/gddr5x_clocks1rs0u.png (http://abload.de/image.php?img=gddr5x_clocks1rs0u.png)

Das gilt natürlich für ein GDDR5X-Modul (fallback).
Ja, was ist mit den Taktraten?
"Example": 1,5 GHz; das waere ein 12 GBps Modul, die gibt es aber noch nicht, sondern nur 10er (1,25 GHz). 8 Gbps GDDR Module dagegen schon (2 GHz). Sollten jetzt beide etwa eine CL von 10 Takten (keine Ahnung) haben, steigt die absolute Latenz doch an.

Gipsel
2016-04-26, 17:19:18
Ja, was ist mit den Taktraten?
"Example": 1,5 GHz; das waere ein 12 GBps Modul, die gibt es aber noch nicht, sondern nur 10er (1,25 GHz). 8 Gbps GDDR Module dagegen schon (2 GHz). Sollten jetzt beide etwa eine CL von 10 Takten (keine Ahnung) haben, steigt die absolute Latenz doch an.Bei Modulen vergleichbarer Qualität ist die absolute Latenz (in Nanosekunden) mehr oder weniger konstant (die in Takten ändert sich entsprechend). Auch über verschiedene DRAM-Technologien hinweg (DDR2/3/4, GDDR3/4/5[X]). Das wird nämlich nicht durch das Interface limitiert, sondern vom Zugriff auf die eigentlichen DRAM-Zellen, die eigentlich überall ziemlich gleich sind (und was auch mit der Prozessgröße praktisch nicht mehr skaliert).

ndrs
2016-04-26, 17:48:23
@Gipsel: Hättest nicht wenigstens schreiben können, dass ich recht habe? Nur für mein bemitleidenswert geringes Selbstwertgefühl :D :D

Hübie
2016-04-26, 17:52:25
Ich meine es so verstanden zu haben, dass es bei dem Latenztuning durch Training nicht um die Vermeidung von Bitfehlern durch zu hohe Taktraten geht sondern um die "Anpassung" der Leitungslängen (16/32bit pro Speicherchip) auf dem PCB. Es hieß ja immer, dass dadurch das Layouten vereinfacht wird. Die dadurch veränderten Latenzen haben nichts mit den chipinternen Zugriffszeiten zu tun und sollten sich unterhalb einer Taktperiode befinden und keinen Einfluss auf die Bandbreite haben.

Falls ich damit falsch liege bitte ich um Korrektur.

Siehe Gipsel (Danke ecuh beiden:)). Training ist dann hier wohl das falsche Wort. Also ich meinte die automatische Anpassung der Latenzen wenn man den Takt verändert.*
Aber jetzt hab ich das auch mit der Phasenverschiebung kapiert. :biggrin: Ist das dass s.g. Clock-skew (also das "Auge")? Bringe das damit in Zusammenhang.
Bzgl. Fehler: Von Kepler weiß ich noch dass die ECC eingreifen kann (weiß gerade nicht welches Level). Wenn die CRC ein Toleranzlevel überschreitet wird noch einmal übertragen. Ich denke daher kommen auch Bildartefakte. Die Toleranz ist vielleicht nicht erreicht.

@iuno: Das du nur kaufbares meintest war mir A) nicht klar, B) wissen wir das noch nicht genau und C) vermute ich mal wird man erst mal konservativ takten um die Ausbeute auf einem sehr hohen Level zu halten.

Edit: *Das hat man mit dem IMC in einer CPU nicht. Das scheint also ein starres Logikgatter zu sein, dass in die MR der Module die einprogrammierten Werte "kopiert" und fertig.

BlacKi
2016-04-26, 19:12:31
Muss nicht unbedingt sein, schon Maxwell geht extrem gut mit der Bandbreite um. Vielleicht können wir ja auch von sehr guten GDDR5X OC profitieren, da könnte gut was gehen.
Um die Bandbreite beim GP104 mit GDDR5X mache ich mir keine sorgen, das wird schon passen.
wer hat es schon mal gestestet? es ist geradezu lächerlich wieviel fps speichertakt OC bei meiner 970 ausmacht, aber der stromverbrauch drastisch ansteigt, fast 8-10% mehr saft will sie. +10% bringen 2-3% mehr leistung. deshalb mache ich mir bei pascal keine sorgen. umso geringer der speichertakt angesetzt wird umso effizienter wird die karte.

Hübie
2016-04-26, 20:34:05
Also von 7200 auf 8000 (1800->2000) MHz gewinne ich 4-5%. PT liegt dabei im Schnitt bei 10% mehr. Allerdings ist mein Defaultakt der GPU schon bei 1418 Mhz.

BlacKi
2016-04-26, 21:54:43
mal bilder gemacht.

der speicher vorteil von gddr5x würde in meinem fall umgerechnet ca. 15% vorteil ggü. 4000mhz gddr5x bringen beim selben chip aber 50% mehr bandbreite, allein durch den speicher. entweder wird die 1070 teurer als die 970 oder man beschneidet die 1070 nochmals, um auf die knappen 20-25% zu kommen, um die 1080 für 650$ verkaufen zu können.

Hübie
2016-04-26, 22:08:48
mal bilder gemacht.

Plural? Und das was du da Bild nennst würde ich eher Matschepampe nennen. Vor allem welches Spiel und welche Szene?

der speicher vorteil von gddr5x würde in meinem fall umgerechnet ca. 15% vorteil ggü. 4000mhz gddr5x bringen beim selben chip aber 50% mehr bandbreite, allein durch den speicher. entweder wird die 1070 teurer als die 970 oder man beschneidet die 1070 nochmals, um auf die knappen 20-25% zu kommen, um die 1080 für 650$ verkaufen zu können.

Die könnten die auch teurer machen und mehr beschneiden. :P Deine graue Theorie suggeriert dass du Langeweile hast.

BlacKi
2016-04-26, 22:32:57
Plural? Und das was du da Bild nennst würde ich eher Matschepampe nennen. Vor allem welches Spiel und welche Szene?

Die könnten die auch teurer machen und mehr beschneiden. :P Deine graue Theorie suggeriert dass du Langeweile hast.
bf4. in division ist der vorteil nur halb so hoch.

etwas abseits vom getümmel.

jap, habs erst hinterher bemerkt.

yes sir. generell langeweile habe.

iuno
2016-04-27, 10:37:30
Gibt es eigentlich noch keine Hinweise auf mobilen Einsatz von GP104? Ist es denkbar, dass etwa der 150er in Notebooks kommt und dort statt GM204 gegen Polaris 10 gestellt wird?

Thunderburne
2016-04-27, 15:13:36
Dürfte in etwa Hinkommen. Ich bin von einer 780 OC auf die 980 Ti OC umgestiegen und hab im Mittel ein Plus von gut 70 % feststellen können. In einzelfällen aber auch mal 100% mehr - gerade in neueren Games.




Ich brauche für über 1.400 MHz schon über 1,22V :redface:
Meine 980Ti war auch nicht ohne lief seit Juli 2015 1.274V 1506/4001 ohne muren.
Was solls sie ist verkauft 600 Euro waren zu verlockend jetzt muss ich die Zeit auf der IGPU Totschlagen oder auf der PS4 von meinem Bruder .
Da Frühjahr ist ruft der Garten iwe schlag ich mich bis zur GTX1080 noch durch.;D

Rampage 2
2016-04-27, 16:43:17
Ja, was ist mit den Taktraten?
"Example": 1,5 GHz; das waere ein 12 GBps Modul, die gibt es aber noch nicht, sondern nur 10er (1,25 GHz).

Micron kann jetzt schon 10, 11 und 12 Gbps GDDR5X-Module ausliefern. Aber steht es denn jetzt fest, dass NV nur 10Gbps beim GP104-400 verbaut oder besteht immer noch eine realistische Chance, dass es 11 oder 12 Gbps sein können?

R2

Dural
2016-04-27, 16:53:12
das 10er drauf sind muss nicht unbedingt sein. es ist schlisslich ja nur eine frühe test karte auf dem foto. kann gut sein das die retail karten was anderes haben.

jedoch ist in der regel schon das drauf womit getestet wird. kann mich an keine karte erinnern wo plötzlich besserer speicher drauf war.

iuno
2016-04-27, 16:53:21
Das kann dir hier keiner sagen, moeglich ist es schon, wenn auch imho unwahrscheinlich. Aber warum haengst du dich so daran auf? So wie die Ingenieure den Chip geplant haben, wird er schon nicht verhungern. Und nein, Micron liefert bisher nicht alles sondern nur 10 Gbps aus, 11/12 sind gerademal im sampling.

scully1234
2016-04-27, 17:09:16
Micron kann jetzt schon 10, 11 und 12 Gbps GDDR5X-Module ausliefern.



https://www.micron.com/products/dram/gddr/gddr5x-part-catalog#/

Koennte knapp werden fuer alles ueber 10Gbps

Gibt es eigentlich noch keine Hinweise auf mobilen Einsatz von GP104? Ist es denkbar, dass etwa der 150er in Notebooks kommt und dort statt GM204 gegen Polaris 10 gestellt wird?


Der Gedanke ist wohmoeglich nicht mal der verkehrteste, wenn man das Schlachtfeld ,nicht komplett dem Mitbewerber ueberlassen will

Rampage 2
2016-04-27, 17:49:22
Das kann dir hier keiner sagen, moeglich ist es schon, wenn auch imho unwahrscheinlich. Aber warum haengst du dich so daran auf? So wie die Ingenieure den Chip geplant haben, wird er schon nicht verhungern. Und nein, Micron liefert bisher nicht alles sondern nur 10 Gbps aus, 11/12 sind gerademal im sampling.

Es hat eigentlich keinen rationalen Grund - ich habe einen Hang zu runden Zahlen. Deswegen hoffe ich, dass es 12Gbps - also 384GB/sek. Bandbreite - werden:freak:

R2

Loeschzwerg
2016-04-27, 19:24:55
das 10er drauf sind muss nicht unbedingt sein. es ist schlisslich ja nur eine frühe test karte auf dem foto. kann gut sein das die retail karten was anderes haben.

jedoch ist in der regel schon das drauf womit getestet wird. kann mich an keine karte erinnern wo plötzlich besserer speicher drauf war.

Wenn die Karte den gleichen Stand hat wie der GP104 darauf, dann ändert sich da eigentlich nichts mehr. (Qualification Sample)

y33H@
2016-04-27, 19:28:12
Gibt es eigentlich noch keine Hinweise auf mobilen Einsatz von GP104? Ist es denkbar, dass etwa der 150er in Notebooks kommt und dort statt GM204 gegen Polaris 10 gestellt wird?Freilich gibt es die, auch die Anzahl der SKUs samt Specs ist gegeben bzw liegt vor.

Jedoch kriegen zumindest da WTF-Tech und Co offenbar da ihre Finger nicht dran oder haben kein Interesse daran es zu leaken :biggrin:

iuno
2016-04-27, 19:37:08
Gut, das ist (fuer uns) jetzt nicht minder dreist als ein Leak :P

scully1234
2016-04-27, 19:52:23
Elvis has left the building:P

AffenJack
2016-04-27, 19:53:28
Gut, das ist (fuer uns) jetzt nicht minder dreist als ein Leak :P

y33H@ trollt aber auch gerne, dementsprechend weiß man nix;)

y33H@
2016-04-27, 20:03:03
Ein bisschen was wollen wir auch für uns behalten dürfen =)

Sunrise
2016-04-27, 20:10:56
Gebe es nicht danach bald Volta, dann würde ich sagen, dass GP104 wieder ein langes Leben haben wird. Ob Volta da irgendwas groß dran drehen kann bezweifle ich. Alleine der Spielraum mit GDDR5X und im Vergleich zu HBM deutlich günstigere Aufbau wird sein Übriges tun.

Nakai
2016-04-27, 22:52:18
Es gibt mindestens eine Mobil-SKU mit GP104. Ein geleaktes Bild muss eine mobile Platine sein.

Rampage 2
2016-04-28, 01:02:18
Und nein, Micron liefert bisher nicht alles sondern nur 10 Gbps aus, 11/12 sind gerademal im sampling.

Was bedeutet das konkret, wenn ein Produkt sich im "Sampling" Status befindet?

zum GP104-Launch: so, wie ich es bis jetzt gelesen habe, könnte es bereits im Juli 2016 kaufbare GP104-Produkte geben - oder wird das nix mehr im Sommer 2016?

Was die UVP angeht: IMO wird NV dass Ding entweder für 499$ oder für 599$ auf den Markt werfen - so dass es bei uns 530-550€ bzw. 630-650€ kosten wird. Bei Letzterem (599$) müsste das Teil aber auch deutlich schneller (15-30%) als eine 980 Ti sein, oder was soll sonst als Kaufgrund herhalten?:|

Warum sollte es überhaupt zum Preis einer 980Ti (650-700€) kommen? Die 980 (ohne Ti) war schneller als die 780 Ti (UVP 649$) und kam trotzdem mit einer UVP von 499$ - eben dieselbe Preisklasse wie 2012 die 680. Der GP104 soll ja das neue High-End werden - wie die 980. Und GP102 ("1080 Ti", "Titan III") dann als Ablösung für GM200 - sofern sie überhaupt für den Consumer-Segment kommt...

R2

Palpatin
2016-04-28, 08:13:37
zum GP104-Launch: so, wie ich es bis jetzt gelesen habe, könnte es bereits im Juli 2016 kaufbare GP104-Produkte geben - oder wird das nix mehr im Sommer 2016?

Die letzten Gerüchte gingen eher in Richtung Hardlaunch Anfang/Mitte Juni. Passt auch zum aktuellen Preisverfall der aktuellen Generation.

BigKid
2016-04-28, 09:40:50
Der Gedanke ist wohmoeglich nicht mal der verkehrteste, wenn man das Schlachtfeld ,nicht komplett dem Mitbewerber ueberlassen will
Hatte ich vor ein paar Seiten schonmal drauf hingewiesen:
NVidias Drive PX 2 hat letztlich auch 2 MXM Module mit GPUs drauf drauf (nein ich Stottere nicht ;) )...
http://www.anandtech.com/show/9903/nvidia-announces-drive-px-2-pascal-power-for-selfdriving-cars

Und ich meine jetzt auf der GTC haben sie dann doch noch ein Drive PX2 mit ECHTEN Pascals gezeigt ?
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/GTC-Eroeffnungs-Keynote-Live-Stream-Live-Ticker-deutsch-1191315/

Auch aus der Ecke heraus kann/darf es eigentlich nicht mehr allzu lange dauern...
Abgesehen davon scheint NVIDIA (oder die Laptophersteller) tatsächlich bestrebt die Lücke zwischen Desktop und Laptop zu schliessen...
Siehe die GTX980 (ohne M) für Laptops... Aber auch die GTX980M ist schon nicht ohne...

Hübie
2016-04-28, 09:49:54
Sampling heißt in dem Falle dass keine Änderungen an der Hardware mehr stattfinden und auch kein debugging mehr gemacht wird sondern zwischen verschiedenen Optionen eine gewählt werden muss. Bei Speicher also primär Clock und Duty-cycles.

y33H@
2016-04-28, 22:46:07
Mal gucken ob und was nächste Woche nach dem Editor's Day leakt, da soll der nämlich laut Videocardz (http://videocardz.com/59459/nvidia-pascal-editors-day-next-week) stattfinden.

Limit
2016-04-29, 07:57:37
Wenn AMD einen salvage Vega brauchen sollte um die GP104-400 Leistung zu erreichen ist perf/mm2 eben nicht besser fuer AMD.
Da es analog zu Polaris wohl auch zwei Vega Chips geben wird, hängt das davon ab, welchen davon du meinst und wie groß der sein wird. Du solltest bei so etwas also mit angeben, welche Größe und Performance du von Vega erwartest.

Du gehst bei Vega10 gerademal von 350mm^2 aus? Und NV überlässt man dann erneut die klare Performancekrone darüber?
Für den kleinen Vega-Chip dürften 350mm² ausreichen schließlich muss er auch nur gegen GP104 antreten. Der große Vega-Chip kümmert sich dann um GP100/102 und darf dann an die Grenzen des machbaren gehen.

Nunja, mit Polaris- und weiteren Architekturverbesserungen wäre Vega mit HBM2 und 4096 ALUs natürlich wieder schneller als GP104. Nur eben auch deutlich teurer.
4096 ALUs würden eine Größe von ungefähr 350mm² ergeben. Damit wäre er nicht wesentlich größer als GP104. HBM2 ist teuer, allerdings wird GDDR5X auch teurer sein als GDDR5.

Das mit Vega ist leider etwas verwirrend, denn wir kennen nur 2017 als Datum und dann gleich 2 Chips die beide auch Salvages haben müssen. Das ist irgendwie etwas viel, auch wenn das natürlich ein sehr gutes Lineup zuließe.
Ein Lineup mit vier Chips ist eigentlich klassisch:
Cap Verde (120mm²) -> P11
Pitcairn (212mm²) -> P10
Tahiti (352mm²) -> Vega 10
Hawaii / Fiji (438/598mm²) -> Vega 11

Damit hätte man auch Orientierungspunkte für mittelfristiges Preisgefüge für die neuen Chips. Einzig beim großen Vega ist noch nicht klar wie groß er letztendlich sein wird.

330 Euro sowieso nicht, nach Steuern waeren 330$ bei uns ~400€.
330$ sind ungefähr 290€. Darauf dann 19% MwSt ergeben nach meiner Rechnung ~345€.

Ailuros
2016-04-29, 08:32:37
Da es analog zu Polaris wohl auch zwei Vega Chips geben wird, hängt das davon ab, welchen davon du meinst und wie groß der sein wird. Du solltest bei so etwas also mit angeben, welche Größe und Performance du von Vega erwartest.

Den Sinn einer Hypothese wirst Du wohl verstehen oder? Wenn AMD einen salvage part brauchen sollte um GP104-400 zu schlagen, dann ist die perf/mm2 Relation nicht unbedingt besser bei AMD.

Für den kleinen Vega-Chip dürften 350mm² ausreichen schließlich muss er auch nur gegen GP104 antreten. Der große Vega-Chip kümmert sich dann um GP100/102 und darf dann an die Grenzen des machbaren gehen.

Selbst wenn (welches auch nur wirklich Deine eigene spekulative Schaetzung ist), ist die perf/mm2 immer noch nicht besser als beim GP104 ueberhaupt da auf rein hypothetischer Basis der eigentliche Transistoren-Unterschied von der zusaetzlichen die area bei einem Vega chip bis zu 1.5Mrd. Transistoren betragen koennte. Anders wohl doch nicht irgendwelche sinnlose Haarspalterei die man nur so unter den Teppich kehren kann.

Sonst gibt es ueberhaupt eine zuverlaessige Indizie fuer 2 Vega chips zum gleichen Zeitpunkt und mit sehenswerten Groessen-Unterschieden oder ist auch nur ein weiteres Bauchgefuehl?

Hübie
2016-04-29, 08:50:57
Fairerweise muss man sagen dass es für GP102 ebenfalls keine Anhaltspunkte gibt. Und dann müsste ich fragen wie ein 350 mm^2 Chip das GP100-Monster angreifen soll. Und kommt mir jetzt nicht mit compute-Balast. :P

Limit
2016-04-29, 09:31:32
Den Sinn einer Hypothese wirst Du wohl verstehen oder? Wenn AMD einen salvage part brauchen sollte um GP104-400 zu schlagen, dann ist die perf/mm2 Relation nicht unbedingt besser bei AMD.
Deine Hypothese hat null Aussagekraft, solange du nicht sagst mit was du ihn vergleichst. Da es zu Vega verschiedene Vermutungen bzgl. Größe und Leistung gibt ist ein hypothetischer Vergleich ohne Angabe zur hypothetischen Größe und Leistung von Vega sinnlos.
Mit einem Salvage Part eines 350mm² Vega, der GP104 im Vollausbau schlägt würde einen perf/mm² Vorteil für AMD ergeben. Bei einem 500mm² Vega wäre nV vorne.


Sonst gibt es ueberhaupt eine zuverlaessige Indizie fuer 2 Vega chips zum gleichen Zeitpunkt und mit sehenswerten Groessen-Unterschieden oder ist auch nur ein weiteres Bauchgefuehl?
Es gibt mMn sehr gute Gründe zwei Vega Chips zu vermuten. Man hat einerseits P10 mit ~230mm² und andererseits braucht man einen Chip, der sich im Profi-Bereich mit GP100 anlegen kann. Das dürfte dann auf einen Chip mit >= 500mm² hinauslaufen. Wenn man also nicht eine gigantische Lücke lassen will, fehlt ein Chip dazwischen. Zumal es in der letzten Generation mit Cap Verde/Pitcairn/Tahiti/Hawaii dieselben Abstufungen gab. Ob die beiden Chips gleichzeitig erscheinen: keine Ahnung.

HOT
2016-04-29, 09:56:02
Den Sinn einer Hypothese wirst Du wohl verstehen oder? Wenn AMD einen salvage part brauchen sollte um GP104-400 zu schlagen, dann ist die perf/mm2 Relation nicht unbedingt besser bei AMD.

Jo nachts ist kälter als draußen.

Ailuros
2016-04-29, 10:24:58
Deine Hypothese hat null Aussagekraft, solange du nicht sagst mit was du ihn vergleichst.

Ich sagte Vega salvage.

Da es zu Vega verschiedene Vermutungen bzgl. Größe und Leistung gibt ist ein hypothetischer Vergleich ohne Angabe zur hypothetischen Größe und Leistung von Vega sinnlos.
Mit einem Salvage Part eines 350mm² Vega, der GP104 im Vollausbau schlägt würde einen perf/mm² Vorteil für AMD ergeben. Bei einem 500mm² Vega wäre nV vorne.

Wenn ich mehr die area brauche um N Leistung zu erreichen, dann ist es in meinem Buch ein schlechteres perf/mm2 Verhaeltnis.

Es gibt mMn sehr gute Gründe zwei Vega Chips zu vermuten. Man hat einerseits P10 mit ~230mm² und andererseits braucht man einen Chip, der sich im Profi-Bereich mit GP100 anlegen kann. Das dürfte dann auf einen Chip mit >= 500mm² hinauslaufen. Wenn man also nicht eine gigantische Lücke lassen will, fehlt ein Chip dazwischen. Zumal es in der letzten Generation mit Cap Verde/Pitcairn/Tahiti/Hawaii dieselben Abstufungen gab. Ob die beiden Chips gleichzeitig erscheinen: keine Ahnung.

Gut dann bleiben wir dabei dass es sich um Deine Vermutungen handelt.

Ailuros
2016-04-29, 10:26:40
Jo nachts ist kälter als draußen.

Sei froh dass keiner Zeit zu verschwenden hat eine Liste von Deinem angehauften BS zu machen.

Fairerweise muss man sagen dass es für GP102 ebenfalls keine Anhaltspunkte gibt. Und dann müsste ich fragen wie ein 350 mm^2 Chip das GP100-Monster angreifen soll. Und kommt mir jetzt nicht mit compute-Balast. :P

https://techreport.com/review/30048/exploring-nvidia-pascal-architecture

...und noch genauer https://techreport.com/review/30048/exploring-nvidia-pascal-architecture/5

Rys nennt sie zugegeben "wild guesses" aber als industry insider werde auch nicht so leicht den Verdacht los, dass er nicht weiss was hinter den Kulissen vorgeht. Ausser er redet mit Wavey nicht mehr :D

Limit
2016-04-29, 11:50:51
Ich sagte Vega salvage.
Nagut, wenn du nichts zu deinem hypothetischen Vega Chip sagen willst, gehe ich einfach mal davon aus, dass du meinen hypothetischen kleinen Vega Chip meinst, der dann bei 350mm² in seiner kastrierten Form den vollen GP104 schlägt und dann hätte AMD das bessere perf/mm² Verhältnis.

Wenn ich mehr die area brauche um N Leistung zu erreichen, dann ist es in meinem Buch ein schlechteres perf/mm2 Verhaeltnis.
Tja, dann bleibt ja nur noch die Frage übrig welche Größe und Leistung du von Vega erwartest um zum Schluss zu kommen, dass GP104 besser ist. Seltsamerweise werde ich das Gefühl nicht los diese Frage bereits gestellt zu haben. :conf2:

Gut dann bleiben wir dabei dass es sich um Deine Vermutungen handelt.
Einverstanden.

Ailuros
2016-04-29, 12:21:53
Nagut, wenn du nichts zu deinem hypothetischen Vega Chip sagen willst, gehe ich einfach mal davon aus, dass du meinen hypothetischen kleinen Vega Chip meinst, der dann bei 350mm² in seiner kastrierten Form den vollen GP104 schlägt und dann hätte AMD das bessere perf/mm² Verhältnis.

Nicht wirklich, denn GP104 ist nach meinen Infos leicht unter 300mm2. Verglichen zu einem hypothetischen 350mm2 Vega - wenn man auch noch die hoehere moegliche Packdichte fuer AMD mitberechnet - das perf/mm2 eben nicht besser bei AMD, denn 350 sind mehr Quadratmillimeter als <300.


Tja, dann bleibt ja nur noch die Frage übrig welche Größe und Leistung du von Vega erwartest um zum Schluss zu kommen, dass GP104 besser ist. Seltsamerweise werde ich das Gefühl nicht los diese Frage bereits gestellt zu haben. :conf2:

Ich sagte nirgends dass GP104 besser ist, dafuer warte ich eher die ersten unabhaengigen Analysen/Vergleiche von den kommenden konkurrierenden SKUs ab. Ich antwortete auf den Vorschlag dass AMD angeblich ein besseres perf/mm2 ratio haben soll bei dieser Generation. Darauf kam die Hypothese dass wenn AMD eine salvage SKU braucht GP104-400 zu schlagen dass es wohl dann nicht mehr fuer ein besseres perf/mm2 spricht weil beide IHVs zufaelligerweise ihre chips Leistungsmaessig anders einordnen (welches sowohl Vor- als auch Nachteile hat). Mal hat der eine IHV einen leichten Vorteil mal der andere.

Daemlich eben wenn man eine Diskussion nicht richtig erfolgt und nur wahlweise zitiert, kanns schnell zu falschen Interpretationen kommen.

scully1234
2016-04-29, 12:25:31
Sei froh dass keiner Zeit zu verschwenden hat eine Liste von Deinem angehauften BS zu machen.


Schwere Kost nach Leo Tolstoy:smile:


Ist denn eigentlich jemand auf dem Editors Day anwesend von der deutschen Presselandschaft (y33H@ ) ?

N0Thing
2016-04-29, 12:32:09
Es gibt mMn sehr gute Gründe zwei Vega Chips zu vermuten. Man hat einerseits P10 mit ~230mm² und andererseits braucht man einen Chip, der sich im Profi-Bereich mit GP100 anlegen kann. Das dürfte dann auf einen Chip mit >= 500mm² hinauslaufen. Wenn man also nicht eine gigantische Lücke lassen will, fehlt ein Chip dazwischen. Zumal es in der letzten Generation mit Cap Verde/Pitcairn/Tahiti/Hawaii dieselben Abstufungen gab. Ob die beiden Chips gleichzeitig erscheinen: keine Ahnung.


Gut dann bleiben wir dabei dass es sich um Deine Vermutungen handelt.

Laut Anandtech hat AMD ihnen gegenüber zwei Vega GPUs bestätigt. Vega 10 und Vega 11.

http://anandtech.com/show/10145/amd-unveils-gpu-architecture-roadmap-after-polaris-comes-vega

y33H@
2016-04-29, 12:52:35
Ist denn eigentlich jemand auf dem Editors Day anwesend von der deutschen Presselandschaft?War das eine rhetorische Frage? Wer dort ist oder auch nicht, zeigt sich bei NDA-Fall. Bis dahin wird dir nicht mal jemand bestätigen, ob und wo dieser angebliche Editor's Day stattfindet.

Limit
2016-04-29, 13:04:51
Nicht wirklich, denn GP104 ist nach meinen Infos leicht unter 300mm2. Verglichen zu einem hypothetischen 350mm2 Vega - wenn man auch noch die hoehere moegliche Packdichte fuer AMD mitberechnet - das perf/mm2 eben nicht besser bei AMD, denn 350 sind mehr Quadratmillimeter als <300.
Gut, wir haben uns bei der erwarteten Größe also geeinigt. Um nun über perf/mm² zu urteilen fehlt noch die Leistung. Vega müsste bei den angenommenen Größen also etwa 17% schneller sein als GP104 um bei perf/mm² gleichzuziehen. Vegas HBM2-SI dürfte einen leistungs- und platzmäßigen Vorteil gegenüber GDDR5(X) bringen. Dazu kommt noch eine höhere Packdichte. nV hatte bisher die höhere Effizienz/Shader, was auch mit höheren Taktraten zusammenhängt. Entscheidend wird hier also in erster Linie sein, ob Vega so schlecht mit der Einheitenzahl skaliert wie Fiji. Da letzterer aber reichlich unausgewogen war (Frontend von Tonga, aber verdoppeltes Backend), erwarte ich allerdings eine deutlich bessere Skalierung zumindest vergleichbar mit Tahiti -> Hawaii, wenn nicht sogar noch besser, da man für den kleinen Vega im Gegensatz zu Hawaii nicht so viel DP-Leistung braucht.

Ich antwortete auf den Vorschlag dass AMD angeblich ein besseres perf/mm2 ratio haben soll bei dieser Generation. Darauf kam die Hypothese dass wenn AMD eine salvage SKU braucht GP104-400 zu schlagen dass es wohl dann nicht mehr fuer ein besseres perf/mm2 spricht weil beide IHVs zufaelligerweise ihre chips Leistungsmaessig anders einordnen (welches sowohl Vor- als auch Nachteile hat). Mal hat der eine IHV einen leichten Vorteil mal der andere.
Wo bitte liegt der Zusammenhang zwischen perf/mm² und der Einordnung der Chips. AMD braucht Vega Salvage für GP104 Vollausbau und nV braucht GP104 Salvage für P10 Vollausbau. Was sagt uns das über perf/mm²? Meiner Meinung nach garnichts.

Wenn man sich nun aber nur einmal die Chips anschaut, von denen man einigermaßen gesicherte Daten hat, nämlich P10/11 und GP104, dann würde meine Tendenz in Richtung AMD-Vorteil oder Gleichstand gehen. Falls P10 mit 230mm² auf Fury X bzw. GTX980Ti Niveau käme, die GTX1070 ebenso und die GTX1080 mit "normalem" Abstand zwischen Salvage und Vollausbau darüber (~20%), wäre der 30% kleinere P10 im Vorteil bei perf/mm². An den vielen Vorbedingungen sieht man aber auch für wie unsicher ich diese Annahmen halte. Vor allem würde mich ein so starker P10 überraschen.

Ailuros
2016-04-29, 13:10:10
Gut, wir haben uns bei der erwarteten Größe also geeinigt. Um nun über perf/mm² zu urteilen fehlt noch die Leistung.

Nach dem Punkt nimmt die Debatte ein Ende fuer mich, da es sich um eine Hypothese handelte. Wenn Du sonst noch irgendwie Deinen Postcount erhoehen willst oder Dich weiterhin im Kreis drehen willst bitte schoen, aber ich hab wirklich besseres zu tun als mich als perpetuum mobile bereitzustellen.

Unicous
2016-04-29, 14:37:55
War das eine rhetorische Frage? Wer dort ist oder auch nicht, zeigt sich bei NDA-Fall. Bis dahin wird dir nicht mal jemand bestätigen, ob und wo dieser angebliche Editor's Day stattfindet.

Fight Club für Nerds.:freak:

Troyan
2016-04-29, 17:03:43
Nordichhardware.se meint den Editor's Day für nächste Woche bestätigen zu können:
http://forums.anandtech.com/showpost.php?p=38193468&postcount=2427

Zur Computex dann Reviews.

scully1234
2016-04-29, 17:35:48
War das eine rhetorische Frage? Wer dort ist oder auch nicht, zeigt sich bei NDA-Fall. Bis dahin wird dir nicht mal jemand bestätigen, ob und wo dieser angebliche Editor's Day stattfindet.

Ich wollte dich nur bitten, beim Hula Hoop und Limbotanz Mitschnitte zu praesentieren, Pascal ist da nebensaechlich =)

Zero-11
2016-04-30, 21:08:36
http://wccftech.com/geforce-gtx-1080-gtx-1070-launching-6th-may-market-june/

Geforce GTX 1080 8GB GDDR5X and GTX 1070 8GB GDDR5 (Paper) Launching On 6th May at Nvidia Editor’s Event – Market Availability by Computex 2016 in June

Unicous
2016-04-30, 21:22:47
Dir ist schon klar, dass die Original-Quelle nur zwei Posts entfernt ist? Wann lernt ihr endlich, dass WTF-Tech so gut wie nie eigene Quellen hat und sich ihre Artikel nur zusammeklaut.:rolleyes:

y33H@
2016-04-30, 21:39:39
Eine SKU mit 192 Bit und 6 GB GDDR5, eine mit 256 Bit an 8 GB GDDR5 sowie eine mit 256 Bit mit GDDR5X - passt doch schön ins Bild.

R.I.P.
2016-05-01, 08:05:36
Eine SKU mit 192 Bit und 6 GB GDDR5, eine mit 256 Bit an 8 GB GDDR5 sowie eine mit 256 Bit mit GDDR5X - passt doch schön ins Bild.

Nur die Verfügbarkeit bereits im Juni macht mich stutzig...wetten, dass der Paperlaunch längers dauert und wir vor August keine Karten sehen werden? (wild Spekulation von mir)

Dural
2016-05-01, 08:45:46
Und mit welcher begründung? Bei der 1080 mit gddr5x könnte ich es ja nachvollziehen, aber die 1070 mit einer teildeativierten gpu und nur gddr5 sehe ich keinen grund für so eine verzögerung.

Ich glaube wir werden die karten früher sehen, als wir derzeit denken.

horn 12
2016-05-01, 08:46:02
Nun, die GTX 1070 und 1060 wenn eine kommt sollten wohl halbwegs gut lieferbar werden, bei der GTX 1080 nehme ich nur minimale Lieferbarkeit an, so wie bei Fury(X) letztes Jahr im Juni, dazu werden die Preise durch GDDR5X gesalzen sein,- und dies wird sich vor Frühherbst nicht viel bessern!
So wie es scheint will NV unbedingt AMD den Wind aus den Segeln nehmen, so wie voriges Jahr mit der HBM Karte und da ist es NV echt geglückt,- dies muss man neidlos anerkennen.
Dies Jahr wird dies aber weitaus interessanter werden, da AMD die Effizienz gesteigert hat und die GTX 1070 wohl nicht allzuschnell werden wird, zudem die Lieferbrakeit von GDDR5-X und dessen schlechtere Lieferbarkeit

Undertaker
2016-05-01, 10:11:31
Noch kennen wir weder Lieferbarkeit noch Preise von GDDR5X, ist es da nicht etwas zu früh für jedwede Prognosen? Zumindest beim Preis halte ich einen allzu großen Abstand zu GDDR5 für höchst unwahrscheinlich, wenn der Mehrtakt zunächst nur bei 25% liegt.

kdvd
2016-05-01, 10:51:44
Nur die Verfügbarkeit bereits im Juni macht mich stutzig...wetten, dass der Paperlaunch längers dauert und wir vor August keine Karten sehen werden? (wild Spekulation von mir)

Überhaupt keine von Juni bis August?!

Denke nicht, natürlich die 1080 wird sicherlich vergleichsweise spärlich verfügbar sein, da sprechen einfach zuviele Faktoren gegen eine gute Verfügbarkeit in den ersten Wochen,
aber eine UVP von 650€ sowie das Sommerloch werden die Nachfrage schon ausreichend dämpfen, für die die wirklich sofort eine haben wollen. ;)

Und auch sprechen die grade laufenden Preissenkungen bei 970, 980 und 980 Ti gegen einen größeren Paperlaunch.

Bei einem 300mm^2 kleinem Chip sollte das auch nicht weiter verwundern.

HOT
2016-05-01, 11:15:42
Sei froh dass keiner Zeit zu verschwenden hat eine Liste von Deinem angehauften BS zu machen.
[...]
Tjo ich kann damit umgehen, aber dich scheint das ja hart zu treffen :D. Schön dass ich dir nicht egal bin :comfort:.
Sicherlich hatte ich oft unrecht. Warum sollte ich das bestreiten?




Ob GDDR5X teuer ist oder nicht, spielt ja gar keine Rolle. Die Preise für das gehobene Produkt werden eh gesalzen sein.

Eine SKU mit 192 Bit und 6 GB GDDR5, eine mit 256 Bit an 8 GB GDDR5 sowie eine mit 256 Bit mit GDDR5X - passt doch schön ins Bild.

GP104 mit 192Bit? Klingt plausibel, da könnte man in dem sensiblen Bereich mit 6GB einen Vorteil ggü. den großen P11 ergattern.

Complicated
2016-05-01, 12:13:31
P11 mit 128-bit und max. 4 GB für die Lowend Zielgruppe wird auch für eine 6GB GP104 keine direkte Konkurrenz sein. Da liegen mal locker 100-200,- $ dazwischen für den Endkunden.

Unicous
2016-05-01, 12:13:48
"Oft".

uweskw
2016-05-01, 15:13:53
Die GTX1080 zum gleichen Listenpreis wie die 980TI ?
Hat jemand noch den Lauchpreis der GTX980 im Kopf?

greetz
US

dildo4u
2016-05-01, 15:16:01
540€.

http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/

BlacKi
2016-05-01, 15:29:45
Die GTX1080 zum gleichen Listenpreis wie die 980TI ?
Hat jemand noch den Lauchpreis der GTX980 im Kopf?

greetz
US
550dollar, später500dollar listenpreis , allerdings hat die 1080ti gddr5x, ein alleinstellungsmerkmal.

dildo4u
2016-05-01, 15:32:04
Könnte wieder für 550€ kommen die 980 hatte auch mehr Vram als die 780 TI und war ca 20% schneller.

Hübie
2016-05-01, 15:53:54
Also ich würde schätzen dass die 1070 für 349, die 1080 für 549 und die 1080 Ti für 649 $ kommt.

uweskw
2016-05-01, 16:05:33
Könnte wieder für 550€ kommen die 980 hatte auch mehr Vram als die 780 TI und war ca 20% schneller.

Dann wären die 649,00USD von der Main für die 1080 ja ne Unverschämtheit. Ich hoffe doch die zocken uns nicht gar so heftig ab.

greetz
US

Hübie
2016-05-01, 16:15:59
So lang die Konkurrenz dem nix entgegen stellen kann... Sehen wir doch schön bei den CPUs wie man gegängelt wird.

R.I.P.
2016-05-01, 16:20:56
Ich hoffe doch die zocken uns nicht gar so heftig ab.

greetz
US

Naja, abzocken kann man eigentlich nur diejenige, die sich abzocken lassen o.O wenn sich wenige abzocken lassen, geht der Preis auch runter...ganz egal ob bei Nvidia oder jemandem anderem...

Kartenlehrling
2016-05-01, 16:31:04
650€ für die GTX1070 werte die gtx980 natürlich wieder auf.
Die frage ist wo Nvidia ihre neue Aldi GTX sieht.

horn 12
2016-05-01, 16:37:50
GTX 1070 und 1080 deutlich teurer:
Unter 450 Euro wird somit schwer werden für den "kleinen" Pascal, sprich GTX 970 Nachfolger.

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/1070-1080-laut-Leak-teurer-GTX-1060-6-GB-GDDR5-1194022/

Unicous
2016-05-01, 16:40:38
Ende 2014 war noch nicht der schwache Euro eingepreist, der zu der Zeit noch bei ca. 1:1,30 lag. Wir liegen momentan bei ca. 1:1,15... die Launchpreise sind also nicht vergleichbar.:wink:

$550 könnten also durchaus zu €600 werden. Bestes Beispiel:

R9 295X2 Launchpreis 1300 Euro ($1500)

Pro Duo Launchpreis 1600 Euro ($1500)

Sunrise
2016-05-01, 16:48:53
Bei $649 US und NVs Zuversicht ist klar, auf jedenfall >980 Ti Leistung, ansonsten könnte man mit dem Preis auch noch höher.

Da wird AMD aber preislich untenrum ordentlich Druck machen können.

Ravenhearth
2016-05-01, 16:50:54
Weitere Beispiele: Nano: $649 und 699€, Fury: $549 und 599€.

horn 12
2016-05-01, 17:01:45
Exakt!
Zudem wird NV durch die Verdoppelung des Speichers, oder gar ehr GTX 970 3,5 GB auf die nunmehr 8GB GDDR5 einen ordentlichen Mehrpreis verlangen
AMD wird aber diesesmal IHRE GTX 970 mit vollen 8GB vorfahren und es sieht echt rosig für AMD aus, aber sie vergeigen es bestimmt nochmal :-(

maximus_hertus
2016-05-01, 17:02:36
Ende 2014 war noch nicht der schwache Euro eingepreist, der zu der Zeit noch bei ca. 1:1,30 lag. Wir liegen momentan bei ca. 1:1,15... die Launchpreise sind also nicht vergleichbar.:wink:

$550 könnten also durchaus zu €600 werden. Bestes Beispiel:

R9 295X2 Launchpreis 1300 Euro ($1500)

Pro Duo Launchpreis 1600 Euro ($1500)

This!

GTX 980 Ti - 649 USD Launchpreis, in Euro 739.
GTX 780, zu besseren Euro/USD Kursen - 649 USD Launchpreis, in Euro 641.

Selbst wenn die GTX 1080 für "nur" 549 USD kommen wird, dürfte das in Deutschland im Bereich von 620+ Euro herauskommen.

Eine GTX 1070 für potentielle 329 USD, also den gleichen Launchpreis wie die GTX 970, würde dann statt mit 320 Euro UVP mit 380+ Euro UVP starten. Custom-Karten sind dann sehr schnell bei über 400 Euro und damit über einer wichtigen (psychologischen) Schwelle.

Man darf gespannt sein, wohin die (Preis) Reise geht. Ist ja nichtmehr lang hin ;)

AffenJack
2016-05-01, 18:14:30
Was diskutiert ihr hier denn überhaupt schon über den Preis, zu der Zeit weiß noch nicht mal Nvidia für wieviel sie das Ding anbieten werden. Bei der GTX980/970 schwirrten bis paar Tage vor launch noch 700€ und 450€ rum. Alles was dazu im Moment geschrieben wird ist einfach Müll. Erstmal sind immernoch andere Dinge interessanter und zwar ob es wirklich 2560 SPs sind, taktraten, tdp und natürlich zu allererst performance.

Troyan
2016-05-01, 18:15:52
Von VRWorld.com kommt das Gerücht, dass nVidia GP104 und GP106 veröffentlichen werde:

At the same time, Nvidia is hosting its secretive meeting where the selected invitees will be introduced to GP104 and GP106, second and third chip based off the Pascal GPU architecture.
http://vrworld.com/2016/04/30/battlefield-5-geforce-gtx-1080-reveal-date/

scully1234
2016-05-01, 18:42:04
Die Spekulationen nehmen wieder mal Ueberhand, das koennte man fast schon als gezieltes setzen von Desinformationen bezeichnen

GP106 kommt, kommt nicht, kommt dann doch wieder usw usf

maximus_hertus
2016-05-01, 18:51:35
2 Chips gleichzeitig gab es länger nicht mehr im grünen Lager:

GM:
200 - März 2015
204 - September 2014
206 - Januar 2015

GK:
110 - Februar 2013
104 - März 2012
106 - September 2012

GF:
100 - März 2010
104 - Juli 2010
106 - September 2010

prinz_valium
2016-05-01, 18:58:19
also wieder keine neue grafikkarte kaufen, bei so einem mist

reaperrr
2016-05-01, 19:27:53
Zum Thema GP106:
Ankündigung || Vorstellung != Release.

Undertaker
2016-05-01, 19:54:01
Man sollte die Bedeutung von GP107/108 nicht unterschätzen, für das Notebooksegment sind die wichtiger als GP104 und GP106 zusammen. Und kommen vielleicht eher, als mancher sie auf der Rechnung hat.

Hübie
2016-05-01, 20:15:02
Mag Umsatz-technisch stimmen, aber uns Gamer interessieren so lahme Gurken doch nicht ein Furz. :D Solitaire (aka LOL) läuft auf jeder Billiggurke.

scully1234
2016-05-01, 20:15:15
Apple will auch noch immer ein Stueck vom 16nm TSMC Kuchen....

Ob Nvidia nicht froh sein kann 2 Produktionsstrassen zu haben fuer GP100 und 104???

interessieren so lahme Gurken doch nicht ein Furz. :D .

zu schoen wenn nur alle so denken wuerden=)

Complicated
2016-05-01, 22:51:15
Kann durchaus sein, dass Nvidia sich gezwungen sieht etwas zwischen P11 und P10 zu setzen um den OEM-Markt nicht zu lange AMD zu überlassen und den Launch des GP106 vorzieht.

PHuV
2016-05-01, 23:36:56
Also ich würde schätzen dass die 1070 für 349, die 1080 für 549 und die 1080 Ti für 649 $ kommt.
Du hast immer sehr optimistische Hoffnungen. Die TI wird mindestens um die > 799€ liegen.

Hübie
2016-05-01, 23:46:48
In meinem Szenario ist die 1080 Ti der Vollausbau von GP104, und den wiederum wird keiner für diesen Preis offerieren, den du genannt hast. ;)

victore99
2016-05-02, 07:56:34
Warum nicht? Über dreiviertel Marktanteil, neuer + mehr Speicher als 980Ti, weniger Stromverbrauch als 980Ti, vielleicht schneller als 980Ti, AMD hat keinen bei Launch kaufbaren Conterpart. Ich würde sagen, passt mit den 800Eur für GP104-Full
Die Cuts werden schneller als 980 sein.
Da passen so 600Eur und so 400Eur auch. Letztes von der Art der Beschneidung und von der Speed eines Polaris abhängig.

Ravenhearth
2016-05-02, 10:15:52
Früher gabs bei ner neuen Generation mehr Leistung fürs gleiche Geld. Heute muss man ewig warten, bis das mal eintritt. :usad:

Mancko
2016-05-02, 10:32:26
Früher gabs bei ner neuen Generation mehr Leistung fürs gleiche Geld. Heute muss man ewig warten, bis das mal eintritt. :usad:

Da waren aber die Rahmenbedingungen auch noch andere:

1) Die Fertigungsprozesse günstiger und die Wechsel auf kleinere Strukturen einfacher
2) Die Nachfrage geringer da es nicht diese ganzen SoCs gab
3) Die reinen Stückzahlen für dedizidierte GPUs größer.

Allein auf Grund der gestiegenen Preise durch die Punkte 1) und 2) und der gesunkenen Stückzahlen von 3) ist völlig klar, dass heute mehr für die GPUs berappt werden muss.

Palpatin
2016-05-02, 10:45:42
Die 970 hat sich ja extrem gut verkauf. Aus kaufmännischer Sicht wäre es am besten für NV den GP104 als 1070 1080 und 1080ti zu veröffentlichen zu etwa den selben Preisen wie 970 - 980ti mit max 50$ Aufschlag.
Die Performance sollte dann bei allen drei gut 25% über den Vorgängern liegen.
Den Vollausbau irgendwann als Titan Nachfolger und dann also neue Serie so wie bei 680->780.

Thunderburne
2016-05-02, 10:53:50
Erst mal abwarten was kommt .
Sollte die GTX1080 z.b 25-30% an Leistung zur Ref.980Ti draufpacken würde ich woll auch für 800 kaufen.

=Floi=
2016-05-02, 10:54:20
die stückzahlen sind sicherlich nicht gesungen, oder glaubst du vor 12 jahren gab es 10mio CS spieler?
aufgrund der rohleistung aktueller karten halten diese auch noch viel länger und die basis wird noch breiter. siehe steam spielerübersicht.
nur weil die marktanteile sinken, müssen das nicht die absoluten zahlen machen.

Mancko
2016-05-02, 10:55:51
Die 970 hat sich ja extrem gut verkauf. Aus kaufmännischer Sicht wäre es am besten für NV den GP104 als 1070 1080 und 1080ti zu veröffentlichen zu etwa den selben Preisen wie 970 - 980ti mit max 50$ Aufschlag.
Die Performance sollte dann bei allen drei gut 25% über den Vorgängern liegen.
Den Vollausbau irgendwann als Titan Nachfolger und dann also neue Serie so wie bei 680->780.

Die 970 ist aber zu einem Zeitpunkt erschienen als die Kosten für den 28nm Prozess erheblich geringer waren als beim Kepler Launch. Die Prozessreife war erheblich weiter. Auf dem neuen Prozess halte ich es zum jetzigen Zeitpunkt für unwahrscheinlich ein Produkt wie die 970 zu bringen, sprich in der gleichen Preisklasse mit deutlich besserer Performance und somit dem gleichen P/L Verhältnis. Das gibt der Prozess im Augenblick m.E. nicht her. Darüber kann man in Q1 /2017 philosophieren.

Mancko
2016-05-02, 10:57:23
die stückzahlen sind sicherlich nicht gesungen, oder glaubst du vor 12 jahren gab es 10mio CS spieler?

Vor 12 Jahren hatte noch so ziemlich jeder Büro-PC eine dedizidierte Grafikkarte drinn die für verhältnismäßig viel Geld im Vergleich zur Performance verbaut wurde. Dagegen sind die 12 Mio CS Spieler ein Witz. Fast jeder PC hatte irgendeine Grafikkarte. Sprich die Fertigungskosten, die zweifelsfrei heute höher sind, sowie das aufzubringende R&D Budget muss in Summe auf geringere Stückzahlen umgelegt werden. Das sagt Dir jede Statistik von IDC, Gartner, JPR, Mercury & Co. Am Ende des Tages muss der Kunde dafür aufkommen. Somit muss der Spieler heute auch mehr Geld in die Hand nehmen. Den Trend kann man gut seit 4 bis 5 Jahren beobachten.

Thunder99
2016-05-02, 11:05:23
Ich würde niemals einen 04er Chip für 700-800€ kaufen. Kosten der 14nm hin oder her. Selbst damals den Performance Chip als High End zu verkaufen seit Kepler war schon mega gewagt...

Anderseits kommt es nur darauf an was hinten raus kommt.

Wenn der Preis so hoch ist, dann sehen wir sehr lange kein GP100/102

Ravenhearth
2016-05-02, 11:09:48
Oh, ich denke schon. Dann gibts eine GP104-basierte 1080 Ti für $649 und eine Titan auf GP102-Basis (evtl. sogar teildeaktiviert) für $999 ein paar Monate später. Dann steht die Titan plötzlich gar nicht mehr so schlecht dar vom P/L-Verhältnis. :freak:

Gibts eigentlich schon Infos, wie viele SPs GP102 kriegen soll?

AffenJack
2016-05-02, 11:10:08
die stückzahlen sind sicherlich nicht gesungen, oder glaubst du vor 12 jahren gab es 10mio CS spieler?
aufgrund der rohleistung aktueller karten halten diese auch noch viel länger und die basis wird noch breiter. siehe steam spielerübersicht.
nur weil die marktanteile sinken, müssen das nicht die absoluten zahlen machen.

Doch die Stückzahlen sind gesunken und zwar rapide. Von 70 Millionen Desktopgrafikkarten in 2011 auf 45 Millionen letztes Jahr. Bei immer weiter steigenden R&D Kosten müssen also entweder die Preise steigen oder neue Generationen kommen bald nur noch alle 3,4 Jahre.

Ravenhearth
2016-05-02, 11:15:04
Die Abstände zwischen Generationen zu vergrößern wird aber nicht dazu führen, dass mehr verkauft wird, im Gegenteil. Das gleiche gilt für stark steigende Preise.

HOT
2016-05-02, 11:32:03
Doch die Stückzahlen sind gesunken und zwar rapide. Von 70 Millionen Desktopgrafikkarten in 2011 auf 45 Millionen letztes Jahr. Bei immer weiter steigenden R&D Kosten müssen also entweder die Preise steigen oder neue Generationen kommen bald nur noch alle 3,4 Jahre.

Das ist ja erschrenkend, das sind 40% weniger. Aber auch kein Wunder, es wird heute mehr mit APUs abgedeckt. Nebenher sinken die Verkaufszahlen im OEM-Absatz ja auch weiter.

Wird wohl darauf hinauslaufen, dass man nicht mehr die gesamte neue Generation im kleinsten Prozess laufen lässt. Das könnte bei 14/16nm letztmalig der Fall sein.
Spiele-PCs spülen mMn jedoch noch genug in die Kassen, um neue große Chips zu rechtfertigen, denn grade GM200 zeigt, die Preise werden tatsächlich angenommen.

Troyan
2016-05-02, 11:35:48
Doch die Stückzahlen sind gesunken und zwar rapide. Von 70 Millionen Desktopgrafikkarten in 2011 auf 45 Millionen letztes Jahr. Bei immer weiter steigenden R&D Kosten müssen also entweder die Preise steigen oder neue Generationen kommen bald nur noch alle 3,4 Jahre.

Das sind OEM-Zahlen. Der Gamingmarkt ist seit zwei Jahren exponentiell am wachsen.

AffenJack
2016-05-02, 12:40:34
Nein, das sind Add in Board Zahlen der verschiedenen Anbieter. Der Grafikkartenmarkt wächst nur im High-End wo letztes Jahr 5 Mio Units statt 2,5 Mio abgesetzt wurden. Insgesamt gleichen die höheren ASPs den Verlust an Stückzahlen bisher mehr als aus. Aber das wird nicht auf Dauer so weitergehen. Die größten Stückzahlen machten ja wirkliche Low-End GPUs aus, die Grafikkarten unter 100$ sind aber nun tot.

Mancko
2016-05-02, 12:46:42
Nein, das sind Add in Board Zahlen der verschiedenen Anbieter. Der Grafikkartenmarkt wächst nur im High-End wo letztes Jahr 5 Mio Units statt 2,5 Mio abgesetzt wurden. Insgesamt gleichen die höheren ASPs den Verlust an Stückzahlen bisher mehr als aus. Aber das wird nicht auf Dauer so weitergehen. Die größten Stückzahlen machten ja wirkliche Low-End GPUs aus, die Grafikkarten unter 100$ sind aber nun tot.

Naja im Endeffekt hat doch Nvidia gezeigt wie man das ausgleichen kann.

1) die High End Karten beim neuen Prozess sind erstmal nur in einer Größenkategorie die vorher der Performance Klasse zugeordnet wurde. Damit hält man die Kosten im Zaum. Die richtigen großen DIEs werden erst mit größerer Prozessreife im zweiten Durchgang an den Start gebracht.

2) Die Architekturen werden in Summe über einen längeren Zeitraum genutzt und optimiert genauso wie die Fertigungsprozesse

3) Man versucht die Stückzahlen bzw. die Nachfrage im Bereich Performance bis High End weiter zu vergrößern. Das gelingt am Besten indem man Features erzeugt die der Kunde haben will und in dem man dann bei diesen Features darauf achtet, dass sie im Low-End Bereich möglichst mäßig laufen und zwar insbesondere auf APUs & Co.

Es gibt also schon Ansetzpunkte und bisher ist das auch sehr gut gelungen.

Dural
2016-05-02, 12:50:35
Nein, das sind Add in Board Zahlen der verschiedenen Anbieter. Der Grafikkartenmarkt wächst nur im High-End wo letztes Jahr 5 Mio Units statt 2,5 Mio abgesetzt wurden. Insgesamt gleichen die höheren ASPs den Verlust an Stückzahlen bisher mehr als aus. Aber das wird nicht auf Dauer so weitergehen. Die größten Stückzahlen machten ja wirkliche Low-End GPUs aus, die Grafikkarten unter 100$ sind aber nun tot.

Und was gehört zum high end markt? Ab 970? Ab 980? Ab 980ti?

N0Thing
2016-05-02, 13:03:18
Afaik für die Analysten alles ab $250 oder $300.

Palpatin
2016-05-02, 13:29:34
Die 970 ist aber zu einem Zeitpunkt erschienen als die Kosten für den 28nm Prozess erheblich geringer waren als beim Kepler Launch. Die Prozessreife war erheblich weiter. Auf dem neuen Prozess halte ich es zum jetzigen Zeitpunkt für unwahrscheinlich ein Produkt wie die 970 zu bringen, sprich in der gleichen Preisklasse mit deutlich besserer Performance und somit dem gleichen P/L Verhältnis. Das gibt der Prozess im Augenblick m.E. nicht her. Darüber kann man in Q1 /2017 philosophieren.
Naja 25% auf die 970 drauf zu schnallen ist ja jetzt auch nicht so der wahnsinns Performance Sprung. Damit landet man knapp vor der 390x.
Außerdem kann es gut sein das GP105-150 mit nur 4 bzw 6gb RAM kommt.

Zettabit
2016-05-02, 13:39:30
Das ist ja erschrenkend, das sind 40% weniger. Aber auch kein Wunder, es wird heute mehr mit APUs abgedeckt. Nebenher sinken die Verkaufszahlen im OEM-Absatz ja auch weiter.
Die früher verkauften LowEnd-Karten gibt es faktisch nicht mehr. Aber die Absatzzahlen sind natürlich das eine, das andere ist der Umsatz/Marge und da sieht man gerade bei NVIDIA, dass die Verkäufe der großen Karten stark gestiegen sind.

Daher denke ich auch, dass die NVIDIA-Strategie mit HighEnd zum Sommer hin deutlich besser ist/erfolgreicher sein wird, als AMDs MidRange/OEM-Chips.