PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias Performance-Chip GP106 zeigt sich, Release im September ...


Leonidas
2016-05-11, 17:52:27
Link zur News:
http://www.3dcenter.org/news/nvidias-performance-chip-gp106-zeigt-sich-release-im-september-2016-anzunehmen

Gast
2016-05-11, 18:34:40
Ich verstehe nicht ganz warum wegen der Release-Termine allgemein so hyperventiliert wird.

Momentan zeigt sich, dass das neue DOOM kein Hardwarefresser ist, sondern eher genügsame Ansprüche stellt. Der nächste grosse AAA-Titel, der ein GPU-Upgrade auslöen könnte wäre DeusEx im August. Ich glaube aber, dass dafür die Witcher3 Upgrades der letzten Generation noch genügen, viele Gamer werden dort auch nicht neu kaufen müssen.

Dann kommt Battlefield im Oktober? Und alle anderen AAA-Games mit wahrscheinlich neuem Grafikhunger auch erst ins Vor-Weihnachtsgeschäft.
Hab ich was wichtiges vergessen???

Die letze GPU-Serie hat sich über den Witcher3 in den Markt gedrückt und Battlefront hat das seine dazu getan.

Wer - ausser den Benchmark-Heavy-User - soll denn bis Oktober ernsthaft über neue Grafikkarten nachdenken?

Wichtig scheint mir die Back-2-School Season bei Laptops. Upgrades im Desktop kommt alles später.... ich werde wahrscheinlich den ersten Scheefall abwarten können...

Tigerfox
2016-05-11, 19:03:39
Ihr wieder mit eurem Spekulatius.
Ich habe schon in einem anderen Thread zur GTX 1060 geschrieben, dass auch gerade Speichermengen am krummen SI möglich sind - Nvidia hatte bereits bei Fermi und Kepler viele Karten mit 1GB bzw. 2GB an 192Bit. (GTX 460v2, GTX 550Ti, GTX 660 (TI)).
Mann kann einfach an einen 64-Bit Controller (bzw. 2 32-Bit Controller) doppelt so große Module anschließen wie an die anderen.

Der Nachteil ist, dass der zusätzliche Speicher auch nur von dem eigenen Controller angesprochen werden kann, mit voller Bandbreite (bei 7GHz GDDR5 168GB/s) also hier nur 3GB angesprochen werden könnten und 1GB mit weniger (bei 2x32Bit 56GB/s) - Aber das ist immernoch besser als die Lösung auf der GTX 970.


Indes finde ich es nicht ganz abgwegig, dass die GTX 1060 GDDR5X erhält - mich stört aber, dass die Karte nicht mehr so weit weg ist und GDDR5X gerade erst anläuft und damit noch sehr teuer ist - für die GTX 1080 noch ok, aber für die 1060?

Es gibt aber einige Beispiele, wo Karten dank schmalerem SI mit schnellem Speicher günstiger angeboten werden konnten und trotzdem leistungsstark waren (Geforce 5700 Ultra, 6600GT). Zumindest gab es das relativ häufig, dass die stärkste Midrange-Karte nur 128Bit, aber ähnlich schnellen Speicher wie das Topmodell hatte (und schnelleren als teurere Karten).

cat
2016-05-11, 19:46:42
Der GP106 hat 1280 Cores und 4GB G5X Speicher 160GB/s
OC-Karten werden ca. 5,1 TFLOPS erreichen
damit ist all Das in der Leistungsnähe davon sehr unwahrscheinlich für den Retailmarkt

AnarchX
2016-05-11, 20:00:00
Bei Zauba werden doch 256-Bit genannt. Ebenso war GP106 bei der PX2 Demo auf 256-Bit MXM-B Platinen.

Vielleicht eine Maßnahme um GP106 bei $299 platzieren zu können ohne auf G5X angewiesen zu sein. Fraglich ist nur ob man bei 200mm2 weit über 6Gbps kommt.

Ravenhearth
2016-05-11, 22:23:53
Bei 256 Bit würden 6 Gbps locker ausreichen.

bnoob
2016-05-11, 23:07:15
Ich verstehe nicht ganz warum wegen der Release-Termine allgemein so hyperventiliert wird.

Wer - ausser den Benchmark-Heavy-User - soll denn bis Oktober ernsthaft über neue Grafikkarten nachdenken?

Ich warte im Prinzip seit The Witcher 3 (für das ich eine 290X gekauft habe) auf eine deutlich stärkere aber noch bezahlbare (~ 400€) Lösung für 1440p, die Performance (zuletzt NFS 2016) ist noch nicht so wie ich sie gerne hätte.

Klar, ich könnte wieder auf 1080p zurück und wäre noch für 2016/17 ausgesorgt, aber da muss ich jetzt halt durch, ich mag nicht mehr unter 27", und 27"@FHD schon dreimal nicht.

Insofern interessiert mich zumindest Highend Pascal und Vega schon sehr, auch als nicht-Bencher.

OBrian
2016-05-11, 23:38:23
Wer - ausser den Benchmark-Heavy-User - soll denn bis Oktober ernsthaft über neue Grafikkarten nachdenken?auch Leute, die sich eine Grenze gesetzt haben und weder wesentlich mehr als 200 € ausgeben wollen noch mehr als ca. 120-150 W einbauen wollen. Die hängen oft noch auf Pitcairn, Tonga oder einer 960 fest.

Gast
2016-05-12, 09:38:27
Ich warte ..auf eine deutlich stärkere aber noch bezahlbare (~ 400€) Lösung für 1440p, ...
auch Leute, die sich eine Grenze gesetzt haben und weder wesentlich mehr als 200 € ausgeben wollen noch mehr als ca. 120-150 W einbauen wollen...
Das sind doch sicherlich keine Käufer zum Launch-Termin. Einen Investitionsstau bei den Preisbewussten gibt es immer, abwartend bis bis die Preise genug nachgegeben haben und klar ist, dass nicht in Kürze nochmals Reduktionen anstehen... d.h. erst wenn alle relevanten Modelle auf dem Markt in ausreichender Zahl verfügbar sind...
Vielleicht gibt es mit Witcher3 aufm Grabbel-Tisch im unteren Preissegment nochmal einen Schub. Es gibt aber keine echten System-Seller bei den Game-Releases in den nächsten Monaten, vielleicht hat deshalb nVidia Ansel erfunden...

bnoob
2016-05-12, 20:16:56
Wenn die Launchpreise nicht völlig übertrieben sind würde ich auch in den ersten 2 Wochen zuschlagen.

MrSpadge
2016-05-13, 22:27:06
Leo, es gibt nen guten Grund für 1280 Shader in GP106:

Maxwell 2 (http://techreport.com/review/30048/exploring-nvidia-pascal-architecture/2) hat 4 SM a 128 Shader pro GTC, in Summe also 512 Shader pro GTC. GM106 hat genau 2 GPC verbaut, 1024 Shader.

Pascal (http://techreport.com/review/30048/exploring-nvidia-pascal-architecture/3) hat 10 SM a 64 Shader pro GTC, also 640 Shader. Verbaut nVidia wieder genau 2 davon, um ein schön ausbalanciertes Design zu bekommen, werden es genau 1280 Shader. In GP104 sind's dann genau 4 GPC mit den 2560 Shadern.

NVidia muss sich nicht daran halten (siehe GK107), es passt würde aber sehr gut passen und die effizientesten Designs ermöglichen (wenn man davon ausgeht, dass nVidias Standardkonfiguration auch die ist, die sie momentan für die Beste halten).

MrS