PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP106 (GeForce GTX 1060)


Seiten : [1] 2 3 4 5

Godmode
2016-06-16, 06:49:31
Alles GP106 relevante hier rein.

GeForce GTX 1060
GP106, 1280 SPs @ 192 Bit GDDR5-Interface,
6 GB GDDR5
Base Clock: 1506 MHz
Boost Clock: 1708 MHz
ca. 4,37 TFlops
ca. 192 GB/sec
120 W TDP
ca. 280 €
Juli 2016

http://www.geforce.com/hardware/10series/geforce-gtx-1060

Gipsel
2016-06-16, 07:51:44
Hat GP106 kein 192Bit Interface? Sagen zumindest die Einträge bei Zauba:
http://www.3dcenter.org/news/nvidias-gp106-grafikkarten-kommen-augenscheinlich-mit-6-gb-speicher-und-192-bit-speicherinterfa

Dural
2016-06-16, 09:58:04
Da bin ich gespannt wie man in den GP106 1408SP rein bringen will :wink:

Mancko
2016-06-16, 10:52:17
Ehrlich gesagt glaube ich, dass der Produktname 1060Ti einem cut-down GP104 vorbehalten sein wird. Das würde auch gut die Lücke zwischen GTX 1070 und einer GTX 1060 auf GP106 Basis füllen.

iuno
2016-06-16, 10:59:36
Ich halte das fuer problematisch, weil man GP104 nicht ewig in dem Segment verkaufen wollen wird.
Wenn die 1060 dann noch da ist, die 1060 Ti aber eingestellt wird, waere das imho eine schlechte Entwicklung.
Insofern koennten sie mMn. eher den stark beschnittenen GP104 (falls er ueberhaupt kommt) als 1065 einfuehren und dann mit Einfuehrung von 1060 und 1060 Ti durch GP106 auslaufen lassen. Sollte das Ding wirklich mehr Shader als zunaechst angenommen und 196 Bit haben, braucht man auch keine weitere GP104 SKU als Lueckenfueller.

Mancko
2016-06-16, 14:38:19
Ich halte das fuer problematisch, weil man GP104 nicht ewig in dem Segment verkaufen wollen wird.
Wenn die 1060 dann noch da ist, die 1060 Ti aber eingestellt wird, waere das imho eine schlechte Entwicklung.
Insofern koennten sie mMn. eher den stark beschnittenen GP104 (falls er ueberhaupt kommt) als 1065 einfuehren und dann mit Einfuehrung von 1060 und 1060 Ti durch GP106 auslaufen lassen. Sollte das Ding wirklich mehr Shader als zunaechst angenommen und 196 Bit haben, braucht man auch keine weitere GP104 SKU als Lueckenfueller.

Die GTX 1070 kostet aktuell deutlich über 400 Euro. Das heißt im Preisbereich 300 bis mindestens 380 Euro ist Luft um so ein Teil zu verkaufen und damit macht man noch immer keine Miese bei der DIE Größe, zumal aktuell auch einiges an Ausschuss da sein sollte. Ob das Teil dann 1065 oder 1060Ti heißt am Ende ja auch egal. Ich gehe aber fest davon aus, dass wir noch ein GP104 Produkt unter der 1070 sehen werden.

iuno
2016-06-16, 14:47:11
Beachte den Anfang vom letzten Satz. Diese ganze Spekulation setzt natuerlich einen starken GP106 voraus.
keine Miese < grosse Marge
Sie koennten demnach auch eine GP106 SKU um 300 € verkaufen :udevil:

Die GTX 960 ist bei 200 € UVP gestartet, mit nur 2 GiB VRAM und ohne besonders schnell zu sein. Um mal an die Headline auf CB zu erinnern: "Schneller und langsamer als die GeForce GTX 760"

Bei den Preiserhoehungen der 70/80er kann ich mir das schon gut vorstellen. Mehr Speicher (bis zu 6 GiB = Faktor 3), deutlich mehr Performance als der Vorgaenger. Gerade auch wenn das wirklich als "Ti" gelabelt werden koennte, spricht fuer mich auch fuer eine saftige Preiserhoehung der 6er Reihe

Ich gehe aber fest davon aus, dass wir noch ein GP104 Produkt unter der 1070 sehen werden.
Ich auch, im Notebook ;p

stinki
2016-06-16, 16:02:58
Also ich tippe:

GeForce GTX 1060
GP106, 10*128=1280 Shader-Einheiten @ 192 Bit GDDR5-Interface (7 Gbps = 168GB/sec) mit 6GB RAM

Das passt meiner Meinung nach am besten zu 1070 mit 1920 Shader-Einheiten und 256 GB/sec Bandbreite (jeweils 2/3 Anzahl Shader und Bandbreite).

Und bei Taktraten ähnlich der 1070/1080 wird die Performance irgendwo zwischen 970 und 980 liegen (Perf-Index 530%+).
Also ungefähr da wo wir Polaris 10 (RX480) erwarten.

Wird interessant wer das bessere Perf/Watt und Perf/mm² Ergebnis liefern wird.
Würde momentan knapp auf GP106 tippen, aber mal abwarten...
Und der Preis wird auch nicht ganz unwichtig. $299 wäre wahrscheinlich etwas zu teuer verglichen mit RX480 (und deren 8GB)...

Hakim
2016-06-16, 16:23:00
Vielleicht kommen ja eine 1060 mit 128 Bit und eine Ti Version mit 192 Bit. Wobei das vom PR her mit 6 GB gegenüber einer RX 480 mit 8 GB sich halt nicht so gut anhört. Eine Möglichkeit wäre wieder so ein Aufteilung ala 970, den Großteil mit einer hohen Speicheranbindung und den Kleinen Teil mit sehr geringen um auf glatte 8 GB zu kommen, was aber wieder PR mäßig nicht bei allen gut ankommen würde.

Leonidas
2016-06-19, 08:50:48
Also ich würde angesichts des 192-Bit-Interface eher derart tippen:


GeForce GTX 1060
GP106, mglw. 1280 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 4,5 TFlops
ca. 168 GB/sec
ca. 250$
(September 2016 ?)

GeForce GTX 1050
GP106, mglw. 1024 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 3,5 TFlops
ca. 134 GB/sec
ca. 200$
(Q4/2016 ?)


Das 192-Bit-Interface reduziert die Chancen auf mehr Shader-Einheiten als 50% zu GP104 - jene habe ich nur angenommen, weil die Diefläche so (relativ) groß war. Auf die Rechenleistung denke ich wird dies aufgrund der nochmals höheren Taktraten aber kaum Auswirkungen haben.

Tamagothi
2016-06-19, 13:14:18
Na da bin ich gespannt ob Nvidia die Preise aufrufen kann.

DarknessFalls
2016-06-19, 15:59:22
Ich schätze, das ist keine Frage von "können". ;)

Nakai
2016-06-19, 16:38:23
Also ich würde angesichts des 192-Bit-Interface eher derart tippen:


GeForce GTX 1060
GP106, mglw. 1280 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 4,5 TFlops
ca. 168 GB/sec
ca. 250$
(September 2016 ?)

GeForce GTX 1050
GP106, mglw. 1024 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 3,5 TFlops
ca. 134 GB/sec
ca. 200$
(Q4/2016 ?)


Das 192-Bit-Interface reduziert die Chancen auf mehr Shader-Einheiten als 50% zu GP104 - jene habe ich nur angenommen, weil die Diefläche so (relativ) groß war. Auf die Rechenleistung denke ich wird dies aufgrund der nochmals höheren Taktraten aber kaum Auswirkungen haben.

Mhh, das 192 Bit SI bringt jedenfalls gute Einsparungsmöglichkeiten. Ich vermute, das GM204 zwischen GP106 und GP104 platziert werden sollte.

Oder das 192 Bit SI kommt von einem Salvage GP106. Im Endeffekt egal. sub 200mm² ist eine gute Größe für zukünftige Produkte. Ich bin nur gespannt, wie man sich im Bezug auf P10 und P11 schlägt, denn auch dazwischen klafft eine große Lücke, die GP106 gut ausfüllen wird.

Thunder99
2016-06-19, 16:49:44
könnte auch ne GTX1050 mit 128bit geben und 4GB. Oder ist das zu abwegig?

Spasstiger
2016-06-19, 17:22:30
Wenn an den 192-Bit-Gerüchten was dran ist, würden imo auch 1536 SPs dazu passen. Wäre dann aber schon ein potentieller GTX-980-Killer. Ich schätze, dass Nvidia die GTX 1060 an der Radeon RX 480 ausrichtet.

Wenn an den 192-Bit-Gerüchten nix dran ist, dann lautet meine Einschätzung GP104 / 2 analog zu Maxwell. D.h. 1280 SPs, 128 Bit GDDR5X.

Hakim
2016-06-19, 17:30:47
Meint ihr nicht das wenn der Mediamarkt Käufer vor einer GTX1060 mit 6 GB und einer RX 480 mit 8 GB im laden steht eher das aussucht wo 8 GB steht? Gerade in den Preisregionen schauen die Laien beim Kauf eher auf Sachen was ihnen was sagt, sprich Größe es Vrams. Daher hatte ich Vermutung das bei 192 Bit evt doch 8 GB verbaut werden könnten, aber halt ~168 Bit mit 7GB und 24 Bit mit 1GB. Zumindest wenn die GTX1060 so RX 480 Niveau hat, 192Bit@6GB sollte ja normal immer schneller sein wenn der Vram nicht ausgeht.

Rabiata
2016-06-19, 17:38:28
Wenn an den 192-Bit-Gerüchten was dran ist, würden imo auch 1536 SPs dazu passen. Wäre dann aber schon ein potentieller GTX-980-Killer. Ich schätze, dass Nvidia die GTX 1060 an der Radeon RX 480 ausrichtet.
Würde meiner Meinung Sinn ergeben, da ich bezweifle, daß sich die GTX 980 mit ihren 398mm² Die-Größe noch konkurrenzfähig gegenüber der Radeon RX 480 herstellen läßt.

Entweder Nvidia bringt in dem Marktsegment eine Neuentwicklung (was ich glaube), oder sie verlieren die Mittelklassekarten an AMD. Wettbewerb ist doch was schönes, wenn er funktioniert :wink:.

Mancko
2016-06-19, 20:44:40
Meint ihr nicht das wenn der Mediamarkt Käufer vor einer GTX1060 mit 6 GB und einer RX 480 mit 8 GB im laden steht eher das aussucht wo 8 GB steht? Gerade in den Preisregionen schauen die Laien beim Kauf eher auf Sachen was ihnen was sagt, sprich Größe es Vrams. Daher hatte ich Vermutung das bei 192 Bit evt doch 8 GB verbaut werden könnten, aber halt ~168 Bit mit 7GB und 24 Bit mit 1GB. Zumindest wenn die GTX1060 so RX 480 Niveau hat, 192Bit@6GB sollte ja normal immer schneller sein wenn der Vram nicht ausgeht.

Ich glaube das ist kein Problem. Das hat Nvidia in der Vergangenheit auch schon gut durchziehen können. Da wiegt einfach die stärkere Marke sowie die längeren Balken bei den High End / Performance Produkten mehr. Da setzt dan der übliche Herdentrieb auch im Mid-Range ein. Von daher können sie sich 6GB vs. 8GB m.E. schon erlauben, zumal in der Leistungsklasse die 8GB nicht ohne weiteres voll zu bekommen sind weil die GPU vorher in der Leistung abkackt. Zudem sind 2 GB weniger auch ein Preisvorteil. Wenn die Karte auf die gleiche Performance in FullHD kommt, dann verschaffen die 192Bit und 6GB und die damit vermutlich leicht geringfügigere Leistungsaufnahme für Nvidia durchaus Spielräume. Für den 8GB Contest kann man immer noch einen GP104 Salvage nehmen und den Preislich oberhalb der 480 ansiedeln, denn da klafft vermutlich ne ganz gute Lücke zur 1070 auch vom GP106 aus.

Dural
2016-06-19, 22:13:01
1280sp und 192bit passt doch ziemlich gut.

Zudem nv mit 192bit im chip extrem variabel ist, 3,4,6 und 8gb möglich, billiger gddr5 oder später schnellerer gddr5x speicher möglich.

Zudem 6gb bei so einer karte locker ausreicht.

Kriton
2016-06-20, 22:02:47
Von daher können sie sich 6GB vs. 8GB m.E. schon erlauben, zumal in der Leistungsklasse die 8GB nicht ohne weiteres voll zu bekommen sind weil die GPU vorher in der Leistung abkackt.

Wie gut, dass Du die Leistung der RX 480 schon kennst, und dass hochauflösende Texturen keinen Speicher kosten - oh wait...


Zudem sind 2 GB weniger auch ein Preisvorteil. Wenn die Karte auf die gleiche Performance in FullHD kommt, dann verschaffen die 192Bit und 6GB und die damit vermutlich leicht geringfügigere Leistungsaufnahme für Nvidia durchaus Spielräume.

Natürlich, Nvidia ist (in letzter Zeit) bekannt dafür über den Preis anzugreifen.

Der_Korken
2016-06-21, 14:50:45
Mit 1536SPs und 192bit SI wäre die 1060 schon sehr dicht an der 1070 dran. 1920SPs sind gerade mal 25% mehr und die 1060 wird sicherlich noch etwas höher takten. Die Tatsache, dass die 1070 nur 75% vom GP104 ist, spricht eher dafür, dass GP106 nur 1280SPs hat.

Fusion_Power
2016-06-21, 14:57:20
Ich such was um die 200€ max. Hab erst die 960er im Auge gehabt aber ich kann auch gut auf die neue Generation warten. So wies aussieht wird die 1060er aber deutlich mehr kosten als ~200€, heißt das auch, leistungstechnisch ist die 1060er besser als die 960er? Und wäre dann in der von mir anvisierten Leistungsklasse vllt. die 1050er ebenbürtig?
Und wieso knausert NVidia neuerdings an der Speicherbandbreite? meine alte GTX460 hatte schon 256Bit und die hab ich für unter 150€ bekommen damals.

iuno
2016-06-21, 15:05:29
Mit 1536SPs und 192bit SI wäre die 1060 schon sehr dicht an der 1070 dran. 1920SPs sind gerade mal 25% mehr und die 1060 wird sicherlich noch etwas höher takten.

Wieso so sicher? Dass der Takt mit dem 6er noch deutlich steigt war bei Maxwell auch nicht der Fall.
Vielleicht waren sie aufgrund der anderen Einsatzgebiete gezwungen noch etwas mehr auf Effizienz zu gehen, breiter zu bauen und langsamer zu takten.
Ich such was um die 200€ max. Hab erst die 960er im Auge gehabt aber ich kann auch gut auf die neue Generation warten. So wies aussieht wird die 1060er aber deutlich mehr kosten als ~200€, heißt das auch, leistungstechnisch ist die 1060er besser als die 960er? Und wäre dann in der von mir anvisierten Leistungsklasse vllt. die 1050er ebenbürtig?
Und wieso knausert NVidia neuerdings an der Speicherbandbreite? meine alte GTX460 hatte schon 256Bit und die hab ich für unter 150€ bekommen damals.
Wir wissen quasi noch fast gar nichts zu gp106 und 1060/1050. Die 1060 sollte aber in jedem Fall schneller sein als die 960 und zudem mehr Speicher bieten. Wo die 1050 genau eintrifft kann man daher auch nicht sagen.
Nvidia "knausert" da schon lange, fährt aber recht gut damit. Bessere Kompression, größere Caches usw. fangen das locker auf.
Um 200€ kommt aber auch polaris 10, falls AMD für dich eine Option ist. Release und Tests am 29.

Rampage 2
2016-06-21, 23:02:57
Kann denn jemand was zu der ROP-/TMU-Zahl der 1060 etwas sagen?

Meine Vermutung:

- 48 ROPs (da 192Bit-SI)
- 80 TMUs (@ 1280SPs) oder 96 TMUs (@ 1536SPs)

Und wie hoch *darf* denn die Speicherbandbreite einer 1060 maximal sein vgl. mit der 1070?

R2

Fusion_Power
2016-06-22, 00:09:56
Wir wissen quasi noch fast gar nichts zu gp106 und 1060/1050. Die 1060 sollte aber in jedem Fall schneller sein als die 960 und zudem mehr Speicher bieten. Wo die 1050 genau eintrifft kann man daher auch nicht sagen.
Nvidia "knausert" da schon lange, fährt aber recht gut damit. Bessere Kompression, größere Caches usw. fangen das locker auf.
Um 200€ kommt aber auch polaris 10, falls AMD für dich eine Option ist. Release und Tests am 29.
Schon krass diese Veröffentlichungspolitik. Da ist die neueste Generation GraKas des Premium-Sektors schon im Handel und die Mainstream Versionen der gleichen Generation sind noch völlig unbekannt und quasi unbeschriebene Blätter. Ein Fall für Gallileo-Mystery... :D

Hakim
2016-06-22, 00:31:36
Evtl. will man noch abwarten und schauen wie sich Polaris schlägt um noch einige Anpassungen durch zu ziehen, wird schon seine Gründe haben warum beide Hersteller sich mit Infos so zurückhalten.

Der_Korken
2016-06-22, 00:53:41
Wieso so sicher? Dass der Takt mit dem 6er noch deutlich steigt war bei Maxwell auch nicht der Fall.
Vielleicht waren sie aufgrund der anderen Einsatzgebiete gezwungen noch etwas mehr auf Effizienz zu gehen, breiter zu bauen und langsamer zu takten.

Mea culpa. Ich war davon ausgegangen, dass GM204 und 206 den gleich Maximaltakt haben und demnach die 970 niedriger als die 960 taktet (weil 970<980), aber das stimmt gar nicht.

Troyan
2016-06-22, 01:03:32
Schon krass diese Veröffentlichungspolitik. Da ist die neueste Generation GraKas des Premium-Sektors schon im Handel und die Mainstream Versionen der gleichen Generation sind noch völlig unbekannt und quasi unbeschriebene Blätter. Ein Fall für Gallileo-Mystery... :D

Da ist nichts unbekannt. GP106 ist entweder
50% von GP104 - also 1280 mit 192bit oder
60% von GP104 - also 1536 mit 192bit.

Möglicherweise versteckt sich in GP106 ein 256bit Interface, aber das muss sich erst noch zeigen.

Dural
2016-06-22, 15:57:56
Ich tippe ja auf 1280SP, 80TMUs, 48ROPs + 192Bit, es passt einfach zu gut. :wink:

Rechnerisch ergibt das eine fast Punktlandung auf GM204 Leistung. Wenn es davon Custom Karten mit 2GHz+ geben wird eventuell sogar leicht über eine stock 980.

Ailuros
2016-06-22, 17:43:05
2+GHz? ;D Hahahahahaha :freak:

Nur mal so ein Geankensporn warum es NICHT eine gute Idee ist so brutal mit Frequenzen herumzuschmeissen: http://eu.evga.com/Products/Product.aspx?pn=08G-P4-6286-KR

Undertaker
2016-06-22, 17:51:19
Wenn man auf GM204 vs GM206 blickt und dann von GP104 auf GP106 schließt, sehe ich 2 GHz realen Boosttakt bei so einigen Custom Karten kommen.

Ailuros
2016-06-22, 17:58:07
Davon wiird die Idee dahinter nicht weniger idiotisch.

Godmode
2016-06-22, 19:02:53
Davon wiird die Idee dahinter nicht weniger idiotisch.

Das die Stockkarte nicht mit 2 GHz läuft, ist uns schon klar. Die Customkarten werden aber wohl mit hoher Wahrscheinlichkeit ähnliche Takte wie GP104 erreichen. Zumindest gehe ich davon, das die grundlegenden Bausteine der Pascal Serie GPU102-GPU107 sehr ähnlich sind, und daher auch ähnliche Taktraten bieten werden.

Oder was gäbe es für einen Grund, dass GP106 ein völlig anderes Taktverhalten als GP104 an den Tag legt?

Ailuros
2016-06-22, 20:06:54
Das die Stockkarte nicht mit 2 GHz läuft, ist uns schon klar. Die Customkarten werden aber wohl mit hoher Wahrscheinlichkeit ähnliche Takte wie GP104 erreichen. Zumindest gehe ich davon, das die grundlegenden Bausteine der Pascal Serie GPU102-GPU107 sehr ähnlich sind, und daher auch ähnliche Taktraten bieten werden.

Oder was gäbe es für einen Grund, dass GP106 ein völlig anderes Taktverhalten als GP104 an den Tag legt?

Mit Ausnahme vom absoluten high end halte ich das ganze Prinzip dahinter eher schwachsinnig und das natuerlich IHV agnostic. Einfache Frage das hier: http://www.evga.com/Products/Product.aspx?pn=04G-P4-5988-KR oder das hier: http://www.evga.com/Products/Product.aspx?pn=06G-P4-3997-KR

Um das ging es mir. Anstatt eine jegliche GTX1060 bzw. RX480 mit 6-pin + 8 pin form factor macht es wohl zich Mal mehr Sinn ieinfach eine Kategorie hoeher einzukaufen, denn die verrueckt uebertakteten SKUs werden auch um einiges teurer sein als von den GPUs mit default Frequenzen.

Dural
2016-06-22, 23:18:09
Ailuors hat nur noch nicht mit bekommen das es 1080 custom karten gibt die mit 2ghz+ laufen ;)

Und nur so als info, wo genau habe ich geschrieben das die custom 1060 über 2ghz laufen? Ich habe nur geschriben das so eine karte etwas schneller als eine stock 980 sein sollte...

basix
2016-06-22, 23:37:43
Ailuros geht es nur darum, dass extrem hochgezüchtete Customs in den Preisbereich des nächsthöheren Chips vorstossen können. Und dann würde ich ebenfalls wie er sagt den grösseren Chip nehmen, auch wenn es ein Referenzdesign sein sollte (wenn es denn nicht grottig ist). Bei der normalen 980er gab es ja ein paar Beispiele, welche so teuer wie die 980 Ti waren (z.B. EVGA Kingpin). Und dann macht analog solch eine 1060 evtl. keinen Sinn mehr gegenüber einer 1070

Ailuros
2016-06-23, 13:21:32
Ailuors hat nur noch nicht mit bekommen das es 1080 custom karten gibt die mit 2ghz+ laufen ;)

Ja ich bin so "wissensarm" wenn es zu GPUs kommt dass ich mich bei Dir dem "Spezialisten" informieren muss. Es gibt eine Erlaeterung von mir und von einem anderen User aber dass zu verstehen was Du liest gehoert offensichtlich auch nicht zu der Vielfalt der Felder in denen Du "spezialisierst".

Und nur so als info, wo genau habe ich geschrieben das die custom 1060 über 2ghz laufen? Ich habe nur geschriben das so eine karte etwas schneller als eine stock 980 sein sollte...

Interessiert auch niemand.

dildo4u
2016-06-28, 09:07:26
Referenz 1060 in Hong Kong aufgetaucht.


https://www.reddit.com/r/nvidia/comments/4q808n/gtx_1060_appears_in_hong_kong/

https://www.computerbase.de/2016-06/geforce-gtx-1060-amd-radeon-rx-480-anfang-juli/

Dural
2016-06-28, 09:16:07
hab ja gesagt dass die nächsten Monat kommt. :wink:

Da sieht man wieder wie naiv die komplette Geschäftsführung bei AMD ist, ein baldiger Konter von NV war von Anfang an klar. :rolleyes:

iuno
2016-06-28, 09:17:41
Ich bin gespannt, wie lange NV noch braucht, um die Karte in grosser Zahl verfuegbar zu machen. AMD will an den Marktanteilen knabbern und GP106 ist die Antwort darauf. Allerdings glaube ich, dass auch die 1060 preislich noch deutlich ueber der 480 platziert wird, erst die 1050 und noch spaeter folgende Karten mit GP107/108 runden das Ganze nach unten ab und konkurrieren dann mit P11/P10 Pro.
GP106 wird GM204 ersetzen und auch dementsprechend kosten, imho.
Wenn man die PX-2 Bilder anschaut, scheint der Chip noch recht gross. Dort sieht man ihn auch mit 8 Speicherchips. Ist er beschnitten auf 128 oder hat er in Wirklichkeit 256 Bit? :confused:

X.Perry_Mental
2016-06-28, 09:47:24
Da sieht man wieder wie naiv die komplette Geschäftsführung bei AMD ist, ein baldiger Konter von NV war von Anfang an klar. :rolleyes:
Hast du mal darüber nachgedacht, deine Expertise zu Geld zu machen? Mit so tiefgründigem und fundiertem Fachwissen könntest du AMD doch einen Beratervertrag anbieten.

Mancko
2016-06-28, 10:10:33
hab ja gesagt dass die nächsten Monat kommt. :wink:

Da sieht man wieder wie naiv die komplette Geschäftsführung bei AMD ist, ein baldiger Konter von NV war von Anfang an klar. :rolleyes:

Naiv sind die sicherlich nicht. Die versuchen m.E. das Beste aus der aktuellen Situation zu machen. Das R&D reicht dort einfach nicht mehr für annehmbare Zeitabstände in der Palette. Ich habe ja schon mal gesagt, dass GP106 näher an GP104 zeitlich liegen wird als Vega an Polaris. Ich glaube sogar, dass GP102 vor Vega kommt. Das sind alles Folgen von R&D Einsparungen und damit wirtschaftliche Zwänge. Auch gegen Maxwell hatten sie nichts. Da wurde einfach in weiten Teilen die alte Palette aufgewärmt. Ich würde das nicht naiv nennen wollen. Es geht derzeit bei AMD halt einfach nicht anders.

Das einzige wo sie m.E. richtig daneben gelangt haben ist beim Marketing. Das frühe Plappern von Roy Taylor war einfach ein Witz. Damit hat man sich selber eigentlich unnötiger Weise nur lächerlich gemacht. Wenn sie dann wenigstens als erste rausgekommen wären, aber von Monate Vorsprung reden und dann zusehen zu müssen wie die Konkurrenz den P100 als Dickschiff sowie danach GP104 vorstellt und letztlich ausliefert ist halt blöd. Da wäre Fresse halten besser gewesen.

Dural
2016-06-28, 10:18:21
Das ist mir schon klar, und AMD macht auch viel richtig. Nur zerstören ihre Fans das ganze oft auch wieder...

Auf den Preis bin ich auch gespannt, steigt NV in den Preiskampf mit ein oder nicht :biggrin:

@iuno
Da ist auch noch der GM204 drauf. ;)

iuno
2016-06-28, 10:21:49
@iuno
Da ist auch noch der GM204 drauf. ;)

In der neueren Version hat das Board einen noch unbekannten Chip, ich bin mir sehr sicher, dass das GP106 ist.

http://pics.computerbase.de/7/1/6/1/1/1-1080.4253138975.jpg

Der Chip ist kleiner als GP104, das Board ist auch anders (deutlich voller) als noch die Version mit GM204. Ich habe Vergleichsbilder gemacht aber vergessen hochzuladen ;D Das kann ich heute Mittag nachholen

Dural
2016-06-28, 10:24:38
OK, ich dachte du meinst noch die alten Fotos, ja ich gehe auch stark von GP106 aus.

256Bit wären aber schon krass für den GP106.

Edit:
Könnte ja auch einfach ein Mischbestückung sein, um auf 8GB mit den 192Bit zu kommen. NV hatte dies doch schon mal auf einer Karte, war es die 660?

iuno
2016-06-28, 10:32:33
660 Ti, iirc. Daran glaube ich bei so einer professionellen Loesung aber nicht.

Der Chip sollte imho uebrigens auch etwa gleich gross sein wie P10, ich bin gespannt was dabei raus kommt.

Dural
2016-06-28, 10:40:25
Muss ja auch nicht sein das die so zum einsatz kommen, NV zeigt viel wenn der Tag lang ist ;)

Vieleicht haben sie einfach irgend welche Karten genommen die so wie so gerade bei ihnen rum liegen, GP106 Mobile Version eben mit 8GB ;)

Fliwatut
2016-06-28, 10:54:11
GP106 kommt angeblich schon im Juli mit 3/6GB: https://www.computerbase.de/2016-06/geforce-gtx-1060-amd-radeon-rx-480-anfang-juli/

iuno
2016-06-28, 11:12:48
Ich wundere mich ehrlich gesagt immer noch ueber das Design der 1000er Serie.
Die 1060 bekommt ja demnach sogar eine neue Abdeckung, mit noch billigerem Aussehen. Der Kuehler/die Karte scheint mir aber auch etwas kuerzer zu sein.
Meint ihr es gibt auch eine FE der 1060?

maximus_hertus
2016-06-28, 11:13:01
Wie wäre es mit: schneller als die RX 480, 6 GiB, 80-90W Verbrauch, 299 USD Founder, 259 USD Custom, 199 USD die etwas langsamere 3 GiB-Version?

Hakim
2016-06-28, 11:14:55
@fliwatut wurde schon gepostet

3GB für einen Chip der auf dem Niveau einer 970-980 sein sollte finde ich etwas wenig. Bei einem 1050 würde es eher passen

memakr
2016-06-28, 11:15:21
Wie wäre es mit: schneller als die RX 480, 6 GiB, 80-90W Verbrauch, 299 USD Founder, 259 USD Custom, 199 USD die etwas langsamere 3 GiB-Version?

+breite Verfügbarkeit in 8 Wochen

dildo4u
2016-06-28, 11:18:46
@fliwatut wurde schon gepostet

3GB für einen Chip der auf dem Niveau einer 970-980 sein sollte finde ich etwas wenig. Bei einem 1050 würde es eher passen
Die Karte muss kein Sinn machen sondern die 199€ schaffen,genau wie bei der 480 kaum einer mit Ahnung die 4GB Version kaufen wird.

iuno
2016-06-28, 11:20:38
Das ist etwas zu niedrig angesetzt, imho. Bei 199 wuerde ich wenn ueberhaupt die billigste 1050 sehen, auch weil der Chip wohl groesser wird wie zunaechst angenommen (jedenfalls groesser als 50% von GP104).

Speku:
GP107: 100-200
GP106: 250-350
GP104: 450-700
GP102: 800-1000+

Ausreisser (FE, OCXXXXXXX) kann es dazu natuerlich auch immer geben.
Ich lasse mich aber gerne ueberraschen :P

memakr
2016-06-28, 11:21:42
Die Karte muss kein Sinn machen sondern die 199€ schaffen,genau wie bei der 480 kaum einer mit Ahnung die 4GB Version kaufen wird.

Und sich dann die extra 3Gbyte mit 60€+ vergüten lassen?

Das wird nicht funktionieren. Die Karte startet nicht unter 240-250€

Mancko
2016-06-28, 11:27:44
Das ist mir schon klar, und AMD macht auch viel richtig. Nur zerstören ihre Fans das ganze oft auch wieder...

Auf den Preis bin ich auch gespannt, steigt NV in den Preiskampf mit ein oder nicht :biggrin:


Ich denke Nvidia wird in den Preiskampf mit einsteigen. Allerdings werden sie wie immer das vergleichbare Produkt leicht über AMD plazieren. Das können sie auch, weil die Marke stärker ist und sie aktuell das Performance und High End Segment dominieren. Das färbt mit ab. Da sie parallel dazu oben in den Segmenten auch ordentlich abgreifen, können sie sich Preiswettbewerb unten auch leisten. Die Marge wird in Summe immer noch sehr gut aussehen. AMD hat dagegen die Schwierigkeit oben auf absehbare Zeit nichts zu haben. Auch im professionellen Segment ist da eher Ebbe.

maximus_hertus
2016-06-28, 11:28:18
Die Karte muss kein Sinn machen sondern die 199€ schaffen,genau wie bei der 480 kaum einer mit Ahnung die 4GB Version kaufen wird.

Ca. 180 USD? Never. In Deutschland wird es eher 220-230 Euro sein, in den USA dann die 199 USD.

Fun Fact: Weniger VRAM als die GTX 970, fast gleicher Preis ;) Irgendwie unspannend.

Thunder99
2016-06-28, 11:30:32
Die Meldung soll doch nur mögliche Käufer der RX480 zum warte zu bewegen. Aber die möglichen Daten sprechen eher gegen GP106. Weniger Speicher, später am Markt, kann sich nicht mehr technologisch absetzten. Einzig Performance ist eine Unbekannte

Undertaker
2016-06-28, 11:36:45
Wenn Effizienz/Features bei ähnlicher Performance über der RX480 liegen sollten, könnte NV vielleicht 10-15 Prozent Aufpreis durchdrücken, so war es zumindest in der Vergangenheit mit der GTX 960. Da der kleinere VRAM marketingtechbisch ungünstig ist, vielleicht diesmal auch weniger. Wenn die RX480 8 GB nach einigen Wochen bei 250-260 Euro landet, könnte ich mir eine gleich schnelle GTX 1060 gut für 280 Euro vorstellen. Bei besserer Effizienz und effizienterem Videodecoder wäre es mir den Aufpreis wert. Objektiv sind die 6 GB für GTX 980 Leistung absolut ausreichend.

Loeschzwerg
2016-06-28, 11:37:15
Meint ihr es gibt auch eine FE der 1060?

Ich würde sagen nein und wenn dann nur in ganz homöopathischen Mengen, ähnlich wie bei der GTX 960. Klar wird das Design so bei den OEMs zum tragen kommen, aber im Retail Bereich werden es die Customs (inkl. Custom DHE Lösungen).

Klar will man mit der Meldung jetzt gegen den RX 480 Launch schießen, aber wirklich weit entfernt war der Launch der GTX 1060 nie.

scully1234
2016-06-28, 11:45:34
hab ja gesagt dass die nächsten Monat kommt. :wink:

Da sieht man wieder wie naiv die komplette Geschäftsführung bei AMD ist, ein baldiger Konter von NV war von Anfang an klar. :rolleyes:

Man hat einfach abgewartet bis die finalen Spezifikationen von 480 gesetzt waren....



Auf den Preis bin ich auch gespannt, steigt NV in den Preiskampf mit ein oder nicht :biggrin:


Mit Sicherheit werden sie das müssen, da sie in dem Sektor nunmehr nicht mehr alleine agieren.

Was immer noch in der Wagschale liegt wäre aber ein Gp104 /150 als Überbrückung.Bin gespannt ob sie wirklich schon genügend Gp106 sammeln konnten für einen Release

Ich wundere mich ehrlich gesagt immer noch ueber das Design der 1000er Serie.
Die 1060 bekommt ja demnach sogar eine neue Abdeckung, mit noch billigerem Aussehen.

Aber die Ziegelstein Optik der 480 geht ok oder?

MartinRiggs
2016-06-28, 11:53:06
Die Meldung soll doch nur mögliche Käufer der RX480 zum warte zu bewegen. Aber die möglichen Daten sprechen eher gegen GP106. Weniger Speicher, später am Markt, kann sich nicht mehr technologisch absetzten. Einzig Performance ist eine Unbekannte

Macht nix, die Nvidianer schlagen trotzdem zu :rolleyes:

Hakim
2016-06-28, 12:04:47
Warten lohnt sich derzeit aber zwecks der Vergleichbarkeit schon, wenn sich seit langer Zeit soviel auf dem Markt bewegt.

scully1234
2016-06-28, 12:07:07
Macht nix, die Nvidianer schlagen trotzdem zu :rolleyes:
Wieso auch nicht wenn der Chip was taugt

Troyan
2016-06-28, 12:08:02
Erstmal muss AMD zeigen, dass man mehr als nur billig bieten kann. Nicht, dass die Rebellion am Ende des Monats Juli schon wieder vorbei ist.

Disco_STFU
2016-06-28, 12:13:15
Can 30 Watts truly make the difference? :rolleyes:

Vielleicht braucht sie ja nichtmal einen externen Stromanschluss!!1

Troyan
2016-06-28, 12:14:48
Nö, eher FL12_1?! Architekturanpassung für VR?! Geringer Stromverbrauch?!

Wenn AMD nur auf Bruteforce setzt, dann wird Polaris einer der größten Flops in deren Geschichte.

scully1234
2016-06-28, 12:16:28
Wenn ich mir Igors Verbrauchsmessungen der gedrosselten 1070 ansehe liegt das durchaus im Rahmen des Möglichen das ein Gp106 mit 75 Watt zurecht käme

illidan
2016-06-28, 12:21:08
Für Notebooks schon, für ein normales Referenzdesign würde man es aber wohl nicht machen.

Sunrise
2016-06-28, 12:22:19
Ich denke Nvidia wird in den Preiskampf mit einsteigen. Allerdings werden sie wie immer das vergleichbare Produkt leicht über AMD plazieren. Das können sie auch, weil die Marke stärker ist und sie aktuell das Performance und High End Segment dominieren. Das färbt mit ab. Da sie parallel dazu oben in den Segmenten auch ordentlich abgreifen, können sie sich Preiswettbewerb unten auch leisten. Die Marge wird in Summe immer noch sehr gut aussehen.
NV sollte da definitiv mit einsteigen, denn man könnte zumindest diejenigen Dies, welche die oberen Ziele für GP106 nicht erreichen sogar preislich wahrscheinlich unter einer RX480 platzieren ohne schlechtere Margen zu riskieren. Aber selbst $199 USD von NV wären eben eine Ansage, nur hat AMD hier den 8GB-Vorteil und du glaubst garnicht wie viele Käufer nur auf den RAM schauen, große Zahlen machen immer Eindruck. Man kann auf keinen Fall eine 3GB-Salvage gegen 8GB stellen, das kauft keine Sau.

NV muss also min. 6GB vs. 8GB anbieten und das bei den Chips, die sich nicht voll-funktionsfähig verkaufen lassen.

Obenrum kann NV wie bei der 1080 wieder den Preis so hoch setzen, dass die Lücke bis zur 1070 gefüllt wird.

Das war ohnehin der Plan von NV, das komplette LineUp stand praktisch fest, nur die Priorität der Chips (HPC - GP100 zuerst, dann GP104 - Desktop High-End) wurde eben so festgelegt, wie NV am besten Geld verdienen kann. Die hatten parallel sämtliche Tapeout von langer Hand vorbereitet und AMD hat gerademal einen einzigen Chip zur Massenfertigung gegeben. Im HPC verdienen sie sich eine goldene Nase und GP104 wird auch gekauft bei diesen horrenden Preisen.

AMD hat dagegen die Schwierigkeit oben auf absehbare Zeit nichts zu haben. Auch im professionellen Segment ist da eher Ebbe.
Im Pro-Markt sicher auf absehbare Zeit nicht, auch Vega wird sich noch bis 2017 hinziehen.

scully1234
2016-06-28, 12:22:52
Die perfekte HTPC Karte ohne zusätzlichen 6 Pin

iuno
2016-06-28, 12:24:21
Das wird GP107 uebernehmen, GM107 braucht auch noch einen Nachfolger

Troyan
2016-06-28, 12:26:15
Die 8GB Polaris-Karte kostet $239 in Amerika. Für $199 gibt es nur die 4Gb Version.
Wenn nVidia will, können sie auch die 6GB Version für $199 verkaufen. Immerhin kostet GM206 mit 4GB auch nur soviel...

iuno
2016-06-28, 12:28:15
Ja klar, die hat aber 1/3 weniger Speicher, ist vergleichbar gross und in 28 nm. Warum sollten sie das Zeug so verramschen?
Ich bin mir nichtmal sicher, ob der Marktanteil sich grossartig verschiebt, wenn die Karte "nur" 50-100$ mehr kostet als die AMD. Nvidia ist nicht gezwungen, wegen etwas Marktanteil auf ihre fette Marge zu verzichten, gerade in der Situation koennten sie das auch mal gelassen beobachten.

Mancko
2016-06-28, 12:30:14
NV sollte da definitiv mit einsteigen, denn man könnte zumindest diejenigen Dies, welche die oberen Ziele für GP106 nicht erreichen sogar preislich wahrscheinlich unter einer RX480 platzieren ohne schlechtere Margen zu riskieren. Aber selbst $199 USD von NV wären eben eine Ansage, nur hat AMD hier den 8GB-Vorteil und du glaubst garnicht wie viele Käufer nur auf den RAM schauen, große Zahlen machen immer Eindruck. Man kann auf keinen Fall eine 3GB-Salvage gegen 8GB stellen, das kauft keine Sau.

Nvidia wird ja nun auch nicht die 3GB gegen die 8GB stellen, sondern die 3GB gegen die 4GB RX480 und die 6GB gegen die 8GB RX480. Abschließend können sie noch GP104-150 mit 8GB oberhalb der 8GB RX480 ansetzen. Etwas weniger RAM als AMD ist m.E. kein Problem. Das hatten sie in der Vergangenheit auch oft. Wenn das Produkt leicht besser performt und die bessere Effizienz aufweist und damit auch simplere Kühllösungen, dann können sie m.E. auch mit leicht weniger RAM ins Rennen gehen und trotzdem geringfügig mehr verlangen. Nehmen wir an die 8GB RX480 kostet 229$. Dann könnte Nvidia mit 6GB GP106 im gleichen Preisbereich wildern. Kostet die Karte genauso viel oder geringfügig mehr bei gleicher oder besserer Performance, dann werden viele Kunden eher Nvidia kaufen. Die Margen sind zudem dann auch besser als bei AMD.

Also wenn ihr mich fragt, dann ist das Mainstream Thema noch lange nicht gegessen. Ich habe schon vor Wochen gesagt, dass Nvidia genau zu dem Zeitpunkt wo AMD launchen wird, mit dem leaken anfängt und jede Wette, dass wir innerhalb der nächsten 7 Tage noch mehr Leaks sehen werden. Das wird den Polaris Launch ganz gut stören und vermutlich einige vorerst zum abwarten bewegen. Wie gesagt GP106 liegt zeitlich einfach viel näher an Polaris als Vega and GP104. Der Grund sind ganz klar R&D Restriktionen bei AMD. Die Sparmaßnahmen der letzten Jahre um die Quartalszahlen nicht noch katastrophaler aussehen zu lassen schlagen da voll durch.

Und wenn AMD sagt sie konzentrieren sich auf Mainstream und VR Verbreitung, dann ist das einfach eine Schlussfolgerung aus diesen R&D Restriktionen. Wenn sie könnten würden sie sich ganz gern auf beides (Mainstream und Performance bis High End) konzentrieren. Können sie aber nicht. Das ist alles Marketing Gewäsch. Sie versuchen das Beste aus der Situation zu machen und das ist nachvollziehbar. Heißt aber trotzdem nicht, dass ich deren Marketinggewäsch abkaufe.

Dural
2016-06-28, 13:22:23
Das pcb ich auch recht kurz, der kühler ist länger. Der selbe aufbau wie bei polaris. Ist mir nur gerade aufgefallen ;)

Troyan
2016-06-28, 13:24:56
Ja klar, die hat aber 1/3 weniger Speicher, ist vergleichbar gross und in 28 nm. Warum sollten sie das Zeug so verramschen?
Ich bin mir nichtmal sicher, ob der Marktanteil sich grossartig verschiebt, wenn die Karte "nur" 50-100$ mehr kostet als die AMD. Nvidia ist nicht gezwungen, wegen etwas Marktanteil auf ihre fette Marge zu verzichten, gerade in der Situation koennten sie das auch mal gelassen beobachten.

"Fette Marge" bringt ohne Umsatz nichts.
Ich denke schon, dass nVidia eher mehr Umsatz mit nimmt als auf die Marge zu achten. Vor Allem da mit VR eine Zeit eingeläutet wird, wo die Hardwarebasis die zukünftigen Optimierungen bestimmt. Und je mehr Pascal-Chips in den Händen von Leuten sind, umso stärker wird darauf optimiert. Und sollte dies passieren, wird es den kompletten Wind von Polaris nehmen.

Hakim
2016-06-28, 13:25:08
überall wird gegeizt :)

Rabiata
2016-06-28, 13:38:55
Was immer noch in der Wagschale liegt wäre aber ein Gp104 /150 als Überbrückung.Bin gespannt ob sie wirklich schon genügend Gp106 sammeln konnten für einen Release
Ich bin skeptisch :uponder:

Derzeit ist die Lieferbarkeit der GTX 1070 noch recht limitiert, im Heise Preisvergleich steht bei den meisten Händlern noch so was wie "bestellt" oder "Lieferzeit 3 Wochen". Ich denke Nvidia hat noch keine GP104/200 übrig zum weiteren "degradieren", was vorhanden ist wird als GTX 1070 verkauft weil es da mehr Geld gibt.

Damit blieben noch die GP104 die so kaputt sind daß sie nicht mal als GP104/200 taugen. Ob es davon viele gibt?

Ailuros
2016-06-28, 14:49:24
Tja um die letzte Frage zu beantworten muesste man ein insider sein um zu wissen wie die binning yields fuer GP104 genau aussehen. Wenn eine gesunde Anzahl von 104 cores nicht 15 aktive clusters bei projezierter Frequenz schaffen, dann ist es definitiv ein Vorteil fuer sie diese als 1060-whatever loszuwerden. So oder so unter normalen Umstaenden bei neuen Prozessen je mehr aktive clusters desto kleiner das Prozentual von binning yields pro wafer.


Frei erfundene Zahlen: angenommen sie bekommen pro wafer momentan um die 70 aktive cores, davon 15 mit 20 aktiven clusters, 25 mit 15 aktiven clusters und 30 mit 10 aktiven clusters. Fuer die letzten ist es besser diese bei halbem Preis zu verkaufen als der Abfalleimer. Mein Beispiel hat natuerlich ziemlich optimistische Zahlen fuer einen so neuen Prozess, aber je mehr wafer runs sie machen desto mehr 10 cluster chips werden sie sammeln koennen und bei ziemlich hoher Anzahl von wafers sind dann auch die Mengen gross genug um eine grosse Nachfrage fuer 1060-er SKUs zu decken.

Sobald GP106 dann endlich erscheint koennen sie dann beruhigt den kleinen GP104 Abfall im Quadro Markt verkaufen.

scully1234
2016-06-28, 20:34:55
Der Kuehler/die Karte scheint mir aber auch etwas kuerzer zu sein.


etwas kuerzer ist gut

Mit nem schmalen Custom Kuehler der naechste Kandidat fuer ne Mini Version

basix
2016-06-28, 20:42:07
Sieht meiner Meinung nach besser aus als die grösseren Geschwister. Und bringt dem potentiellen Kunden aufgrund der $hnlichkeit die Illusion er kaufe Premium ;D

Troyan
2016-06-28, 21:15:30
https://twitter.com/PellyNV/status/747827056541478913

;D

scully1234
2016-06-28, 21:36:06
Wie jetzt, soll das bedeuten das da schon Samples verschickt werden, oder steh ich auf dem Schlauch?

Wenn das Pelztier, mit der Wumme droht ,wird's wohl so sein:biggrin:

Edit:

Aber der redet von Fun, also muss es was größeres sein, ne 1060 macht doch keinen Spaß mehr, wenn man 1070/1080 kennt;D

GP102 incoming...:P

Dural
2016-06-28, 21:58:55
NV ist so extrem gelassen... marketing mässig wäre einen baldigen test von gp102 natürlich der hammer, die doppelte leistung als das was amd liefer kann würde sicherlich gut ankommen. Kein mensch würde sich da noch eine rx480 zulegen, sondern auf die 1060 warten.

Aber ich glaube nicht an gp102, das wird schon die 1060 sein.

Troyan
2016-06-28, 22:03:12
Äh, doppelte Leistung wird schon die GTX1080 liefern. :D

Wird hart werden für AMD: Nichts im High-End und massive Konkurrenz im Low- bis Midrange.

scully1234
2016-06-28, 22:03:33
Aber ich glaube nicht an gp102, das wird schon die 1060 sein.

Oder beides, das waere ein Strike:smile:

Dural
2016-06-28, 22:04:13
War auf fury x bezogen ;)

Raspo
2016-06-28, 22:24:56
Äh, doppelte Leistung wird schon die GTX1080 liefern. :D

Wird hart werden für AMD: Nichts im High-End und massive Konkurrenz im Low- bis Midrange.

Die da wäre?

Hakim
2016-06-28, 22:34:38
Könnte mir gut vorstellen das Nvidia die 1060 mit 6GB und eine abgespeckte GP106 als 1050 mit 3GB bringt.

Troyan
2016-06-28, 22:36:16
Naja, 3GB sind einfach zu wenig. Vielleicht im OEM Markt oder für Notebook-OEMs, aber im Desktop-Markt kann man 3GB doch vergessen.

Wobei, wenn man die GTX950 ersetzen möchte, dann machen vielleicht 3GB noch sinn. Aber mehr als 150€ kann man dafür einfach nicht verlangen...

Fusion_Power
2016-06-28, 23:38:31
Kostet VRAM denn so viel mehr als schnöder PC RAM?

Hakim
2016-06-28, 23:44:38
Kostet VRAM denn so viel mehr als schnöder PC RAM?

6 GB ist es wegen der 192Bit Anbindung, wenn man 8 GB machen wollte, müsste man wieder aufteilen, was wahrscheinlich (solange der Vram nicht ausgeht) die Karte insgesamt lahmer machen würde.

N0Thing
2016-06-29, 00:24:30
https://twitter.com/PellyNV/status/747827056541478913

;D

Das wirkt so bemüht, aber die Idee ist immerhin nett.

BlacKi
2016-06-29, 01:04:55
Kostet VRAM denn so viel mehr als schnöder PC RAM?
vielfach mehr, aber oft lohnt sich der aufpreis.

Hübie
2016-06-29, 04:15:34
Also vor Herbst braucht niemand hier den Sabberfaden hängen lassen. Vorher wird GP102 keinesfalls kommen.
Was NVIDIA hier mit Pascal gerade vollzieht ist in puncto ttm einfach krass. Würde mich nicht wundern wenn Pascal noch einige Errata hätte... Andererseits hat man mit Maxwell schon eine sehr breite Basis hier geschaffen, da viele Blöcke sich stark ähneln. 14 nm hat jedoch ziemlich unterschiedliche Design-Merkmale.

memakr
2016-06-29, 08:50:13
Lt. Benchlife (siehe auch CB Update) soll die 1060 schon am 7.7. kommen!

Disco_STFU
2016-06-29, 09:25:35
Zitat CB
Benchlife legt noch einmal nach und berichtet heute, dass der Vorhang für die GeForce GTX 1060 am 7. Juli, sprich in der kommenden Woche Donnerstag, gelüftet wird. In den Handel sollen die Karten demnach ab den 14. Juli gelangen. Als Preis für die 3-GByte-Variante schweben 249 US-Dollar im Raum, 299 US-Dollar soll das 6-GByte-Modell der 1.280 Shader starken Mittelklasse-Lösung kosten.

Eine Überraschung gibt es dabei bereits: SLI wird auch beim kleinen Pascal-Ableger eingeschränkt, bei der GTX 1060 soll dieses gar nicht mehr unterstützt werden.

https://www.computerbase.de/2016-06/geforce-gtx-1060-amd-radeon-rx-480-anfang-juli/#update1

Preise klingen wiedermal gesalzen...

Dural
2016-06-29, 11:25:05
Ich hatte ja schon fast die vermutung das NV mit den Preise nicht mit zieht.

iuno
2016-06-29, 11:26:58
Würde ja auch keinen Sinn ergeben, aber sicher ist da nichts. Es worden schon öfter im Vorfeld völlig falsche Preise genannt

Ailuros
2016-06-29, 11:29:32
https://www.computerbase.de/2016-06/geforce-gtx-1060-amd-radeon-rx-480-anfang-juli/#update1

Preise klingen wiedermal gesalzen...

Weil eine 6GB/1060 um 0.99% schneller sein wird als eine RX480? :freak:

Dural
2016-06-29, 11:34:58
@iuno

Gut ist auch möglich, den Preise kann man ziemlich schnell ändern. ;)

Aber wie so solten sie auch, die 1060 müsste ca. 10% schneller sein als die RX480 bei etwas weniger verbrauch, zudem steht NVidia und GeForce drauf, da kann man 50.- mehr verlangen und die leute werden es immer noch wie blöd kaufen ;)

Sunrise
2016-06-29, 11:45:29
...Aber wie so solten sie auch, die 1060 müsste ca. 10% schneller sein als die RX480 bei etwas weniger verbrauch, zudem steht NVidia und GeForce drauf, da kann man 50.- mehr verlangen und die leute werden es immer noch wie blöd kaufen ;)
Die Leute kaufen die 8GB, blöd für NV, dass da nur 6GB auf der Verpackung stehen. Und das für 50 EUR mehr -> Doppel-Nein.

Undertaker
2016-06-29, 11:55:53
Die 8 GB sind ein Faktor, allerdings ganz sicher kein KO-Kriterium. Die 8 GB 390/390X wurde dadurch jetzt auch nicht zum Verkaufsschlager ggü. der Konkurrenz.

Aber: Wenn die GTX 1060 6 GB preislich merklich oberhalb RX 480 landen soll, muss sie irgendeinen Mehrwert bieten. Zum Vergleich: Die GTX 960 4 GB kostet nur einen 10er mehr als die R9 380 und ist dabei eklatant effizienter und Decoder-mäßig überlegen. Entweder die GTX 1060 ist mindestens 10-15% schneller, erheblich sparsamer und/oder anderweitig im Vorteil, anders wird sich der Aufpreis nicht durchdrücken lassen.

Dural
2016-06-29, 11:56:26
Seit wann hat AMD den mehr Speicher irgend was gebracht?

Diese Spiel macht NV jetzt seit Jahren, und sie haben einen Marktanteil von 80% :rolleyes:

Troyan
2016-06-29, 11:57:37
Die Preise sind werden frühsten nächste Woche feststehen. Immer diese Diskussionen Wochen vor dem Launch, weil irgendeine Seite irgendwas veröffentlicht.

Ailuros
2016-06-29, 12:01:44
Die Preise sind werden frühsten nächste Woche feststehen. Immer diese Diskussionen Wochen vor dem Launch, weil irgendeine Seite irgendwas veröffentlicht.

Dummerweise werden gerade solche Themen in einem Spekulationsforum besprochen. Fuer Kochrezepte bist Du im falschen Forum. Sonst wurden die MSRPs schon vor einiger Zeit festgelegt, ausser Du willst uns einreden dass NV in irgendeiner Art und Weise verunsichert sein sollte mit dem 1060 launch, welches gerade von Dir eine ziemlich Ueberraschung waere.

Troyan
2016-06-29, 12:07:17
Preise werden nicht Wochen vorher festgelegt. Preise werden kurz vor dem Launch kommuniziert. Diskussionen darüber sind vollkommen sinnbefreit.

Hübie
2016-06-29, 12:10:25
Was redest du? Du erfährst die als normaler Käufer erst kurz vorher, aber du meinst doch nicht wirklich dass man intern nicht schon längst das Ziel für kommende Quartale abgesteckt hat :rolleyes:

Ailuros
2016-06-29, 12:13:06
Was redest du? Du erfährst die als normaler Käufer erst kurz vorher, aber du meinst doch nicht wirklich dass man intern nicht schon längst das Ziel für kommende Quartale abgesteckt hat :rolleyes:

Herr LZ weiss immer und alles besser als alle andere im gesamten Universum.

Godmode
2016-06-29, 12:17:41
Seit wann hat AMD den mehr Speicher irgend was gebracht?

Diese Spiel macht NV jetzt seit Jahren, und sie haben einen Marktanteil von 80% :rolleyes:

AMD hat es wirtschaftlich nichts gebracht, aber den Kunden die damals Karten mit mehr Speicher gekauft haben schon. Ich erinnere hier gerne an die GTX 680 mit 2 GB und die Radeon mit 3 GB damals. Mit 3 GB geht heute noch deutlich mehr, als nur mit 2 GB.

Also mehr Grafikspeicher ist nie ein Nachteil.

iuno
2016-06-29, 12:24:11
Analog dazu gilt ja dasselbe mit der Titan ggue. der 780 usw. Allein kaufentscheidend waere das fuer mich nicht, aber durchaus ein Punkt der zu beachten ist, wenn es sonst ausgeglichen aussieht.

Nakai
2016-06-29, 12:24:15
Seit wann hat AMD den mehr Speicher irgend was gebracht?

Diese Spiel macht NV jetzt seit Jahren, und sie haben einen Marktanteil von 80% :rolleyes:

WTF, wenn AMD eine Fury mit 4GB bringt oder eine Karte mit mehr GB wird das kleingeredet. Wenn NV eine Titan X mit 12GB bringt, wird das völlig anders beurteilt. 8GB >>>> 3/6GB. Und 4GB >> 3GB. Und man sieht ja, wie toll mittlerweile ein jeglicher GK104 in irgendwelche Benches fährt...wenn die Karte mal gebencht wird.

Wäre echt mal schon zu sehen, wie mies die Kepler-Karten mittlerweile sind.

Hübie
2016-06-29, 12:25:45
Wo Recht hast, hast du Recht. Aber wieviel ist nun "mehr"? Meine 6 GiB werden ja mittlerweile schon als "Krüppel" und als "zu wenig" bezeichnet. :freak: Habe glaub ich erst eins, zwei Spiele gesehen die den voll hauen.

Undertaker
2016-06-29, 12:42:06
Wo Recht hast, hast du Recht. Aber wieviel ist nun "mehr"? Meine 6 GiB werden ja mittlerweile schon als "Krüppel" und als "zu wenig" bezeichnet. :freak: Habe glaub ich erst eins, zwei Spiele gesehen die den voll hauen.

Und das sicherlich nicht bei einer Karte auf dem Leistungsniveau einer GTX 980 oder leicht darüber. Selbst die 4 GB der "kleinen" RX 480 sollten imo in den meisten Fällen vollkommen langen, 6 GB dann definitiv. Viel mehr als 1080p @ max oder 1440p @ med schaffen die Karten so oder so nicht.

Dural
2016-06-29, 13:27:37
Ist für amd ja noch viel schlimmer, die wenigen die amd kaufen verwenden dank dem mehr speicher die karte noch länger.

NV wählt die speicher menge bewusst jedesmal so tief, die neuen produkte stehen da schon mal viel besser dar, und die kunden haben einen grund mehr zum aufrüsten.

Marketing und verkaufs strategie, das zählt heute und nichts anderes.

scully1234
2016-06-29, 14:38:22
Weil eine 6GB/1060 um 0.99% schneller sein wird als eine RX480? :freak:

Und sparsamer...leiser...???

Aber in gewissen Verhältniss müssen sie trotzdem bleiben

Die Strategie die sie derzeit fahren können , ist aber auch mehr als vorteilhaft .

Einzig bei den Liefermengen werden sie sich wohl nasse Füße holen

dildo4u
2016-06-29, 14:39:31
Schätze mal deutlich sparsamer ich sehe die 480 im Bereich der 1070 was Verbrauch angeht.

Ailuros
2016-06-29, 14:49:37
Und sparsamer...leiser...???

Aber in gewissen Verhältniss müssen sie trotzdem bleiben

Die Strategie die sie derzeit fahren können , ist aber auch mehr als vorteilhaft .

Einzig bei den Liefermengen werden sie sich wohl nasse Füße holen

Sparsamer will ich bezweifeln; wenn ich mich nicht irre liegt die 1060 bei 110W max (obwohl Dir vielleicht auch noch jemand erzaehlen kann dass es eine Woche vor dem launch auch variabel ist und sie 30 Sekunden vor der Verfoeffentlichung den Wert finalisieren..... :freak: ). Leiser keine Ahnung, aber wenn es ausser dem eingeschaetzten relativ kleinen Leistungs-Unterschied (benutze jegliches einstellige Prozentual...) keinen gravierenden Nachteil fuer eine RX480 geben sollte, wuerde ich persoenlich eben NICHT 50 oder mehr Euros auf den Ladentisch fuer eine 1060 legen.

Was jetzt die Liefermengen betrifft: falls der erste Schub nur oder hauptsaechlich aus GP104 salvage cores besteht und sie haben keine Knappheiten, haben sie ganz einfach beschissene binning yields.

Undertaker
2016-06-29, 14:53:28
Wenn Leistungsaufnahme und Performance nahezu identisch sind (was ich nicht glaube), wird die GTX 1060 keine 50 Euro mehr kosten, ganz einfach. Ob man dafür ganz offiziell den MSRP absenkt oder die Chips einfach so abgibt, das entsprechend preiswerte Partnermodelle möglich sind, ist letztlich egal.

scully1234
2016-06-29, 14:56:46
Sparsamer will ich bezweifeln; wenn ich mich nicht irre liegt die 1060 bei 110W max .
Na nachdem was da gestern als Verbrauchsmessungen herumgeisterte für den Standard 480 er, wäre ich da nicht abgeneigt von dieser These

Zumal die 1070/1080 sehr restriktiv eingestellt sind mit ihrem Boost 3.0

Dazu dann noch Igors Analyse der 1070er wenn man sie entsprechend drosselt... scheint der Sweetspot für Effizenz noch nicht gefunden zu sein

Vielleicht schafft das ja der GP106 wenn man nicht"" all In ""gehen muss

Edit:

Die Bestätigung

https://www.computerbase.de/2016-06/radeon-rx-480-test/9/

Undertaker
2016-06-29, 15:05:44
Wenn Leistungsaufnahme und Performance nahezu identisch sind (was ich nicht glaube) [...]

Da die Messwerte ja nun online sind: Wenn die GTX 1070 schon weniger als die RX 480 verbraucht, ist ein deutlich niedrigerer Verbrauch für die GTX 1060 praktisch bestätigt. Dafür kann man in jedem Fall einen gewissen Aufpreis verlangen, der aber keineswegs in einer Größenordnung von 50 Euro liegt. Man beachte R9 380 vs. GTX 960, da lässt sich das sehr gut abschätzen.

Troyan
2016-06-29, 15:26:52
AMD kann nur hoffen, dass nVidia die hier zitierten Preise nehmen will.
Polaris 10 ist der größte Flop nach R600. Stromverbrauch, Leistung, Featureset - alles ist weit entfernt von Modernität.

Wo nVidia die Probleme bei Maxwell gelöst hat, hat AMD nichts getan. Und der Stromverbrauch bei 5,7 Mrd. Transistoren ist so schlecht, dann einem jegliche Worte fehlen.

Fusion_Power
2016-06-29, 15:49:08
@iuno

Gut ist auch möglich, den Preise kann man ziemlich schnell ändern. ;)

Aber wie so solten sie auch, die 1060 müsste ca. 10% schneller sein als die RX480 bei etwas weniger verbrauch, zudem steht NVidia und GeForce drauf, da kann man 50.- mehr verlangen und die leute werden es immer noch wie blöd kaufen ;)
Hat AMD denn mittlerweile so nen schlechten Ruf? :confused:
Ich hoffe echt dass Konkurenz hier auch bald das Geschäft belebt, ich will meine 1060er für max. 200 Euro haben! :freak:

Sparsamer will ich bezweifeln; wenn ich mich nicht irre liegt die 1060 bei 110W max (obwohl Dir vielleicht auch noch jemand erzaehlen kann dass es eine Woche vor dem launch auch variabel ist und sie 30 Sekunden vor der Verfoeffentlichung den Wert finalisieren..... :freak: ).
Wär doch schon mal gut, meine GTX560 hat noch nen TDP von 150W und ist sicher um einiges langsamer als ne GTX1060. Wie die Zeiten sich ändern.

scully1234
2016-06-29, 15:55:51
200 für den kleinen Pascal... Rechne dir selber aus wie hoch die Chancen dazu jetzt noch stehen

Bei der Konstellation dürfte das ein ertragreiches Jahr werden für NVIDIA , und GP102 auch kein Vega Konkurent und damit hochpreisig bleiben

Mein Tip 1080ti diesmal 900Euro dank zusätzlicher britischer Schützenhilfe, und Titan voraussichtlich in der Intel Extreme Liga

Ailuros
2016-06-29, 18:37:40
200 für den kleinen Pascal... Rechne dir selber aus wie hoch die Chancen dazu jetzt noch stehen

Bei der Konstellation dürfte das ein ertragreiches Jahr werden für NVIDIA , und GP102 auch kein Vega Konkurent und damit hochpreisig bleiben

Mein Tip 1080ti diesmal 900Euro dank zusätzlicher britischer Schützenhilfe, und Titan voraussichtlich in der Intel Extreme Liga

Hohe Preise schuetzen auch meistens vor zu hoher Nachfrage. Das was im Hintergrund herumschwirrt sind tatsaechlich $999 und $1399 MSRPs fuer die GP102 SKUs, aber auch ein extrem genervtes oberes Management bei NVIDIA weil TSMC ihnen einfach nicht genug Kapazitaeten goennen kann.

Dabei haben die Gruenen auch verdammt viel Glueck dass die direkte Konkurrenz ihren Vega erst noch in seinen Windeln hat und nicht annaehernd die resources hat ihnen anstaendig die Brust zu zeigen. Jetzt wo sich der erste Polaris Staub langsam zu setzen anfaengt kommen auch die ersten Ernuechterungen denn es ist tatsaechlich nicht der Messiah chip der jeglichen Krebs heilt den sich so manche versprochen hatten. Ein sehr konkurrenzfaehiger mainstream chip, aber mehr als das dann auch wirklich nicht mehr.

Mit solchen Aspekten braucht bzw. sollte es keinen wirklich wundern wenn die Gruenen wieder nur so Gewinn schaufeln werden und da kann mir lange jeder Heini erzaehlen dass es alles nur ein Resultat von zwielichtigem Marketing seitens NV ist.

scully1234
2016-06-29, 21:11:55
Hohe Preise schuetzen auch meistens vor zu hoher Nachfrage. Das was im Hintergrund herumschwirrt sind tatsaechlich $999 und $1399 MSRPs fuer die GP102 SKUs, aber auch ein extrem genervtes oberes Management bei NVIDIA weil TSMC ihnen einfach nicht genug Kapazitaeten goennen kann.

.

Vielleicht löst ein Präsentkorb an Apple ja die Engpässe:biggrin:

Aber die wollen ihr Zeug ja auch durchkriegen bis im Herbst

dildo4u
2016-06-30, 00:52:10
Präsentation am 7.7 wird hier von NV bestätigt.


https://www.nvidia.com/content/apac/event/au/pascal-launch/

matty2580
2016-06-30, 01:00:17
Benchlife legt noch einmal nach und berichtet heute, dass der Vorhang für die GeForce GTX 1060 am 7. Juli, sprich in der kommenden Woche Donnerstag, gelüftet wird. In den Handel sollen die Karten demnach ab den 14. Juli gelangen. Als Preis für die 3-GByte-Variante schweben 249 US-Dollar im Raum, 299 US-Dollar soll das 6-GByte-Modell der 1.280 Shader starken Mittelklasse-Lösung kosten.

Eine Überraschung gibt es dabei bereits: SLI wird auch beim kleinen Pascal-Ableger eingeschränkt, bei der GTX 1060 soll dieses gar nicht mehr unterstützt werden.
https://www.computerbase.de/2016-06/geforce-gtx-1060-amd-radeon-rx-480-anfang-juli/
Wie einige schon festgestellt haben, wissen wir immer mehr als wir schreiben. Ja, wir kennen die GTX 1060 und alle Taktraten, und wir kennen Polaris und das was noch kommt. Und da zeichnet sich ein Bild ab, welches extrem geil wird für AMD, wenn es denn so aufgeht. Aber damit hab ich voraus gegriffen in der Meldung, ohne das jemand die Hintergründe kennt. Klarer wird das dann ab 15 Uhr und nächste Woche und und und^^
https://www.computerbase.de/forum/showthread.php?t=1595928&p=18960568#post18960568
....Auch passt es super ins Bild: 470 mit 32 ist bestätigt, 480 mit 36 ist heute da und es fehlt die 490 mit 40, dazu oben raus Powerlimit weg und bissel Gummi gegeben, da geht noch super was! Und dann kann sich die 1060 für 300 Dollar direkt verabschieden.
https://www.computerbase.de/forum/showthread.php?t=1595928&p=18962481#post18962481


Das was Volker hier andeutet klingt nicht so toll für die GTX 1060.
Er tut ja gerade so, als ob AMD mit Polaris 10 der größte Wurf seit langer Zeit gelungen ist. ^^

scully1234
2016-06-30, 01:11:17
Er tut ja gerade so, als ob AMD mit Polaris 10 der größte Wurf seit langer Zeit gelungen ist. ^^


Sarkasmus ist auch ne Ausdrucksform ... sonst haettest du um 15 vom großen Plan erfahren

Troyan
2016-06-30, 01:21:10
Die Benchmarks liegen doch vor:
RX 480 ist <=70% schneller als eine Referenz-GTX960.

Eine GTX1060 mit 1280Cores bei 1700Mhz und 192bit mit 7gb/s wird rund 70% schneller sein. Also exakt auf dem Niveau der 165W RX480. Bei +- selben Verbrauch zur GTX960 würde die Karte 50W bis 70W weniger benötigen.

Was soll AMD dagegen bitte unternehmen?!

TheGood
2016-06-30, 01:33:39
Kann die Aussagen von "Volker" aktuell auch nicht so ganz nachvollziehen. Nunja....

Dural
2016-06-30, 09:19:59
CB habe ich immer sehr geschätzt, wenn sich das nicht bewahrheitet sind die bei mir unten durch. :rolleyes:

Auch wenn P10 40CU hätte, sehe ich überhaupt nicht wie da AMD gross was drauf legen kann, "da geht noch super was!" wollen die mit einem 230mm2 chip die 250Watt grenze sprengen !?! und das soll dann ernsthaft ein konkurent zum GP106 sein :rolleyes:

Irgend wie habe ich die vermutung das CB etwas nachtragend ist, stichwort 1070 ;)

TheGood
2016-06-30, 09:47:05
CB habe ich immer sehr geschätzt, wenn sich das nicht bewahrheitet sind die bei mir unten durch. :rolleyes:

Auch wenn P10 40CU hätte, sehe ich überhaupt nicht wie da AMD gross was drauf legen kann, "da geht noch super was!" wollen die mit einem 230mm2 chip die 250Watt grenze sprengen !?! und das soll dann ernsthaft ein konkurent zum GP106 sein :rolleyes:

Irgend wie habe ich die vermutung das CB etwas nachtragend ist, stichwort 1070 ;)
Vielleicht weis er ja dass die 1060 zu langsam ist... ;)

Dural
2016-06-30, 09:53:43
Glaub ich aber nicht, wir werden es nächste Woche ja sehen.

TheGood
2016-06-30, 10:09:11
Glaub ich aber nicht, wir werden es nächste Woche ja sehen.
War ja nur ein Versuch der Erklärung. ich glaube auch nicht dran.

Eher an einen harten Paperlaunch. Man muss ja nur die nicht vorhandene Verfügbarkeit von 1070 und 1080 ansehen... Laut Mindfactory werden Liefertermine wöchentlich nach hinten verschoben.....

StefanV
2016-06-30, 10:22:06
Kann die Aussagen von "Volker" aktuell auch nicht so ganz nachvollziehen. Nunja....
Anhand der Daten kann man sich doch schon etwa ausrechnen, wo die GP106 Karten landen werden.
Und das schaut jetzt wirklich nicht besonders toll aus!

Ganz im Gegenteil...

Das Teil schaut ja nach einem Chip aus, der kaum besser als 'ne GM106 ist...

Sir_Freezer
2016-06-30, 10:26:45
Dem stimme ich absolut zu.
NV wird die GTX 1060 ganz schön knüppeln müssen, dass die überhaupt GTX 970 Leistungsniveau erreicht.
Wenn die 192Bit SI aber stimmen, wird es vorerst die ERSTE Pascal karte, die nicht in einer Speicherlimitierung läuft bzw. gefangen ist.

Schade, dass die RX480 die Erwartungen nicht übertroffen hat.
Somit wäre NV gezwungen gewesen die GP104-150 inform einer Grafikkarte herauszurücken.
Imho das interessanteste Produkt, vorallem in Bezug auf das umliegende Periphere Umfeld...

maximus_hertus
2016-06-30, 10:29:29
Och Leute, manchmal sieht Team Green das offensichtliche nicht ;)

Alle Aussagen von CB zusammengefasst:

RX 480, 100% fps, 160W, 250 Euro für 8 GiB, 210 Euro für 4 GiB
GTX 1060/6G, schneller als die RX 480, aber nicht deutlich, Stromsparender, rund 330 Euro (300 USD)
RX 490, volle 40CU, schneller als die GTX 1060, 8 GiB, <=200W, 1x8 Pin, unter 300 USD

Mit der RX 490 (meine Speku) wird dann die RX 480 leicht im Preis gesenkt:

Custom RX 490/8G 299 USD (vielleicht wird es gar keine Referenzkarte geben)
Custom RX 480/8G: 209-239 USD
Referenz RX 480/8G 199 USD
RX 480/4G wird auslaufen bzw. preislich kaum unter 199 USD fallen

Dann hätte man folgende Paarung: GTX 1060 vs RX 490

Vorteile nV: geringerer Stromverbrauch
Vorteile Radeon: mehr Speed, mehr VRAM, DX12-Performance, Zukunftsicherer (6 GiB sind ein No-Go für Ende 2016 bzw. 2017, siehe PCGH Video von gestern, Rise of the Tomb Raider liegt bei 7 GiB VRAM-"Verbrauch" in 1080p)

Herr Doktor Klöbner
2016-06-30, 10:42:13
Da sich niemand der bei Sinnen ist sich 2016 eine Karte mit 3 GB kauft, heißt das man in Zukunft bei 330-350,- einsteigen muss um sich eine NVidia Karte zu kaufen, ich meine BMW kann es egal sein keinen Opel Astra Konkurrenten zu haben, aber das wesentliche Preissegment von 150-250,- komplett nicht zu bedienen ist schon sehr selbstbewusst, irgendwann fangen auch Fanboys an zu rechnen, die Mehrzahl der Käufer kauft nicht über 250,-

dildo4u
2016-06-30, 10:47:16
1070 MSRP ist 380 diese werden noch nich erreicht das es zu wenige Karten gibt,kein Plan wie dort die 1060 330€ kosten soll.

Herr Doktor Klöbner
2016-06-30, 10:52:00
Dollar/Euro 1:1, ist leider so und Angabe US Preis ist immer ohne Steuer.
299,-Dollar ist halt 350,- Euro mit Mehrwertsteuer, bestenfalls 330,-

dildo4u
2016-06-30, 10:55:53
Nope es gibt GTX 970 für 240€ aber keine für 240$.Das was mit 480 und 1070 passiert ist reine Abzocke der Händler.

Sir_Freezer
2016-06-30, 11:26:31
...Alle Aussagen von CB zusammengefasst:

RX 480, 100% fps, 160W, 250 Euro für 8 GiB, 210 Euro für 4 GiB
GTX 1060/6G, schneller als die RX 480, aber nicht deutlich, Stromsparender, rund 330 Euro (300 USD)...

Dann erklär bitte mal rational, warum die GTX 1060 schneller als die RX480 werden soll. Außerdem hab ich keine Ahnung, wo und wann das in CB mal so gesagt worden sein soll.

Aber selbst wenn, dann überschlage doch mal kurz das bisher Faktentechnisch bestätigte. Also, wie soll das also funktionieren?

...
Dann hätte man folgende Paarung: GTX 1060 vs RX 490

RX 490, volle 40CU, schneller als die GTX 1060, 8 GiB, <=200W, 1x8 Pin, unter 300 USD...

Ist bestimmt ein "Typo", oder?
Der Kontrahent der GTX 1060 ist die RX480.
Die 490 spielt in einer ganz anderen Liga. Sowohl Leistung, also auch Preis

Kurz OT: Hoffen wir mal, dass die Limiterung der durch HBM bei der 490 komplett aufgehoben wird, da es ansonsten wahrscheinlich zu eng wird und wieder auf einen AMD only Preiskampf hinausläuft :S

1070 MSRP ist 380 diese werden noch nich erreicht das es zu wenige Karten gibt,kein Plan wie dort die 1060 330€ kosten soll.

Ich bin mal gespannt, ob die überhaupt mal erreicht werden.
Wahrscheinlich läuft das genau wie zu Keplerzeiten wieder ab...
Wenn es wieder die FE's gibt, dann kommt die GTX 1060 garantiert über 300€ raus.
Dafür spricht schon der Paperlaunch und der ist quasi sicher...

BlacKi
2016-06-30, 11:31:38
Dollar/Euro 1:1, ist leider so und Angabe US Preis ist immer ohne Steuer.
299,-Dollar ist halt 350,- Euro mit Mehrwertsteuer, bestenfalls 330,-
die 1070 hat keine konkurenz, nichtmal die 1070 partner unterbieten sich aktuell. das wird sich ändern. die 1060 hat aber schon zum release einen konkurenten, und sobald die verfügbarkeit gegeben ist, sinkt der preis unter die 300€.

MechWOLLIer
2016-06-30, 11:32:02
Irgend wie habe ich die vermutung das CB etwas nachtragend ist, stichwort 1070 ;)
Ich kann nur wiederholen, dass Volker mit Grafikkarten-Tests nichts am Hut hat - da bringt das mit dem Nachtragend nichts :)

maximus_hertus
2016-06-30, 12:05:27
Nope es gibt GTX 970 für 240€ aber keine für 240$.Das was mit 480 und 1070 passiert ist reine Abzocke der Händler.


Kann es sein, dass du keine Ahnung vom Handel hast (nicht Böse gemeint)?

Bei Abverkaufspreisen spielt der USD/Euro Kurs eine untergeordnete Rolle. Da gibt es andere Faktoren, die (mit) zählen. Dazu bietet ja auch bei uns nicht jeder Händler die 240 Euro. Genau genommen ist es eine einzige Karte bei einem einzigen Händler (MF-Gruppe). Alle anderen sind bei 250+ Euro.

Gehen wir mal von 299 USD MSRP für die GTX 1060 6 GiB aus. Beim aktuellen Euro/USD-Kurs wäre man dann bei 270 Euro netto. Rechnen wir die 19% Mwst. dazu, sind wir bei 321 Euro. Dazu noch Zoll, Transport, länderspezifische Gesetze (Gewährleistungen/Garantie etc.) sowie Währungsschwankungen.

GTX 980 Ti => 649 USD = 739 Euro (also USD * 1,1386)
GTX 1080 => 699 USD = 789 Euro (also USD * 1,1287)
GTX 1070 => 449 USD = 499 Euro (also USD * 1,1113)

Geht man nach den letzten MSRP bzw. Euro UVP, wäre man bei:

USD * 1,1113 => 332,27 Euro
USD * 1,1287 => 337,48 Euro
USD * 1,1386 => 340,44 Euro

Also irgendwo bei 330-340 Euro, also rund 150 Euro günstiger als aktuelle 1070er.


Vielleicht gibt es ja dann wieder 2 MSRPs, einmal 299 USD Founder und z.B. 279 USD Custom.


Achso, wo ist denn jetzt bei nVidias UVP die Abzocke der Händler? Ist es die Schuld der Händler, dass nV recht hohe Preise verlangt? Sollen die Händler Verluste machen, damit Team Green zufrieden ist?



Um eine UVP von 299 Euro für die GTX 1060 zu erhalten, darf der MSRP maximal 269 USD betragen. Ist er höher, geht es auf über 300 Euro UVP.

maximus_hertus
2016-06-30, 12:16:24
die 1070 hat keine konkurenz, nichtmal die 1070 partner unterbieten sich aktuell. das wird sich ändern. die 1060 hat aber schon zum release einen konkurenten, und sobald die verfügbarkeit gegeben ist, sinkt der preis unter die 300€.


GTX 970 UVP = 320 Euro. Wieviele Karten gab es, die die UVP deutlich unterboten haben? Nicht viele, idR lagen die günstigsten Karten bei rund 320 Euro.

GTX 980 UVP = 540 Euro. Später dann 500 Euro. IdR gab es nur wenige Karten (Palit und Co), die die UVP spürbar (ca 10%) unterschritten haben.

GTX 980 Ti UVP = 739 Euro. Erst nach einigen Monaten ging es auf knapp unter 700 Euro runter, wenn auch nicht für alle Karten. Auch hier keine große Preisschlacht.


Mein Fazit: Bei 299 USD MSRP wird es bis in den Herbst bei rund 340 Euro hinauslaufen. Gerade wenn die Liefersituation nicht so gut sein sollte. Palit und Co. könnten mittelfristig die 299 Euro angreifen, aber kurzfristig sehe ich keine <300 Euro Preise.


Dann erklär bitte mal rational, warum die GTX 1060 schneller als die RX480 werden soll. Außerdem hab ich keine Ahnung, wo und wann das in CB mal so gesagt worden sein soll.

Aber selbst wenn, dann überschlage doch mal kurz das bisher Faktentechnisch bestätigte. Also, wie soll das also funktionieren?

Die GTX 1060 hat 75% der Speicherbandbreite der GTX 1070. Bei 1280 Shadern mit ordentlich Takt (mindestens 1080 Takt) auch 75+% der Rechenleistung der 1070. Die RX 480 kommt jedoch nur auf 66-70% der Leistung der GTX 1070. Durch den relativ hohen Takt würde zwar die Energieeffizienz der 1060 leiden, aber sie wäre immer noch besser als die der RX 480.



Ist bestimmt ein "Typo", oder?
Der Kontrahent der GTX 1060 ist die RX480.
Die 490 spielt in einer ganz anderen Liga. Sowohl Leistung, also auch Preis

Spielt die RX 490 in einer anderen Liga? Wenn ich Raja's Twitterpostings so interpretiere, ist Vega noch weit weg ("long way to go before you see it"). Ich würde aktuell kein Geld darauf verwetten, dass wir einen Vega-Launch vor 2017 haben werden. Also muss ein Polaris 10 Chip die RX 490 befeuern, oder welchen Chip sollte man verwenden?

Undertaker
2016-06-30, 12:55:27
Anhand der Daten kann man sich doch schon etwa ausrechnen, wo die GP106 Karten landen werden.
Und das schaut jetzt wirklich nicht besonders toll aus!

Ganz im Gegenteil...

Das Teil schaut ja nach einem Chip aus, der kaum besser als 'ne GM106 ist...

GM106 gibt es nicht, nur GM206. Und wie es ausgehend von diesem für GP106 aussehen wird, lässt sich mittlerweile ganz gut abschätzen:

GTX 1080 vs. GTX 980:
+25% Einheiten
+43% Bandbreite
~65% Mehrleistung

GTX 1060 vs. GTX 960:
+25% Einheiten
+71% Bandbreite
~70-75% Mehrleistung?

-> GTX 1060 ~ RX 480 8 GB + 0-10%

Und das bei einem projizierten Minderverbrauch von etwa 50 Watt, die RX 480 dürfte etwa 50% mehr benötigen. Für die GTX 1060 wäre ein Aufpreis von rund 10-20% (je nach genauer Performance) damit vollkommen gerechtfertigt. Bei sehr gutem OC-Potential u.U. sogar noch mehr.

Effizienz ist wie überall ganz einfach Gold wert. Eine gute GTX 960 läuft selbst in Spielen minutenlang passiv (!), danach genügen wenige hundert Umdrehungen für exzellente Temperaturen. Ebenso heizt sich das Gehäuse kaum auf, man braucht weniger Durchzug, das Netzteil dreht niedriger usw. :) Genau das will ich auch bei der GTX 1060 sehen, eine perfekte Multimedia-Karte eben.

Dural
2016-06-30, 13:03:56
Die 48rops des gp106 würde ich nicht unterschätzen, die könnten je nach dem schon reinhauen :)


Ich kann nur wiederholen, dass Volker mit Grafikkarten-Tests nichts am Hut hat - da bringt das mit dem Nachtragend nichts :)

Ok, dann soll er sich doch in zukunft raus halten, ihr macht euch damit nicht mehr freunde ;)

Troyan
2016-06-30, 13:19:36
Es sind zwar 48 ROPs aber nur 32 Pixel/Takt.

y33H@
2016-06-30, 13:53:50
Bei MSAA können die ROPs dennoch mithelfen, wenngleich die pix/clk von den SMs limitiert werden.

Ailuros
2016-06-30, 13:57:44
Um die 4.5b.

Sir_Freezer
2016-06-30, 14:16:15
Dann erklär bitte mal rational, warum die GTX 1060 schneller als die RX480 werden soll. Außerdem hab ich keine Ahnung, wo und wann das in CB mal so gesagt worden sein soll.
Aber selbst wenn, dann überschlage doch mal kurz das bisher Faktentechnisch bestätigte. Also, wie soll das also funktionieren?

Die GTX 1060 hat (selbst unsegmentiert) 75% der Speicherbandbreite der GTX 1070. Bei 1280 Shadern mit ordentlich Takt (mindestens 1080 Takt) auch 75+% der Rechenleistung der 1070. Die RX 480 kommt jedoch nur auf 66-70% der Leistung der GTX 1070. Durch den relativ hohen Takt würde zwar die Energieeffizienz der 1060 leiden, aber sie wäre immer noch besser als die der RX 480.

Und genau das funktioniert eben so nicht, denn das ist eine Bilderbuch-Milchmädchenrechnung.
Du kannst keine abgespeckte Chip-Version mit einem Vollausbau der gleichen Chipversion vergleichen.
Vorweg noch: Mir ist bewusst, dass mein Bsp. auch nicht allumfassend Perfekt ist bzw. solche Tendenzen hat, aber der Nenner schon einmal gleich ist!
(Vergl. Vollausbau GP104 mit Vollausbau GP106). Warum man, für einen Vergleich genau das nehmen MUSS?
Taktnormiert skalierten GTX 680 und GTX 660 im Verhältnis mit GTX 670 und GTX 650 (Ti) almost gleich! Aber: Der Effizienz/Auslastung Cuda Cores Vorteil lag IMMER bei den "abgespeckten" Karten. -> GTX 670/GTX 650(Ti)

Also:
Die GTX 1060 hat exakt 50% der Cuda Cores der GTX 1080.
Erstmal nur bis dahin, um "grob" das Feld der Performance der GTX 1060 abzustecken. D.h. -> 3dc Perform. Index von ~480% bei identischen Taktraten der GTX 1080 bzw. deren "SpeicherbandBREITE,
welche schon nahe der 2GHz gehen bzw. durch gDDR5X 320GB/s betragen.

Optimumfall: Nominell kann die Speicherbandbreite der GTX 1060 nicht höher/mehr sein, als der der GTX 1070, was letztendes heißt: 60% von dem der GTX 1080!
Nun ist die GTX 1080 latent Speicherbandbreitenlimitiert.
Die Frage ist nun, was kann NV aus den maximal +10% Bandwitdh mehr rausholen?
PS.: Viel mehr als 10% sind schon theoretisch nicht möglich... ;)

Wenn Sie den Core Takt im Boost deutlich über 2Ghz feuern, geht die TDP durch die Decke und wird die GTX 1070 ~erreichen/übertreffen!
Das ist GENAU Equivalent zur GTX 660 und zur GTX 670! Letztenendes ist Kepler die I. Generation von Pascal...
Die Geschichte wiederholt sich und es ist absolut "toll" das zu sehen...
Verstehst du mich?


Ist bestimmt ein "Typo", oder?
Der Kontrahent der GTX 1060 ist die RX480.
Die 490 spielt in einer ganz anderen Liga. Sowohl Leistung, also auch Preis.

Spielt die RX 490 in einer anderen Liga? Wenn ich Raja's Twitterpostings so interpretiere, ist Vega noch weit weg ("long way to go before you see it"). Ich würde aktuell kein Geld darauf verwetten, dass wir einen Vega-Launch vor 2017 haben werden. Also muss ein Polaris 10 Chip die RX 490 befeuern, oder welchen Chip sollte man verwenden?

Dem muss ich etwas hinzufügen, da ich das ähnlich wie "HOT" sehe.

Der hat keine 40 CUs, kann man auf dem Die sehen, siehe PCGH-Test beispeilsweise. Ich bin langsam davon ab, dass die 490 ein P10 ist, es wird wohl ein V11 sein. Langsam vermute ich, dass V11 vor V10 kommt und ein High-End-Chip ist. V10 ist sicher das große Ding, der hatte neulich Tapeout und dürfte ca. 450mm² sein und damit Hawaii-Klasse entsprechen. Man wird versuchen den auf 1400-1500MHz hochzuziehen um mit GP102 mithalten zu können mMn. Denn nachdem man weiss, was P10 kann, muss da eigentlich noch was dazwischen kommen.

Also:
V10
64CUs
300W TDP
2-4 HBM2-Stacks (je nach Variante)
ca. 1500MHz 14nm FinFET @ 1,2V
ca. 450mm²
-> R500-Serie Frühjahr 2017

V11
52CUs
230W TDP
384Bit GDDR5 8Gbps
1200-1400MHz 14nm FinFET @ 1,2V oder gar 16FFC.
ca. 330mm²
-> RX490 und RX Fury

Navi -> Post GCN -> 7nm GloFo (AKA 10nm FDSOI/FF)

Und die Spannung wird einfach dem frischen Prozess geschuldet sein. Man wollte einfach weniger Chips wegschmeißen. Das hat bei AMD ja Tradition, siehe z.B. die hohe Tahiti-Spannung oder die AthlonII damals. Das hat auch nix mit dem Takt zu tun mMn. Man hat einfach beim PCB zu knapp kalkuliert, das ist alles.

Ist eigentlich was bekannt, ob jetzt P10 1:2 DP mitbringt? Sieht ja fast so aus, als hätte der nicht zu unterschätzende Profi-Qualitäten.


BITTE BITTE BITTE AMD!!! KEINEN LAUNCH VON REFERENZDESIGNS MEHR!!!!
Das war bei Cayman scheisse, das war bei Hawaii richtig scheisse, das war bei FuryX ne Katastrophe und bei P10 hab ich kein Wort mehr dafür! Lasst es einfach!


AMD kann und darf sich das einfach nicht leisten...
Leider leider... müssen DIE... und zwar mit Vega und am besten massiv Speicherbandbreite inform von gDDR5X Takt odern HBM2...
RX480 ist jetzt schon Bandbreitenlimitiert! Bei der GTX 660Ti hat sich das passiv erst später abgezeichnet...

Das mit dem Rev. Design der RX480 ist dem Preis geschuldet.
Leider hat AMD imho keine andere Option. Der Brexit hat für Euroland, ob berechtigt oder nicht, einfach zuviel "Schei*e und "Unsicherheiten" -
inform von Währunsschwankungen hinterlassen, was eben die Wertigkeit/Nachhaltigkeit des Euro und deren Gegenwertpreise betrifft!

Troyan
2016-06-30, 14:23:05
Bei MSAA können die ROPs dennoch mithelfen, wenngleich die pix/clk von den SMs limitiert werden.

Nicht SMs, sondern GPCs. Die sind weiterhin nur 16 pixel/clock fähig.

Aber hey, der Pöbel wollte Async Compute, der Pöbel bekommt Async Compute. ;D

Dural
2016-06-30, 14:27:30
Ich hoffe das NV 8GHz Speicher Chips verbaut, wenn ja könnte das eine sehr sehr interessante OC Karte werden.

Undertaker
2016-06-30, 14:30:01
Also:
Die GTX 1060 hat exakt 50% der Cuda Cores der GTX 1080.
Erstmal nur bis dahin, um "grob" das Feld der Performance der GTX 1060 abzustecken. D.h. -> 3dc Perform. Index von ~480% bei identischen Taktraten der GTX 1080

Doppelte Einheiten skalieren nicht zu 100%, insofern funktioniert diese Rechnung nicht. Ausgehend von GTX 980, GTX 1080 und GTX 960 kann man die GTX 1060 unter Beachtung der in Relation höheren Bandbreite ziemlich sicher auf +70-75%* zur GTX 960 schätzen.

*bei prozentual gleicher Taktratensteigerung wie bei GM204 -> GP104 und 192 Bit/8 Gbps Speicher

Ailuros
2016-06-30, 14:44:11
Es waere schoen wenn jegliche Milchmaedchen-rechnung so leicht hinhauen wuerden. Das mit den halben Einheiten stimmt auch nicht wirklich da es eher 2/3 im back end sind und wenn man schon mit sterilen Zahlen herumfuchteln will, eine 1060 wird mehr TFLOPs auf den Tisch legen als eine GTX970 :P

Sunrise
2016-06-30, 14:55:31
Nunja, ab 1500MHz Coretakt wirds ein leichtes Spiel...(und das hat schließlich schon die 1070).

Sir_Freezer
2016-06-30, 14:58:32
@Untertaker,

Nichts anderes hab ich geschrieben, als was du wieder gibst.
Selber gibst du aber keine genauere "Prognose" ab, sagst aer erstmal NEIN...
Das ist iwie typisch deutsch.
Sorry, aber das ging am Thema vorbei.
Letztlich bleibt die Frage, was NV aus dem SI noch herauskizzeln kann und was nicht.

@ Ailuros, letztlich ist die 2/3 These auch nichts anderes. Die Terra Flops müssen zuerst auf die Straße, bevor man mit einert 66% These kommen kann.

Ich könnte genau solche Hypothesen herausfeuern, aber seit wann hat NV mal das 200€ Segment massiv befeuert?
Die Verwaltungslogik der Cuda Cores wird defintiv auch halbiert...egal

Jedenfalls bin ich gespannt auf das, was kommt.
Insofern man die GTX 970 mal arbeiten lässt und nicht den "beschissenen" Speicherbug ausnutzt, bin ich wirklich gespannt, was NV mit der neuen 1060 da anbieten wird.
Letztlich konnte sich eine GTX 670 auch IMMER mit einer GTX 960 messen, insofern Ihr nicht der Speicher ausging. Wenig ausnahmen der letzten Games bilden da die Ausnahmen. Wann kam gleich nochmal die 670 raus...und wann die 960... ahja

PS.: Ich wette gleich kommen die gloria 4GB vs 2GB vRam Benches in massen verlinkt, in diesen Thread - Thematik - Äpfel-Birnen-Vergleich

prinz_valium
2016-06-30, 15:38:43
würde doch ziemlich gut passen, wenn die 1060, die neue 980 wird
ungefähr selbe rechenleistung bei 2gb mehr speicher und hoffentlich günstiger

Dural
2016-06-30, 15:49:02
und das dürfte auch zu 100% NV ziel gewessen sein, die abstände bei den NV grafikkarten sind schon lange kein zufall mehr, sondern von NV bewusst so gewählt / gemacht.

Fusion_Power
2016-06-30, 16:02:53
In dem Fall würde mir sogar ne 1050er reichen, die könnte dann ja performancetechnisch immer noch über ner 960er liegen die ich ursprünglich mal kaufen wollte. :)
Und verbrauchstechnisch ist die sicher auch interessant, mein neuer PC wird ein kompaktes Mini-ITX System, das will ich nicht mit nem stromfressenden Boliden belasten.

Sir_Freezer
2016-06-30, 16:38:22
Die GANZE Euphorie find ich echt Klasse! :freak:

Ja Dural, ich hab auch so das Gefühl, dass NV die Abstände bewusst so konzipiert! Ich bezweifel auch deren regelmäßige Zufälle.
Tendenziell werden diese ja sogar kleiner! ;D

GTX 570 zu GTX 660 - Kepler GK106 unwesentlich schneller, als Thermi II. Nicht spürbar, aber messbar.
GTX 670 zu GTX 960 - Maxwell anfangs teils sogar langsamer als Kepler I später durch Engines und Optimierung ausgeglichen u spätestens seit 2GB vRam Problem klar vorn
GTX 970 zu GTX1060 - ... Mal sehen wie es weiter geht :D ... Aber bestimmt ist die 1060 sogar schneller, als die 980 ;D und das bei 75W TDP ohne PCI-E Connector :cool:


PS.: Um das Thema für mich zu beenden: Natürlich freue ich mich auch, wenn die GTX1060 schneller als die GTX980 wird.
Ich drück euch & eurer Vorfreude-Euphorie auch die Daumen. Rein empirsch kann Sie es aber nicht werden.
Und das sag ich als (zwar angeschissener, aber dennoch immer noch zufriedener) 970er Besitzer der allerersten Minute... :P
NVidia ist/war und wird keine Heilsarmee!

Undertaker
2016-06-30, 16:39:22
@Untertaker,

Nichts anderes hab ich geschrieben, als was du wieder gibst.
Selber gibst du aber keine genauere "Prognose" ab, sagst aer erstmal NEIN...


Ich sage nicht das man keine Prognosen/Hochrechnungen machen darf, sondern nur das der konkrete Rechenansatz im obigen Beispiel ungeeignet war. :) Ausgehend von den 960% Leistungsindex für die GTX 1080 für einen exakt halbierten Chip (das Thema Speicherinterface von mir aus nachträglich noch eingerechnet) 480% anzusetzen, stimmt einfach nicht mit der Praxis überein.

Bestes Beispiel: GM204 vs. GM206. Doppelte Rechenleistung, doppeltes SI, aber nur 75 bis 80% Mehrleistung.

Dural
2016-06-30, 17:42:48
Zudem die 1080 ja schon offensichtlich probleme hat ihre Power auf die Strasse/Bildschirm zu bringen, sieht man sehr schön am 1070 Vergleich.

Ailuros
2016-06-30, 20:24:38
@ Ailuros, letztlich ist die 2/3 These auch nichts anderes. Die Terra Flops müssen zuerst auf die Straße, bevor man mit einert 66% These kommen kann.

Mein Punkt war dass es total sinnfrei ist Leistungsschaetzungen zu machen basierend nur auf einer sterilen Zahl. Erstens weil ein 106 eben nicht auf den Punkt ein "halber" GP104 ist. Wenn der erste im back end eher 2/3 vom zweiten hat, dann ist es physisch eben mehr als nur die Haelfte. Zur wahren Leistung sagt es immer noch nichts aus so oder so.

Ich könnte genau solche Hypothesen herausfeuern, aber seit wann hat NV mal das 200€ Segment massiv befeuert?
Die Verwaltungslogik der Cuda Cores wird defintiv auch halbiert...egal

Die 6GB Variante wird einen MSRP von $299 haben; 3GB bei $249 und ist wohl schwer im 200 Euro Segment.

Jedenfalls bin ich gespannt auf das, was kommt.
Insofern man die GTX 970 mal arbeiten lässt und nicht den "beschissenen" Speicherbug ausnutzt, bin ich wirklich gespannt, was NV mit der neuen 1060 da anbieten wird.
Letztlich konnte sich eine GTX 670 auch IMMER mit einer GTX 960 messen, insofern Ihr nicht der Speicher ausging. Wenig ausnahmen der letzten Games bilden da die Ausnahmen. Wann kam gleich nochmal die 670 raus...und wann die 960... ahja



Mein Mittelnahme ist Rumpelstilzchen; die paar Tage wird man wohl noch abwarten koennen.

maximus_hertus
2016-06-30, 21:13:10
Ja, Milchmädchen und so. Aber nochmals: Die GTX 960 ist eine ziemlich "halbe" GTX 980, erreicht dennoch rund 60% der fps und nicht 50%. Die GTX 1080 ist dazu spürbar limitiert bei der Speicherbandbreite, im Gegensatz zur GTX 980. Die GTX 1060 hat ja auch deutlich mehr Bandbreite als die GTX 960 bzw. ein breiteres Interface.

Worstcase sind 60% der fps der GTX 1080. Aufgrund der (für ein 106er Chip) guten Bandbreite könnte man sogar über 65% der Leistung der GTX 1080 spekulieren.

Die RX 480 erreicht mit ausgefahrenem PT ziemlich genau 60% der GTX 1080 Performance. Mich würde es daher sehr wundern, wenn die GTX 1060 nicht schneller raus kommt. Die Frage ist dann, wie viel schneller.

Rampage 2
2016-06-30, 21:41:00
Es sind zwar 48 ROPs aber nur 32 Pixel/Takt.

Warum? Die 780 Ti hatte auch 48 ROPs - sind es denn da 48 Pixel/Takt? Wenn ja, wo ist der Unterschied bei GP106, dass da es "nur" 32 Pixel/Takt sind?:confused:

R2

Rampage 2
2016-06-30, 21:43:35
Ich hoffe das NV 8GHz Speicher Chips verbaut, wenn ja könnte das eine sehr sehr interessante OC Karte werden.

Es sieht wohl leider so aus, dass es nur 7Gbps sein werden - siehe Aussagen bzgl. Skalierung GM204 vs. GM206 hier im Thread...

R2

Undertaker
2016-06-30, 21:47:50
Hmm, das wäre natürlich schade. Dürften die Hersteller da eigentlich in Eigenregie auch 8 Gbps Chips verbauen?

Dural
2016-06-30, 22:07:36
Nv verbaut in der letzten zeit immer den selben speicher innerhalb einer serie.

Troyan
2016-07-01, 01:25:01
Warum? Die 780 Ti hatte auch 48 ROPs - sind es denn da 48 Pixel/Takt? Wenn ja, wo ist der Unterschied bei GP106, dass da es "nur" 32 Pixel/Takt sind?:confused:

R2

Seit Fermi wird die Pixelleistung bestimmt durch

Anzahl der GPCs (Fermi und Kepler 8 Pixel/takt, Maxwell und Pascal 16 Pixel/Takt)
Anzahl der SMs (Fermi 2 Pixel/Takt, ab Kepler 4 Pixel/Takt)
Anzahl der ROPs


GP106 wird

zwei GPCs - 32 Pixel/Takt
10 SMs - 40 Pixel/Takt
48 ROPs - 48 Pixel/Takt

haben.

Die Pixelleistung wird also durch die GPCs bestimmt. Der Grund dafür ist relativ simpel: Async Compute.

Gaming-Pascal kann also bei Grafikberechnungen nur 80% der vorhandenen SM benutzen. Die restlichen 20% (bzw. 25%) sind reserviert für unabhängige Compute-Aufgaben, die Pascal per Compute-Queue gleichzeitig abarbeiten kann.

Das ist ziemlich interessant gelöst von nVidia.

Rampage 2
2016-07-01, 04:28:35
Seit Fermi wird die Pixelleistung bestimmt durch

Anzahl der GPCs (Fermi und Kepler 8 Pixel/takt, Maxwell und Pascal 16 Pixel/Takt)
Anzahl der SMs (Fermi 2 Pixel/Takt, ab Kepler 4 Pixel/Takt)
Anzahl der ROPs


GP106 wird

zwei GPCs - 32 Pixel/Takt
10 SMs - 40 Pixel/Takt
48 ROPs - 48 Pixel/Takt

haben.

Die Pixelleistung wird also durch die GPCs bestimmt. Der Grund dafür ist relativ simpel: Async Compute.


Und die "restlichen" 16 ROPs liegen also völlig brach? Also nicht 84 Gpixel/sec. (bei angenommen 1750MHz Basistakt) sondern nur 56 Gpixel/sec. Füllrate?

Da verfliegt meine anfängliche Euphorie wegen 192Bit SI und 48 ROPs...

R2

Foobar2001
2016-07-01, 04:35:29
Die Pixelleistung wird also durch die GPCs bestimmt. Der Grund dafür ist relativ simpel: Async Compute.
Ich sehe den Zusammenhang nicht?

mczak
2016-07-01, 06:35:10
Gaming-Pascal kann also bei Grafikberechnungen nur 80% der vorhandenen SM benutzen.
Das ist natürlich Unsinn. Nur bei sehr einfachen Shadern erreicht man allenfalls den maximalen Pixeldurchsatz.
Dass nvidia mehr ROPs verbaut als der maximale Pixeldurchsatz zulässt hat eine gewisse Tradition. Bei Fermi gab's ein paar (GF106) OEM-Varianten da war das dann ziemlich extrem - 6 Pixel/Takt limitiert durch SM, aber 24 ROPs... Das ist dann wirklich Overkill. Wobei ja mehr ROPs trotzdem nicht völlig nutzlos sind (gerade bei nvidia, die können ja z.B. bloss half-speed FP16 und unterirdisch-speed (genau genommen 1/16...) 4xFP32 blend, auch bei MSAA helfen die).

Dural
2016-07-01, 09:07:58
Die 48ROPs / 192Bit haben auch noch den Vorteil von mehr L2 Cache. GP106 müsste 1,5MB haben.

Undertaker
2016-07-01, 12:29:18
https://www.computerbase.de/2016-07/geforce-gtx-1060-spezifikationen-rx-480/

8 Gbps. Wenn die 120 W TDP real ausgereizt werden, wäre das allerdings nicht ganz so sparsam wie erwartet, selbst wenn die Leistung merklich über der RX 480 liegt.

dildo4u
2016-07-01, 12:40:31
Schöner Sprung von der 960,die hatte zu wenig Dampf,die 1060 scheint dichter an der 1070 zu liegen.

d2kx
2016-07-01, 12:42:41
https://www.computerbase.de/2016-07/geforce-gtx-1060-spezifikationen-rx-480/

8 Gbps. Wenn die 120 W TDP real ausgereizt werden, wäre das allerdings nicht ganz so sparsam wie erwartet, selbst wenn die Leistung merklich über der RX 480 liegt.

Laut NVIDIAs eigenen Folien 15% schneller als die RX 480. So wie ich NVIDIA kenne, wird das 6GB Modell allerdings auf keinen Fall unter 320€ kosten. Damit dürfte Preis/Leistung höchstens ähnlich, aber nicht unbedingt besser ausfallen.

Dural
2016-07-01, 12:44:33
Genau so wie ich sie eingeschätz habe, ich freue mich auf die karte.

Hoffentlich geht sie diesmal über 2,1ghz :D

Bl@de
2016-07-01, 12:50:40
Laut NVIDIAs eigenen Folien 15% schneller als die RX 480. So wie ich NVIDIA kenne, wird das 6GB Modell allerdings auf keinen Fall unter 320€ kosten. Damit dürfte Preis/Leistung höchstens ähnlich, aber nicht unbedingt besser ausfallen.

Ich erwarte ebenfalls 279$ für 6GB als Einführungspreis. Mit Steuern, Umrechnungskurs und etwas Gewinnmarge sind 310-320€ realistisch.

Weniger Verbrauch, kühlere Karten, bessere Frametimes und etwas mehr Leistung rechtfertigen den Preis für mich. Dazu bin ich noch jemand der den NVIDIA Insprector sehr intensiv nutzt :D

Am 7. Juli wissen wir (wohl) mehr. Ich hoffe nur, dass die Verfügbarkeit besser ist als bei den bisherigen Pascal Karten. Könnte allerdings wieder ein Papiertiger sein, der kurzfristig vorgezogen wird um die 480 zu kontern.

dildo4u
2016-07-01, 12:53:43
Zumindest werden sie sich hier whol den FE Bullshit verkneifen aber die Karte wird im Juli eh recht uninteresant bis die 2Ghz Custom Karten kommen.

Dural
2016-07-01, 12:58:23
Die custom bringen bei der 1080 aber (fast) auch nichts ;)

Digidi
2016-07-01, 12:59:39
Ich erwarte ebenfalls 279$ für 6GB als Einführungspreis. Mit Steuern, Umrechnungskurs und etwas Gewinnmarge sind 310-320€ realistisch.

Weniger Verbrauch, kühlere Karten, bessere Frametimes und etwas mehr Leistung rechtfertigen den Preis für mich. Dazu bin ich noch jemand der den NVIDIA Insprector sehr intensiv nutzt :D

Am 7. Juli wissen wir (wohl) mehr. Ich hoffe nur, dass die Verfügbarkeit besser ist als bei den bisherigen Pascal Karten. Könnte allerdings wieder ein Papiertiger sein, der kurzfristig vorgezogen wird um die 480 zu kontern.

Wieso bessere Frametimes? Amd hat Async Compute mit quick response quee was maßgeblich die Frametimes beeinflussen durfte. Nvidia hat hier nur billiges Pre Amption!

Und viel kälter wird das Ding nicht 120W vs 150w ist sehr wenig Unterschied zumal der Chip wohl kleiner ist und sich schlechter kühlen läßt!

Dural
2016-07-01, 13:02:12
Übrigens, wer sagt den das es bei der 1060 überhaupt eine rev. in den handel schaft? ;)

Troyan
2016-07-01, 13:12:46
Wieso bessere Frametimes? Amd hat Async Compute mit quick response quee was maßgeblich die Frametimes beeinflussen durfte. Nvidia hat hier nur billiges Pre Amption!

Ehrlich, denkst du, dass niemand hier im Forum Ahnung hat?
Pascal unterstützt alles, was AMD bei Async Compute auch unterstützt:
Dynamic Load Balancing
High Priority Queue (Quick Response Queue)

AffenJack
2016-07-01, 13:17:21
https://www.computerbase.de/2016-07/geforce-gtx-1060-spezifikationen-rx-480/

8 Gbps. Wenn die 120 W TDP real ausgereizt werden, wäre das allerdings nicht ganz so sparsam wie erwartet, selbst wenn die Leistung merklich über der RX 480 liegt.

Das ist eigentlich wie bei GM206, der war auch nicht so sparsam wie GM204. Er mag einfach etwas mehr Luft haben damit er den Boosttakt besser hält und dadurch dei RX480 schlägt.

Troyan
2016-07-01, 13:28:47
Ich sehe den Zusammenhang nicht?

Siehe hier: https://forum.beyond3d.com/posts/1922533/

Der veränderte Aufbau gegenüber Maxwell (mehr SMs als theoretisch an Pixel/Takt verarbeitet werden können) ist maßgeblich verantwortlich für die Async Compute Unterstützung von Pascal. Natürlich hat nVidia dann noch andere Dinge implementiert oder verbessert. Z.B. unterstützen sie zwei Compute-Queues, "dynamic load balancing" etc.

Digidi
2016-07-01, 13:30:53
Ehrlich, denkst du, dass niemand hier im Forum Ahnung hat?
Pascal unterstützt alles, was AMD bei Async Compute auch unterstützt:
Dynamic Load Balancing
High Priority Queue (Quick Response Queue)
Hig priority Queue ist eben nicht quick response queu;)

Im übrigen habe ich noch nirgends bei Nvidia high response queu gelesen nur von Preemption

Screemer
2016-07-01, 13:32:36
Ehrlich, denkst du, dass niemand hier im Forum Ahnung hat?
Pascal unterstützt alles, was AMD bei Async Compute auch unterstützt:
Dynamic Load Balancing
High Priority Queue (Quick Response Queue)
soweit ich das verstanden hab unterstützt nv eben nicht ein paralleles abarbeiten von compute- und graphics-shadern mit gleicher prio. auf folgendem chart sitiuation 2:

http://cdn.overclock.net/9/98/988b8b7d_pastedImage_5.png

Hig priority Queue ist eben nicht quick response quee ;)
es dürfte diesem aber recht nahe kommen. der entwickler legt fest, welche shader vorang haben und als erstes abgearbeitet werden müssen. derweil läuft der andere queue mit niedrigerer prio. oben abbildung 3, allerdings ohne überlappenden anfang und ende. die shader werden komplett abgearbeitet.

scully1234
2016-07-01, 13:33:12
geschenkt

Die Karten arbeiten unter DX12 so wie sie sollen und alles andere ist sekundär

Seit wann ist denn eigentlich das was AMD veranstaltet das Non Plus Ultra?

Troyan
2016-07-01, 13:43:03
soweit ich das verstanden hab unterstützt nv eben nicht ein paralleles abarbeiten von compute- und graphics-shadern mit gleicher prio. auf folgendem chart sitiuation 2:
http://cdn.overclock.net/9/98/988b8b7d_pastedImage_5.png

Siehe meinen Link zum Beyond3d.com Forum.


es dürfte diesem aber recht nahe kommen. der entwickler legt fest, welche shader vorang haben und als erstes abgearbeitet werden müssen. derweil läuft der andere queue mit niedrigerer prio. oben abbildung 3, allerdings ohne überlappenden anfang und ende. die shader werden komplett abgearbeitet.

"High Priority Queue" ist Microsofts DX12 Funktion zum Priorisieren von (Compute-)Workload. AMD nennt es eben "Quick Response Queue" als Teil ihres VR-Sets.

Digidi
2016-07-01, 13:43:45
Na ja nicht ganz! Die Vorteile die Shader unter dx12 voll auszulasten bleibt erst mal Amd vorbehalten!

Nein troyan high priority queu ist was anderes als quick response queu obwohl quick response queuhigh, priority queu beherrscht setzt quick response noch einen drauf!

High prioryt queu löst Nvidia über Preemption was zwar auch geht aber Ressourcen verschenkt!

Kurtz der Unterschied. Nvidia unterbricht die ganze gpu und jagt den priority queu so schnell wie möglich durch!
Amd ordnet das ganze so an das der queu schnell durch kommt während noch andere Sachen mit weiter rechnen!

scully1234
2016-07-01, 13:47:50
Diese theoretische Betrachtungsweise ,kannst du noch 1000 mal führen, "was zählt ist auf dem Platz"

Agent117
2016-07-01, 13:47:53
https://www.computerbase.de/2016-07/geforce-gtx-1060-spezifikationen-rx-480/

8 Gbps. Wenn die 120 W TDP real ausgereizt werden, wäre das allerdings nicht ganz so sparsam wie erwartet, selbst wenn die Leistung merklich über der RX 480 liegt.

Passt aber genau, wenn man man sich die Verbrauchsmessungen von 980 und 960 anschaut und das dann von der 1080 runterrechnet mit höheren SI Verbrauch da 192 statt 128 Bit und höheren Verbrauch der Speicherchips da 8Gbs GDR5 statt 10Gbs GDR5X kommt man ziemlich genau bei 120W raus. Natürlich ist das ganze etwas milchmädchenhaft.

Ich halt es für sicher dass wir 980 Performance bei 120W sehen.
Bleibt halt nur die Frage des Preises.

Einen AMD Konter in Form einer RX 490 auf Polaris Basis wird es laut PCGH - sind wohl direkte Infos von AMD - nicht geben. Somit wird die GTX 1060 nicht zu sehr unter Druck gesetzt, außer die Customs der RX 480 gehen auf >1500Mhz und skalieren gut. Wer weiß vlt bringen Treiber und 14nm LPP Optimierungen ja noch was überraschendes.

Undertaker
2016-07-01, 13:54:35
Es geht um GP106, also bitte auch so halbwegs am Thema bleiben :)

Troyan
2016-07-01, 13:57:11
Nein troyan high priority queu ist was anderes als quick response queu obwohl quick response queuhigh, priority queu beherrscht setzt quick response noch einen drauf!

https://forum.beyond3d.com/posts/1925741/


High prioryt queu losst Nvidia über Preemption was zwar auch geht aber Ressourcen verschenkt!

Nope.


Kurtz der Unterschied. Nvidia unterbricht die ganze gpu und jagt den priority queu so schnell wie möglich durch!
Amd ordnet das ganze so an das der queu schnell durch kommt während noch andere Sachen mit weiter rechnen!

Nope.

Du musst AMDs Marketing hier nicht wiederholen. Wenn du über Pascal reden willst, dann erkundige dich bitte vorher.

/edit: Da AMD mit Polaris nur auf GP106 Niveau ist, gehört Async Compute noch zum Thema. Immerhin bewirbt AMD es ja so prominent. :D

Dural
2016-07-01, 14:01:40
Die 1060 ist mit 120Watt sogar "sparsamer" als noch die GTX960, den diese hatte auch 120W, die 980 aber 165W und die 1080 jetzt 185W ;)

maximus_hertus
2016-07-01, 14:05:45
Wenn man gemein ist, kann man die 1060 als herbe Enttäuschung betrachten.

Gerade mal 25% weniger Watt bei gleicher Leistung, trotz 14nm. Da hätte man GTX 980 Leistung für ca. 85-90W erwarten dürfen ;)

Hakim
2016-07-01, 14:05:56
Bei unter 300€ wird das meine neue, 6GB und custom OC Version, ansonsten eine 1070. Wobei ich der RX480 mit einer custom Version bis dahin eine Chance einräume, Voraussetzung wäre über Treiber beim Video Verbrauch was nachzuschieben was auf NV Niveau wäre. Beim Spielen wären mir 30-40W egal, aber beim meinem 24std Dauerzustand will ich nicht unnötig 45W mehr braten

Undertaker
2016-07-01, 14:07:48
Die GTX 960 hat ihr TDP-Limit wohl praktisch kaum ausgereizt:

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html

Insofern hoffe ich mal noch, dass das auch für die GTX 1060 gilt.

Match-Maker
2016-07-01, 14:08:41
Siehe hier: https://forum.beyond3d.com/posts/1922533/

Der veränderte Aufbau gegenüber Maxwell (mehr SMs als theoretisch an Pixel/Takt verarbeitet werden können) ist maßgeblich verantwortlich für die Async Compute Unterstützung von Pascal. Natürlich hat nVidia dann noch andere Dinge implementiert oder verbessert. Z.B. unterstützen sie zwei Compute-Queues, "dynamic load balancing" etc.
Nach der Logik hätte bereits GK110 AC unterstützen können. ;D
Gipsel hatte dir ja bereits erklärt, dass dies ein Pixelfüllratentest, sodass ein SM pro GPC nur per Compute Shader ausgelastet werden kann.
Du willst doch nicht behaupten, dass Pascal ohne Async Compute maximal 80% seiner Shader auslasten könnte? Das wäre nämlich ineffizient! :freak:

dildo4u
2016-07-01, 14:09:05
Jup der NV Kühler kann z.b totaler Ramsch sein was den Verbrauch erhöt.

scully1234
2016-07-01, 14:13:12
Wenn man gemein ist, kann man die 1060 als herbe Enttäuschung betrachten.


Wo willst du denn dann die 480 einsortieren ?

Mal ganz davon ab das es von der 1060 bisher nicht viel mehr gibt als ein paar Eckdaten

Dural
2016-07-01, 14:13:51
Wenn man gemein ist, kann man die 1060 als herbe Enttäuschung betrachten.

Gerade mal 25% weniger Watt bei gleicher Leistung, trotz 14nm. Da hätte man GTX 980 Leistung für ca. 85-90W erwarten dürfen ;)


Wie kommst du auf 25W??? Rechnerisch wären es wenn schon 45W ;)

maximus_hertus
2016-07-01, 14:20:33
Wie kommst du auf 25W??? Rechnerisch wären es wenn schon 45W ;)

Häääää? 25W? Was meinst du?!

Ok, du hast die % vergessen bzw. überlesen. Ich habe von 25% geschrieben (25% weniger als die 165W der 980).

Dural
2016-07-01, 14:21:58
:freak: irgend wie habe ich da 25W gelesen, so ist alles OK ;)

maximus_hertus
2016-07-01, 14:31:24
Wo willst du denn dann die 480 einsortieren ?

Mal ganz davon ab das es von der 1060 bisher nicht viel mehr gibt als ein paar Eckdaten

Komm mal runter ;) Ich habe ja geschrieben, wenn man gemein ist.

Für mich wäre die GTX 1060 eher eine Enttäuschung. Wenn die 330-340 Euro stimmen, finde ich GTX 980 Performance bei gerade mal 6 GiB doch etwas schwach. Gerade die 6 GiB sind für eine 340 Euro-Karte etwas mau.

Wenn ich Raffs Video von dem RX 480 Overclocking sehe, frisst z.B. Rise of the TR locker 7 GiB in 1080p. In Zukunft wird es wohl eher schlimmer als "besser", von daher finde ich über 300 Euro mit weniger als 8 GiB unschön bzw. unrund. Und zwar unabhängig von der reinen (Durchschnitts) fps bzw. Watt.

Vor 2 Jahren kam die GTX 970 für einen wahrscheinlich günstigeren Preis (320 Euro) raus. Diese hätte gerade mal 10-15% weniger fps als die GTX 1060 und würde gerade mal 20% mehr verbrauchen (120 vs 145W). Für 2 Jahre Abstand ist bzw. wäre (noch ist die 1060 ja nicht draußen) das bestenfalls durchwachsen, eher sogar enttäuschend.

Sir_Freezer
2016-07-01, 14:36:36
Wirklich schade in so einem Forum mit ansehen zu müssen, dass augenscheinlich nur wenige "Geeks" wirklich lesen XOR rechnen können! Ich sprach deutlich von gerundeten Werten und werde faktisch kleingeredet (Thematik Lesen), andere sprechen von harten Zahlen und können kein Mathe (Thematik Rechnen) und werden außenvor gelassen.
Aber neuer Tag, neues Glück...
Ich fang mal an. :smile:

...
Die GTX 1060 hat 75% der Speicherbandbreite der GTX 1070. ...
Die 75%ige der Speicherbandbreite der GTX 1070 ist eine reine Annahme, deren keine Fakten bis dato zu Grunde liegen!
Unterschied zu mir? *dabei an die eigene Nase greift*
Ich sprach von "Optimalfall"!
Jetzt kommen schon Statements von: Es wird nur 7gbps Speicher verwendet.
Dieser eventuelle 10% Bandwidth Vorteil, gegenüber zum Vollausbau der GTX 1080 negiert sich also bereits schon! Nur mal so am Rande...
Unabhängig davon: gDDR5X und HBMx fallen raus.
Ich denke, da sind wir uns einig. Warum sollte klar sein...

...
Bei 1280 Shadern mit ordentlich Takt (mindestens 1080 Takt) auch 75+% der Rechenleistung der 1070. Die RX 480 kommt jedoch nur auf 66-70% der Leistung der GTX 1070. Durch den relativ hohen Takt würde zwar die Energieeffizienz der 1060 leiden, aber sie wäre immer noch besser als die der RX 480. ...
Und nun zum ersten Äpfel-Birnen-Vgl, welcher imho doppelt falsch ist (Nr. 1 - Vollausbau zu kastrierter Chip).
Aber Ok, ich werde mich Ausnahmsweise mal darauf einlassen.
Du glaubst also ernsthaft, dass ein 33,333 periode % Defizit and Cuda Cores
von 1060 zu 1070 durch bzw. ab nichtmal 2,971% mehr Takt auszugleichen ist? (=> entspr. Taktsteigerund GTX1070FE zu GTX 1080FE im Boost).
Selbst im Ref. Takt, der faktisch NIE in Games anliegt wären das nur ab 6,7065%, bei nach wie vor über 33% Shaderdefizit.
Andere Annahmen wären in Bezug der konstanten Effizienzeinhaltung nicht zulässig, da zusätzlich noch eine neuer Koeffizient hinzukäme, der in einer reinen Speku sowieso schon völlig deplaziert ist und dann auch noch wäre. :freak:
Bin auch noch kurz Pedant: Und dabei ist noch nichtmal das Handycap des Vollausbaus mit eingerechnet.
Noch ein kurzer Familienvergleich: Wieviel mehr Takt brauchte einen GTX 760 zur GTX 670 (1152vs1344 CUDAs), um eine identische Performance zu erreichen?
Gern auch unter Vernachlässigung des neueren Turbo Boosts 2.0 bzw. dessen krass optimierten Temp Targets der GTX760.
(Handycap GTX670 btw, die ab ~60 Grad C erstmals reguliert, wie meine eigene und nicht wie die GTX 760 meines Kumpels erst ab ~70 Grad C! - Beides waren Asus GTX Mini Modelle...)
PS.: Was passiert(e) mit der Effizienz bei erreichen von X Mhz Coretakt?
Am Rande: Effizient bedeutet für mich x_FPS/Watt, wobei x Element R.

...Also:
Die GTX 1060 hat exakt 50% der Cuda Cores der GTX 1080.
Erstmal nur bis dahin, um "grob" das Feld der Performance der GTX 1060 abzustecken. D.h. -> 3dc Perform. Index von ~480% bei identischen...

Doppelte Einheiten skalieren nicht zu 100%, insofern funktioniert diese Rechnung nicht. Ausgehend von GTX 980, GTX 1080 und GTX 960 kann man die GTX 1060 unter Beachtung der in Relation höheren Bandbreite ziemlich sicher auf +70-75%* zur GTX 960 schätzen.

*bei prozentual gleicher Taktratensteigerung wie bei GM204 -> GP104 und 192 Bit/8 Gbps Speicher
Welcher Teil von "grob" ist hier nicht verstanden worden?
Wir reden hier von emprischen 5.x% zur nächsten Klasse (Bei Kepler und Maxwell nahezu Konstant) der identischen Gen!
Psychologisch regt der inverese Vergleich von rund Achtzig Prozent, also ~80% nämlich zu mathem. Diskalkulie an bzw. Falschinterpretation an.
Warum?
Weil von a nach b 3,5% weniger niemals 3,5% mehr von b nach a waren.
Ich geb auch gern in einem anderen Post noch ein Bsp. passend zu 3dc Performance Index, wo die Zahlen größer werden und das Ganze deutlicher wird.
Ein Mensch kann weder exponentiell, noch invers, also in einer "Schrumpung" denken. Ich im übrigen auch nicht... Das aber nur am Rande

...Die 6GB Variante wird einen MSRP von $299 haben; 3GB bei $249 und ist wohl schwer im 200 Euro Segment.
Gut, üben wir noch einmal kurz lesen und checken den Fred.
*Wegen Zeichenbegrenzung zum Teil zeilenumbruchberaubt*

Kann es sein, dass du keine Ahnung vom Handel hast (nicht Böse gemeint)?
Bei Abverkaufspreisen spielt der USD/Euro Kurs eine untergeordnete Rolle. Da gibt es andere Faktoren, die (mit) zählen. Dazu bietet ja auch bei uns nicht jeder Händler die 240 Euro. Genau genommen ist es eine einzige Karte bei einem einzigen Händler (MF-Gruppe). Alle anderen sind bei 250+ Euro.

Gehen wir mal von 299 USD MSRP für die GTX 1060 6 GiB aus. Beim aktuellen Euro/USD-Kurs wäre man dann bei 270 Euro netto. Rechnen wir die 19% Mwst. dazu, sind wir bei 321 Euro. Dazu noch Zoll, Transport, länderspezifische Gesetze (Gewährleistungen/Garantie etc.) sowie Währungsschwankungen.

GTX 980 Ti => 649 USD = 739 Euro (also USD * 1,1386)
GTX 1080 => 699 USD = 789 Euro (also USD * 1,1287)
GTX 1070 => 449 USD = 499 Euro (also USD * 1,1113)

Geht man nach den letzten MSRP bzw. Euro UVP, wäre man bei:
USD * 1,1113 => 332,27 Euro
USD * 1,1287 => 337,48 Euro
USD * 1,1386 => 340,44 Euro

Also irgendwo bei 330-340 Euro, also rund 150 Euro günstiger als aktuelle 1070er.
Vielleicht gibt es ja dann wieder 2 MSRPs, einmal 299 USD Founder und z.B. 279 USD Custom.
Achso, wo ist denn jetzt bei nVidias UVP die Abzocke der Händler? Ist es die Schuld der Händler, dass nV recht hohe Preise verlangt? Sollen die Händler Verluste machen, damit Team Green zufrieden ist?
Um eine UVP von 299 Euro für die GTX 1060 zu erhalten, darf der MSRP maximal 269 USD betragen. Ist er höher, geht es auf über 300 Euro UVP.

...
Mein Fazit: Bei 299 USD MSRP wird es bis in den Herbst bei rund 340 Euro hinauslaufen. Gerade wenn die Liefersituation nicht so gut sein sollte. Palit und Co. könnten mittelfristig die 299 Euro angreifen, aber kurzfristig sehe ich keine <300 Euro Preise.
...Ich bin mal gespannt, ob die überhaupt mal erreicht werden.
Wahrscheinlich läuft das genau wie zu Keplerzeiten wieder ab...
Wenn es wieder die FE's gibt, dann kommt die GTX 1060 garantiert über 300€ raus.
Dafür spricht schon der Paperlaunch und der ist quasi sicher...
Sau stark! Kurz, bündig, verständlich mit Bsp & Aussagekräftig!
So gut hätte ich es defintiv nicht auf den Punkt bringen können *Lob @ maximus_hertus*

Aber Hauptsache Ihr euch seit geschlossen einig, wenn es gegen mich geht, obwohl wir teils der gleichen Meinung sind...
@Ailuros: Was interessiert mich eine "Art UVP" von 2,69GE wenn ich letzlich dafür ~3,39GE bezahlen muss/müsste (GE = Geldeinheit)!?
Bissl naiv, wer was anderes denkt oder?
Gründe ala Brexit, EU oder warum/weswegen auch immer, sind unerheblich btw. Fakt bleibt Fakt.

...eine 1060 wird mehr TFLOPs auf den Tisch legen als eine GTX970 :P
Mal sehen, was Ihr das letzt endlich bringt... ;)
*"Beschissenes Speicherlimit" bleibt aber bitte für tolerantes fairness ausgeschlossen*
Nunja, ab 1500MHz Coretakt wirds ein leichtes Spiel...(und das hat schließlich schon die 1070).
Aber sicher! :biggrin: Rechne oder lese mal kurz nach, manchmal kommt entsetzen gleich mit Erstaunen und Ernüchterung! ;D

Ich sage nicht das man keine Prognosen/Hochrechnungen machen darf, sondern nur das der konkrete Rechenansatz im obigen Beispiel ungeeignet war. :) Ausgehend von den 960% Leistungsindex für die GTX 1080 für einen exakt halbierten Chip (das Thema Speicherinterface von mir aus nachträglich noch eingerechnet) 480% anzusetzen, stimmt einfach nicht mit der Praxis überein.

Bestes Beispiel: GM204 vs. GM206. Doppelte Rechenleistung, doppeltes SI, aber nur 75 bis 80% Mehrleistung.

Sollte imho jetzt alles geklärt sein, *hoffe ich zumindest*

Zudem die 1080 ja schon offensichtlich probleme hat ihre Power auf die Strasse/Bildschirm zu bringen, sieht man sehr schön am 1070 Vergleich.
Hab ich selbst mehrmals im RX480 Fred gesagt und daher also auch nie bestritten.

Die 6GB Variante wird einen MSRP von $299 haben; 3GB bei $249 und ist wohl schwer im 200 Euro Segment. Mein Mittelnahme ist Rumpelstilzchen; die paar Tage wird man wohl noch abwarten koennen.
Erster Teil bereits geklärt. *Hoffnung*
"Rumpelstilzchen" kann ich weder in deinem Namen, noch in deinem Nic, auch nicht im Wohnort, oder anderswo erkennen/interpretieren!
Was also meinst du also jetzt genau? Drück dich mal klar aus...

Fazit: Meine Meining hat sich zu keiner Zeit geändert. Ein GP106 kann eine eine RX480 schlagen und damit auch eine GTX 970 (unter Auslassung des perfiden Speicherbugs über kurz oder lang sowieso), aber niemals unter dem absolut hochgehaltenem Effizenzaspekt. Wer 2Ghz+ Sexy findet, darf das natürlich. Genau diese und mehr sind aber nötig, um eben dieses Ziel zu erreichen. Wohin dann aber die Effizientz geht, steht leider bzw. gleich auf Seite 2 der folgendes Tests
Achso, wann taktete ein Stock 106er mal drastisch höher, als ein 104er?

Nach über 3h für mein Hobby (unentgeldlich) Egal... gLG von mir an ALLE! :)
- stay smart -

Korvaun
2016-07-01, 14:43:43
Bezüglich des Gesamtverbrauchs der neuen Karten (egal ob 1060/1070 oder RX480) sollte man auch immer bedenken das 6-8GB 4GHZ GDDR5 doch einen guten Teil der Stromersparnis durch den neuen Chip/Herstellungsprozeß zunichte machen. Das zeigt sich natürlich umso deutlicher je sparsamer die eigentliche GPU ist. Das gleicht sich erst wieder aus wenn GDDR5X verwendet wird (bzw. HBM2).

Troyan
2016-07-01, 14:43:54
Nach der Logik hätte bereits GK110 AC unterstützen können. ;D
Gipsel hatte dir ja bereits erklärt, dass dies ein Pixelfüllratentest, sodass ein SM pro GPC nur per Compute Shader ausgelastet werden kann.

Äh, ja?!
Und rate mal, wie man dieses Vorgehen nennt. :P
Es ist ein Best-Case Szenario für Async Compute.


Du willst doch nicht behaupten, dass Pascal ohne Async Compute maximal 80% seiner Shader auslasten könnte? Das wäre nämlich ineffizient! :freak:

Nur bei Pixelberechnugen. Für Geometrie- und Computeberechnungen stehen alle SMs von Pascal zur Verfügung.

Undertaker
2016-07-01, 14:44:00
Wenn ich Raffs Video von dem RX 480 Overclocking sehe, frisst z.B. Rise of the TR locker 7 GiB in 1080p.

Aus der angezeigten Speicherauslastung einer Karte mit weit mehr VRAM würde ich nichts herauslesen. Würden die 7GB in 1080p stimmen, müsste eine 6GB 980TI leistungsmäßig untergehen. Stattdessen stemmen sogar eine 4GB GTX 980 oder R9 Nano WQHD oder 4K ohne überproportionalen Leistungsverlust. Logischer Schluss: Die Zahlen sind Käse.

3GB würde ich in dieser Leistungsklasse nicht mehr kaufen, aber 4GB und erst recht 6GB sind imo vollkommen ausreichend.

Sir_Freezer
2016-07-01, 14:47:49
Komm mal runter ;) Ich habe ja geschrieben, wenn man gemein ist.

Für mich wäre die GTX 1060 eher eine Enttäuschung. Wenn die 330-340 Euro stimmen, finde ich GTX 980 Performance bei gerade mal 6 GiB doch etwas schwach. Gerade die 6 GiB sind für eine 340 Euro-Karte etwas mau.

Wenn ich Raffs Video von dem RX 480 Overclocking sehe, frisst z.B. Rise of the TR locker 7 GiB in 1080p. In Zukunft wird es wohl eher schlimmer als "besser", von daher finde ich über 300 Euro mit weniger als 8 GiB unschön bzw. unrund. Und zwar unabhängig von der reinen (Durchschnitts) fps bzw. Watt.

Vor 2 Jahren kam die GTX 970 für einen wahrscheinlich günstigeren Preis (320 Euro) raus. Diese hätte gerade mal 10-15% weniger fps als die GTX 1060 und würde gerade mal 20% mehr verbrauchen (120 vs 145W). Für 2 Jahre Abstand ist bzw. wäre (noch ist die 1060 ja nicht draußen) das bestenfalls durchwachsen, eher sogar enttäuschend.

Sehe ich auch so! Nur leider kann es imho leider nicht mehr werden, als eben das!

captain_drink
2016-07-01, 14:48:22
(120 vs 145W).

Bei der Referenz-970 war das PT @150W, Customs waren noch großzügiger (170W+). Die 120W sehe ich als Maximalwert ähnlich wie bei der 960 an, im Durchschnitt werden es wohl eher ~100W sein.

maximus_hertus
2016-07-01, 14:51:38
Aus der angezeigten Speicherauslastung einer Karte mit weit mehr VRAM würde ich nichts herauslesen. Würden die 7GB in 1080p stimmen, müsste eine 6GB 980TI leistungsmäßig untergehen. Stattdessen stemmen sogar eine 4GB GTX 980 oder R9 Nano WQHD oder 4K ohne überproportionalen Leistungsverlust. Logischer Schluss: Die Zahlen sind Käse.

3GB würde ich in dieser Leistungsklasse nicht mehr kaufen, aber 4GB und erst recht 6GB sind imo vollkommen ausreichend.

Nein, die Games bzw. Engines streamen schonmal den verfügbaren VRAM voll. Natürlich reichen für Rise of the TR auch 4 GiB in Full HD, aber wenn die (zukünftigen) Games den Schritt zu mehr als 4 GiB Verbrauch machen, wird man wohl direkt auf 8 GiB gehen (ähnlich wie von 2 auf 4 GiB, die GTX 780er sehen ja auch eher schlecht als recht aus).

Dural
2016-07-01, 14:53:46
Vorallem schon bei der 1080 1,9GHz nicht wirklich ineffzient werden, dies fängt erst ab 2GHz an.

Bei so einem kleinen Chip werden die 1,9GHz relativ easy laufen. Ich bin gespannt ob er besser oder schlechter zum übertakten gehen wird als noch der GP104

scully1234
2016-07-01, 15:00:31
Aus der angezeigten Speicherauslastung einer Karte mit weit mehr VRAM würde ich nichts herauslesen.
.

Ich denke die Funktionsweise moderner Grafikengines , und deren adaptives Speichermanagement,sind ihm schon geläufig, aber man kann es ja mal versuchen über sowas für FHD mehr Vram zu vermarkten , wie bei vernünftiger Optimierung nötig erscheint

maximus_hertus
2016-07-01, 15:00:49
Bei der Referenz-970 war das PT @150W,
http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

145W

Undertaker
2016-07-01, 15:01:01
Nein, die Games bzw. Engines streamen schonmal den verfügbaren VRAM voll. Natürlich reichen für Rise of the TR auch 4 GiB in Full HD, aber wenn die (zukünftigen) Games den Schritt zu mehr als 4 GiB Verbrauch machen, wird man wohl direkt auf 8 GiB gehen (ähnlich wie von 2 auf 4 GiB, die GTX 780er sehen ja auch eher schlecht als recht aus).

Da gibt es doch keine harten Schritte auf feste GB-Mengen, wenn der Speicherverbrauch mit jeder Auflösung, AA-Setting und Detaileinstellung anders ausfällt...

Ausgehend von aktuellen Spielen sind GTX 980, R9 Nano oder GTX 1060 Karten für 1080p oder WQHD bei mittleren bis hohen Settings. In einem Jahr dann vermutlich nur noch 1080p med-high. Ich bezweifle doch sehr arg, dass man dafür mehr als 4 oder gar 6 GB brauchen wird, ohne dass es zu Nachladern kommt. Zumal das mit Blick auf diverse 28nm Modelle (GTX 980, 980TI, Nano, Fury, dazu die 4GB RX 480) vollkommen am Markt vorbei gehen würde.

Zusammengefasst: So lange man selbst für deutlich schnellere GPUs mit nur 4 GB praktisch keine Szenarien findet, wo heute der Speicher ausgeht, sehe ich einer GTX 1060 mit 6 GB (und auch einer RX 480 mit 4 GB) vollkommen gelassen entgegen. Ja, Speicher ist immer gut, aber letzthin ist daraus fast ein Wahn geworden... ;)

Ailuros
2016-07-01, 15:01:50
Nach über 3h für mein Hobby (unentgeldlich) Egal... gLG von mir an ALLE! :)
- stay smart -

Man muss so oder so ziemlich tapfer sein um die gesamte Quote-Orgie durchzulesen. Ich bin eher der KISS-next door guy:

Fazit: Meine Meining hat sich zu keiner Zeit geändert. Ein GP106 kann eine eine RX480 schlagen und damit auch eine GTX 970 (unter Auslassung des perfiden Speicherbugs über kurz oder lang sowieso), aber niemals unter dem absolut hochgehaltenem Effizenzaspekt.

Kein einziger Einwand.

Wer 2Ghz+ Sexy findet, darf das natürlich. Genau diese und mehr sind aber nötig, um eben dieses Ziel zu erreichen. Wohin dann aber die Effizientz geht, steht leider bzw. gleich auf Seite 2 der folgendes Tests.

Persoenlich gehoer ich zu den letzten die so etwas befuerworten. https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11076399&postcount=30
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11076582&postcount=34

Aber Hauptsache Ihr euch seit geschlossen einig, wenn es gegen mich geht, obwohl wir teils der gleichen Meinung sind...

Ich weiss jetzt nicht was das jetzt ploetzlich mit dem Thema bzw. dem Gespraech hier zu tun hat, aber wenn Du wirklich irgendwo irgendwelche Konspirationen vermutest musst Du Dein eigenes Problem selber loesen.

prinz_valium
2016-07-01, 15:03:58
wenn man das geschönte marketing in den Balken weglässt, sollte es immer noch ein ganz gute karte werden. leider wird der preis nicht deutlich unter 300 euro liegen. dafür ist amd mit der 480 leider viel zu schwach.
ich weiß immer noch nicht, was ich kaufen soll. ich werde wohl noch die 1080ti und vega abwarten und dann entscheiden

maximus_hertus
2016-07-01, 15:09:49
Da gibt es doch keine harten Schritte auf feste GB-Mengen, wenn der Speicherverbrauch mit jeder Auflösung, AA-Setting und Detaileinstellung anders ausfällt...

Ausgehend von aktuellen Spielen sind GTX 980, R9 Nano oder GTX 1060 Karten für 1080p oder WQHD bei mittleren bis hohen Settings. In einem Jahr dann vermutlich nur noch 1080p med-high. Ich bezweifle doch sehr arg, dass man dafür mehr als 4 oder gar 6 GB brauchen wird, ohne dass es zu Nachladern kommt. Zumal das mit Blick auf diverse 28nm Modelle (GTX 980, 980TI, Nano, Fury, dazu die 4GB RX 480) vollkommen am Markt vorbei gehen würde.

Zusammengefasst: So lange man selbst für deutlich schnellere GPUs mit nur 4 GB praktisch keine Szenarien findet, wo heute der Speicher ausgeht, sehe ich einer GTX 1060 mit 6 GB (und auch einer RX 480 mit 4 GB) vollkommen gelassen entgegen. Ja, Speicher ist immer gut, aber letzthin ist daraus fast ein Wahn geworden... ;)

Mir ist klar, dass es nicht von exakt 4 GiB auf exakt 8 GiB "hoch" geht. Ich bemühe da eher die Vergangenheit => Vor 3 Jahren kamen die GTX 780er mit 3 GiB. Die sollten ja erstmal reichen, gerade bei einem High-End Boliden. Aber nein, die Rechenleistung ist immer noch mehr als ausreichend, grob auf GTX 970 Niveau, aber durch die 3 GiB hat man in der höchsten Detailstufe schon in Full HD seine Schwierigkeiten.

6 GiB werden aller Voraussicht nach für 2016 @ Full HD reichen. Aber was ist mit 2017 oder gar 2018? Der benötigte VRAM wird eher steigen als fallen.

Und wenn ich schon bereit bin, rund 340 Euro in eine Grafikkarte zu investieren, dann bestehe ich 2016 einfach auf die "runden" 8 GiB und nicht auf diese Kompromissbestückung 6 GiB.

captain_drink
2016-07-01, 15:13:25
http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

145W

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Erster Absatz.

Hinzu kommt, dass selbst nominelle Referenzversionen nicht mal die 150W PT hatten. Eine Version mit 145W war nie im Handel.

Match-Maker
2016-07-01, 15:13:55
Äh, ja?!
Und rate mal, wie man dieses Vorgehen nennt. :P
Es ist ein Best-Case Szenario für Async Compute.
GK110 soll deshalb also Async Compute beherrschen, GM200 aber nicht...? :rolleyes:
Wie du auch selbst sagst ist der Test praxisfern, da moderne Spiele eh alle SMs auslasten. Wäre in diesem Fall deiner Meinung nach dann kein AC mehr möglich auf Pascal? :freak:

Nur bei Pixelberechnugen. Für Geometrie- und Computeberechnungen stehen alle SMs von Pascal zur Verfügung.
Eben und deshalb hat diese Konfiguration (SM/GPC/ROP) auch nichts mit AC zu tun, weil man mit komplexeren Shadern eh alle SMs auslasten kann, ganz ohne Async Compute. Jedenfalls ist da gar nichts für "unabhängige Compute-Aufgaben, die Pascal per Compute-Queue gleichzeitig abarbeiten kann" reserviert. Das impliziert nämlich, dass die letzten 20% mit DX11 und nur einer Queue nicht auslastbar seien.

Fliwatut
2016-07-01, 15:16:25
Das könnte eine interessante Karte für mich werden, ich bin auf erste richtige Benchmarks gespannt. 6GB RAM finde ich allerdings jetzt nicht so toll, besonders wenn der Preis bei den geschätzten 320,- € liegt.

Undertaker
2016-07-01, 15:21:42
Mir ist klar, dass es nicht von exakt 4 GiB auf exakt 8 GiB "hoch" geht. Ich bemühe da eher die Vergangenheit => Vor 3 Jahren kamen die GTX 780er mit 3 GiB. Die sollten ja erstmal reichen, gerade bei einem High-End Boliden. Aber nein, die Rechenleistung ist immer noch mehr als ausreichend, grob auf GTX 970 Niveau, aber durch die 3 GiB hat man in der höchsten Detailstufe schon in Full HD seine Schwierigkeiten.

Die GTX 780 (Ti) war schon zum Launch speichermäßig nicht üppig bestückt. Selbst eine sehr viel langsamere R9 290 hatte die gleichen 3 GB, die Mittelklasse in Form der GTX 760 gab es sogar mit 4 GB. Das ist absolut kein Vergleich zu heute.

Und wo du gerade selbst einen ähnlichen Vergleich gebracht hast: Rein von der Rechenleistung liegt die 780 Ti grob ähnlich wie die GTX 1060. Letztere hat für diese Rechenleistung doppelt(!) so viel VRAM. Das beweist: 6 GB sind absolut üppig für eine Karte auf diesem Niveau.

6 GiB werden aller Voraussicht nach für 2016 @ Full HD reichen. Aber was ist mit 2017 oder gar 2018? Der benötigte VRAM wird eher steigen als fallen.

Die Rechenleistung doch ebenso. Aktuell reichen 4 GB praktisch überall für WQHD @ max. Ich kann mir sehr gut vorstellen, dass man 2017/2018 auf einer GTX 1060 oftmals kaum mehr als 3-4 GB ausgelastet bekommt, weil man sogar unter FullHD die Details kräftig absenken muss.

mczak
2016-07-01, 15:21:57
8 Gbps. Wenn die 120 W TDP real ausgereizt werden, wäre das allerdings nicht ganz so sparsam wie erwartet, selbst wenn die Leistung merklich über der RX 480 liegt.
Interessant - damit ist die Speicherbandbreite/ALU doch deutlich höher als bei der GTX 1080 (es sei denn der durchschnittliche Takt ist ~20% höher). Aber vielleicht kostet 8gbps gddr5 auch eher Effizienz (wegen Factory-OC/OV) als Geld gegenüber 7gbps...

Steffko
2016-07-01, 15:22:52
Ist Nvidia eigentlich wesentlich effizienter bei der Speicherbandbreite? Lese grade bei CB von 192bit Speicherinterface bei 4000/8000 Mhz, sprich 25% weniger Speicherbandbreite als bei der RX480. Die 1060 soll aber schneller werden.
Und die 480 hängt doch schon recht ordentlich an der Bandbreite?

captain_drink
2016-07-01, 15:27:03
Ist Nvidia eigentlich wesentlich effizienter bei der Speicherbandbreite?

Die 1070 hat eine zur 480 identische Bandbreite (bzw. Durchsatz), ist aber 40-60% schneller. Also: ja.

Steffko
2016-07-01, 15:35:32
Die 1070 hat eine zur 480 identische Bandbreite (bzw. Durchsatz), ist aber 40-60% schneller. Also: ja.

Jo stimmt, hatte ich ganz vergessen. Total kurios, dass AMD da soweit zurück zu liegen scheint :confused:

Fusion_Power
2016-07-01, 15:39:38
Na super, mehr Leistung für viel mehr Geld, was ne Kunst...
Schneller als ne 960, schön, aber gleich ~100€ teurer, unschön. Dann muss ich auf ne 1050er warten und beten dass die noch über einer 960er liegt bei hoffentlich moderaten Preis.
AMD hatte wohl doch keinen Einfluss auf die Preisgestaltung von NVidia, was muss denn noch alles passieren bis das mal Wirkung zeigt?

Thunder99
2016-07-01, 15:56:57
nvidia muss mal so richtig auf die Schnauze fallen :freak: Aber dazu muss schon mehr passieren als der Skandal um die 970 und AMD muss ein noch besseres Produkt auf den Markt bringen, sodass die Vorteile von nvidia nicht mehr von Belang sind

Troyan
2016-07-01, 16:05:50
GK110 soll deshalb also Async Compute beherrschen, GM200 aber nicht...? :rolleyes:
Wie du auch selbst sagst ist der Test praxisfern, da moderne Spiele eh alle SMs auslasten. Wäre in diesem Fall deiner Meinung nach dann kein AC mehr möglich auf Pascal? :freak:

Schau dir die Erklärungen auf Youtube vom Editor's Day an. Kepler unterstützt kein "dynamic load balancing". Es müsste also genauso gehandhabt werden wie bei Maxwell. Und Maxwell hat überhaupt keine freien Ressourcen, um unabhängige Computeshader starten zu können...


Eben und deshalb hat diese Konfiguration (SM/GPC/ROP) auch nichts mit AC zu tun, weil man mit komplexeren Shadern eh alle SMs auslasten kann, ganz ohne Async Compute. Jedenfalls ist da gar nichts für "unabhängige Compute-Aufgaben, die Pascal per Compute-Queue gleichzeitig abarbeiten kann" reserviert. Das impliziert nämlich, dass die letzten 20% mit DX11 und nur einer Queue nicht auslastbar seien.

Vorsichtig: Nicht verwendbar bezieht sich einzig auf die Pixelstage. Alle SMs sind natürlich für Geometrieaufgaben und Computeshader nutzbar.

Match-Maker
2016-07-01, 17:03:23
Schau dir die Erklärungen auf Youtube vom Editor's Day an. Kepler unterstützt kein "dynamic load balancing". Es müsste also genauso gehandhabt werden wie bei Maxwell. Und Maxwell hat überhaupt keine freien Ressourcen, um unabhängige Computeshader starten zu können... Für MDolencs Bench bräuchte man noch nichtmal Dynamic Load Balancing, da bei GK110 & GP104 immer ein SM pro GPC "reserviert" ist. Die Aufteilung ist also statisch.
Der Punkt ist doch, dass Pascal im Normalfall ebenfalls keine freien Ressourcen hat, da die SMs in der Praxis auch so von nicht füllratenlimitierten Shadern ausgelastet werden. Nach deiner Logik wäre es schlechter, wenn GP104 z.B. 128 ROPs hätte und ein GPC 32 Pixel/Takt schaffen würde...

Vorsichtig: Nicht verwendbar bezieht sich einzig auf die Pixelstage. Alle SMs sind natürlich für Geometrieaufgaben und Computeshader nutzbar.
Das wissen wir beide, aber zuvor hieß es noch "Gaming-Pascal kann also bei Grafikberechnungen nur 80% der vorhandenen SM benutzen". Komplexe Pixelshader sind auch Grafikberechnungen. ;)

Troyan
2016-07-01, 17:37:21
Für MDolencs Bench bräuchte man noch nichtmal Dynamic Load Balancing, da bei GK110 & GP104 immer ein SM pro GPC "reserviert" ist. Die Aufteilung ist also statisch.
Der Punkt ist doch, dass Pascal im Normalfall ebenfalls keine freien Ressourcen hat, da die SMs in der Praxis auch so von nicht füllratenlimitierten Shadern ausgelastet werden. Nach deiner Logik wäre es schlechter, wenn GP104 z.B. 128 ROPs hätte und ein GPC 32 Pixel/Takt schaffen würden...

Bitte genauer lesen. nVidia stellt für Kepler und Maxwell keine dedizierte Compute-Queue zur Verfügung. Der Treiber setzt den Computeteil hinter den Grafikteil. Die Abarbeitung erfolgt seriell.
Bei Pascal gibt es
a) zwei dedizierte Compute-Queues
b) nicht verwendbare SM für Pixelberechnungen
c) ein dynamisches Verteilen der Aufgaben auf SM-Ebene

Es hat sein Grund, wieso nVidia vom Maxwell-Weg wieder weggegangen ist und einen zusätzlichen fünften SM pro GPC verbaut hat.


Das wissen wir beide, aber zuvor hieß es noch "Gaming-Pascal kann also bei Grafikberechnungen nur 80% der vorhandenen SM benutzen". Komplexe Pixelshader sind auch Grafikberechnungen. ;)

Ja, Pixelshader sind eben nur auf 4/5 der Einheiten anwendbar. Die restlichen Einheiten können mit Geometriedaten gefüttert oder per Compute-Queue verwendet werden.

Fusion_Power
2016-07-01, 17:48:32
nvidia muss mal so richtig auf die Schnauze fallen :freak: Aber dazu muss schon mehr passieren als der Skandal um die 970 und AMD muss ein noch besseres Produkt auf den Markt bringen, sodass die Vorteile von nvidia nicht mehr von Belang sind
Mir würde es schon reichen wenn die Benennung konsequenter wäre. Die 1060er sollte also ehr 1070er heißen, die 1070er 1080 und so weiter. Da weiß man dann auch gleich welche Preiskategorie angepeilt ist wenn ich mit ne "60er" zulegen will. Früher waren die mal so um die 200 Euro angesiedelt.

AnarchX
2016-07-01, 17:52:31
Ja, Pixelshader sind eben nur auf 4/5 der Einheiten anwendbar. Die restlichen Einheiten können mit Geometriedaten gefüttert oder per Compute-Queue verwendet werden.
Gibt es dafür eine gute Quelle, Pixelshader-Tests zeigen doch ~9 TFLOPs auf?

Mancko
2016-07-01, 18:18:35
Wenn man gemein ist, kann man die 1060 als herbe Enttäuschung betrachten.

Gerade mal 25% weniger Watt bei gleicher Leistung, trotz 14nm. Da hätte man GTX 980 Leistung für ca. 85-90W erwarten dürfen ;)

Ich würde sagen diese Frage stellt sich primär im Vergleich zur Konkurrenz. Wenn die schlechter ist dann passt alles. Ältere Produkte stellt man deswegen ja auch einfach ein und verkauft sie nicht mehr.

TheCounter
2016-07-01, 18:30:57
Na wenn sich die 1060 genauso gut übertakten lässt wie 1070/1080 (ohne große Änderung am PT ca 2GHz), dann sollte sie schon sehr weit vor einer 480 liegen. Womöglich sogar schneller als eine 490 werden.

Da ist ein Preis von um die 300EUR doch gerechtfertigt wie ich finde.

AnarchX
2016-07-01, 18:39:09
Es sind nur 6GiB und unter 5 TFLOPs bei noch fragwürdigen ASync-Compute-Fähigkeiten, da sind 25% Aufpreis gegenüber einer 8GiB RX 480 schon etwas happig. Erst recht da es nur eine GP106 GPU mit ~200mm² ist.
Die 3GiB Version mag zwar eine GTX 960 wohl noch gut überbieten, aber diese Speichergröße ist jenseits von $149 in 2016 schon ziemlich fragwürdig.

Undertaker
2016-07-01, 18:48:03
Eine GTX 1080 hat auch nur gut 5% mehr FLOPS als eine Fury X. ;) FLOPS oder GB/s zählen ist aktuell so aussagekräftig wie Kernzahlen oder Taktraten im CPU-Bereich (zwischen verschiedenen Architekturen).

Die kleine 3 GB Version sehe ich aber auch zum Ladenhüter werden. Das ist wie damals die 8800 GTS mit 320 MB... ;)

N0Thing
2016-07-01, 18:54:07
Es sind nur 6GiB und unter 5 TFLOPs bei noch fragwürdigen ASync-Compute-Fähigkeiten, da sind 25% Aufpreis gegenüber einer 8GiB RX 480 schon etwas happig. Erst recht da es nur eine GP106 GPU mit ~200mm² ist.
Die 3GiB Version mag zwar eine GTX 960 wohl noch gut überbieten, aber diese Speichergröße ist jenseits von $149 in 2016 schon ziemlich fragwürdig.

Wieviele TFLOPs spielt doch keine Rolle, entscheidend für den Preis wird in erste Linie die Leistung sein, die in den meisten Spielen ankommt. Dazu dann der Stromverbrauch/Lautstärke. Wenn die ca. 10% Vorsprung gegenüber der RX 480 stimmen, die Nvidia auf den Folien genannt hat, dabei der Stromverbrauch und Lautstärke geringer und dazu noch Spielraum für Übertaktung gegeben sein sollte, wäre ein Startpreis von 300-325€ wohl drin.

AnarchX
2016-07-01, 19:06:15
Eine GTX 1080 hat auch nur gut 5% mehr FLOPS als eine Fury X. ;) FLOPS oder GB/s zählen ist aktuell so aussagekräftig wie Kernzahlen oder Taktraten im CPU-Bereich (zwischen verschiedenen Architekturen).

Bei den ALUs ist man mittlerweile schon ziemlich nah und die Zukunft wird wohl sicherlich computelastiger. Bei Kepler und Maxwell war die Computeleistung/fähigkeit retroperspektiv nicht so toll.
Nichtsdestotrotz wird wohl der Markt die GTX 1060 auch zu diesem Preis annehmen, besser als die 3,5GiB 970 ist das Angebot allemal.

Die kleine 3 GB Version sehe ich aber auch zum Ladenhüter werden. Das ist wie damals die 8800 GTS mit 320 MB... ;)
Die 8800 320 war ja ein GPU-Monster mit Mini-RAM und war selbst der 8600 weit vorraus bei der Preis-Leistung.

Sollten es wirklich $249 für 3GiB sein, muss da die GPU schon sehr nah an der 1060 sein, laut Gerüchten ist es ja ein GP106-300 statt 400er SKU. Die RX 470 könnte ja ~80% RX 480 mit 4GiB für $149 bieten.

prinz_valium
2016-07-01, 19:35:29
sind die $299 eigentlich offiziell oder bisher nur ein wahrscheinliches Gerücht?
$199 / $249 für die 3 und 6 Gigabyte version wäre ja ein Traum. Aber Nvidia will ja geld verdienen...

wenn das 3gb Modell zum Ladenhüter wird, wäre das doch toll
dann gibt es abverkaufspreise und man kann dort super zuschlagen. im grunde hat sie auch nur 500mb ram weniger als eine 970

für 150 euro wäre das doch eine top karte

Match-Maker
2016-07-01, 19:43:58
Bitte genauer lesen. nVidia stellt für Kepler und Maxwell keine dedizierte Compute-Queue zur Verfügung. Der Treiber setzt den Computeteil hinter den Grafikteil. Die Abarbeitung erfolgt seriell.
Dagegen habe ich doch gar nichts gesagt. :confused:

Bei Pascal gibt es
a) zwei dedizierte Compute-Queues
b) nicht verwendbare SM für Pixelberechnungen
c) ein dynamisches Verteilen der Aufgaben auf SM-Ebene

Es hat sein Grund, wieso nVidia vom Maxwell-Weg wieder weggegangen ist und einen zusätzlichen fünften SM pro GPC verbaut hat.
Es geht mir um b)
Den 5. SM kann man sehr wohl für Pixelberechnungen verwenden, solange die Füllrate nicht limitiert, und dazu braucht es auch kein Async Compute...
Ein SM gibt in der Praxis auch mal weniger als 4 Pixel pro Takt aus!

Ja, es hat seine Gründe, aber nicht um Async Compute zu ermöglichen, sondern weil die Shaderlast im Vergleich zur benötigten Füllrate weiter steigt. Dass diese "asymmetrische" Konfiguration für Compute keine Nachteile bringt, bedeutet allerdings nicht, dass Compute-Berechnungen dadurch schneller laufen, als wenn GP104s Backend beispielsweile 128 Pixel/Takt verarbeiten könnte.

Ja, Pixelshader sind eben nur auf 4/5 der Einheiten anwendbar. Die restlichen Einheiten können mit Geometriedaten gefüttert oder per Compute-Queue verwendet werden.
Nein, siehe oben. Man braucht keine zusätzliche Compute-Queue via AC (DX12/Vulkan), um das letzte SM zu nutzen. Komplexe Pixelshader (geht selbst mit DX9) oder DX11 Computeshader reichen.

VooDoo7mx
2016-07-01, 20:08:59
sind die $299 eigentlich offiziell oder bisher nur ein wahrscheinliches Gerücht?

Bisher gibt es noch keine Infos zum Preis, auch wenn viele Leute sich hier schon über den Preis aufregen. :ugly:

$299 könnten aber durchaus warscheinlich sein. Könnte mir auch vorstellen das $299 eine FE ist und später dann partnerdesigns um $249 MSRP kommen. Wären in Euro so 319€ bzw. 268€.

Aber schon geil. AMD macht monatelang so ein Riesen tam-tam um ihren Billigschrott mit eienr großen Enüchterung am Ende und 1 Woche später kommt nVidia aus dem nichts mit dem besseren Produkt.

Wie alle Pascal Chips werden auch hier sicher 2GHz+ möglich sein und es wird sicher auch Custom Designs geben die ootb an die 2GHz ran kommen. Da wird der Abstand zu einer OC RX480 nochmal spürbar zunehmen, da sich die ja kaum übertakten lassen.

Bei 10 SM und 8gbps GDDR5 an 192Bit hat der Chip auch das beste Verhältnis von Rechenleistung zu Speicherbandbreite aller Pascal Comsumer Produkte und dürfte die Performance noch besser auf die Straße bringen als der größere GP104 Chip.
Eine 2GHz GTX 1060 kommt dann irgendwo zwischen GTX980 und 980Ti raus. Was doch mal ganz ordentlich ist.

Dural
2016-07-01, 20:28:07
Versteh das gejammer um den preis auch nicht... auch wegen den 3gb nicht.
Nur nur erinnerung, der direkte vorgänger die 960 gab es auch mit 2gb. Vor 3jahren hat man bei nv nur für 800.- mehr als 3gb bekommen. Zu guter letzt, wem 3gb zu wenig sind soll sich halt die 6gb version kaufen, die werden für die karte völlig aus reichen, mehr ist geld verschwendung. Oder gibt es jemand der bei der 960 die 4gb als zu wenig sieht? ;) 4gb die amd auf der fury x verbaut...

dildo4u
2016-07-01, 20:37:46
Preis Leistung erscheint mir bei 300€ nicht schlecht,die 480 hat 970 Leistung von 330 auf 220€ bekommen.Die 1060 würde 980 Leistung von 530 auf 300 bringen.

Troyan
2016-07-01, 20:54:54
Dagegen habe ich doch gar nichts gesagt. :confused:

Doch. Du hast behauptet, dass man für Async Compute keine dedizierte Compute-Queue benötigen würde.


Ja, es hat seine Gründe, aber nicht um Async Compute zu ermöglichen, sondern weil die Shaderlast im Vergleich zur benötigten Füllrate weiter steigt. Dass diese "asymmetrische" Konfiguration für Compute keine Nachteile bringt, bedeutet allerdings nicht, dass Compute-Berechnungen dadurch schneller laufen, als wenn GP104s Backend beispielsweile 128 Pixel/Takt verarbeiten könnte.

Computeberechnungen sollen auch nicht schneller laufen. Computeeinheiten sind bei nVidia Pixelpipelines zugeordnet. Sie werden immer voll im Beschlag sein. Es gäbe keine Möglichkeit zusätzliche Computearbeit parallel ausführen zu können.


Nein, siehe oben. Man braucht keine zusätzliche Compute-Queue via AC (DX12/Vulkan), um das letzte SM zu nutzen. Komplexe Pixelshader (geht selbst mit DX9) oder DX11 Computeshader reichen.

Darum geht es nicht. Der MDolenc Bench zeigt auf, dass innerhalb eines GPC die SMs in unterschiedlicher Konfiguration (Grafik / Compute) arbeiten können und das längerlaufende Computelast dynamisch auf freiwerdende SMs in unterschiedlichen GPCs verteilt werden kann.

Das Anwendungsfälle von Architekturen abhängig sind, sollte klar sein. Aber beide MDolenc Benches (alt wie der neue) zeigen unterschiedliche Verhalten auf, die die nVidia-Hardware auf das Niveau von AMD bringen. Und ein Weg dahin war die asymmetrische Bestückung von SMs für Pixelberechnungen zu GPCs.