Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP106 (GeForce GTX 1060)
Calypso
2016-07-01, 21:00:15
mag sein, dass die 1060 bissl schneller wird - wenn ich aber bedenke, dass ich ne Grafikkarte eher aller 5 Jahre tausche, dann scheint eine RX 480 mit 8 GB eindeutig der bessere Deal zu sein...
Zumal wenn die Spiele mehr und mehr ans Limit der XBox One und PS4 kommen, die alle ca. 8 GB RAM haben, dann werden über kurz oder lang auch die 6 GB Karten nicht ausreichend sein - und dafür dann noch 300 Euro oder mehr hinlegen? Da muss man glaub ich schon bissl doof sein...
prinz_valium
2016-07-01, 21:31:14
das Speicherargument wird immer gebracht, aber wann war mal die Speichergröße der limitierende Faktor für neue spiele anstatt die (schlechte) Rechenleistung der uralt Grafikkarte
ich meine ich zocke noch mit 1.2gb und es mangelt nicht an Speicher, sondern Rechenleistung
bei 4 vs 8gb oder 3 vs 6 lasse ich das argument ja wegen mir auch noch gelten, aber bei 6 vs 8 nicht
Dural
2016-07-01, 22:06:10
Na die konsolen haben 8gb speicher, da werden 6gb grafik speicher nächstes jahr eindeutig zu wenig sein :freak::freak::freak:
BiZiNiZz
2016-07-01, 22:22:45
Na die konsolen haben 8gb speicher, da werden 6gb grafik speicher nächstes jahr eindeutig zu wenig sein :freak::freak::freak:
Und von den 8gb Speicher der Konsolen wird wieviel vom OS der Konsole belegt? (Hab grad keine aktuellen Zahlen zur Hand, aber anfangs hieß es mal 1,5gb reserviert), Im Konsolenspeicher fliegt auch noch das ganze Programm rum, welches beim PC im Arbeitsspeicher ist. Also großzügig gerechnet haben die Kosnolen MAX 6gb für Grafik frei.
Bl@de
2016-07-01, 22:30:39
Und von den 8gb Speicher der Konsolen wird wieviel vom OS der Konsole belegt? (Hab grad keine aktuellen Zahlen zur Hand, aber anfangs hieß es mal 1,5gb reserviert), Im Konsolenspeicher fliegt auch noch das ganze Programm rum, welches beim PC im Arbeitsspeicher ist. Also großzügig gerechnet haben die Kosnolen MAX 6gb für Grafik frei.
5GB - 5.5GB bei der PS4 für Spiele wenn ich mich recht erinnere. Die 6GB der 1060 sind dagegen ja nur der VRAM. Konsolen dürften das kleinste Problem sein :P
BiZiNiZz
2016-07-01, 22:37:32
5GB - 5.5GB bei der PS4 für Spiele wenn ich mich recht erinnere. Die 6GB der 1060 sind dagegen ja nur der VRAM. Konsolen dürften das kleinste Problem sein :P
Ich seh auch keine Probleme mit 6gb für FHD, sollten theoretisch auch für WQHD reichen, nur sollten die Programmierer sich mal wieder besinnen und effizient programmieren. Bestes Beispiel ist ja glaub der vorletzte COD teil gewesen, der ohne Not den RAM und den VRAM vollgeklatscht ohne das man es gebraucht hätte.
Ich bekomm sogar noch auf einer alten 1GB 550TI Witcher 3 zum laufen zwar nur mit ~30fps auf Low Grafik aber es läuft wenn Games gescheit programmiert werden. Und selbst da ist Witcher 3 nicht mal mit das häßlichste Spiel der letzten Jahre.
Match-Maker
2016-07-01, 22:52:04
Doch. Du hast behauptet, dass man für Async Compute keine dedizierte Compute-Queue benötigen würde.
Sorry, wo habe ich das? Welche Formulierung meinst du genau?
Computeberechnungen sollen auch nicht schneller laufen. Computeeinheiten sind bei nVidia Pixelpipelines zugeordnet. Sie werden immer voll im Beschlag sein. Es gäbe keine Möglichkeit zusätzliche Computearbeit parallel ausführen zu können.
Das können sie auch gar nicht (also schneller laufen), da Compute nicht von der Pixelfüllrate limitiert wird. Wenn ich dich richtig verstehe, bist du der Ansicht, dass Pascal bei einer symmetrischen Konfiguration keine Möglichkeit mehr hätte, zusätzliche Computearbeit parallel auszuführen? Also ein hypothetischer GP104 mit 80 Pixel/Takt könnte dann laut dir kein AC?
Darum geht es nicht. Der MDolenc Bench zeigt auf, dass innerhalb eines GPC die SMs in unterschiedlicher Konfiguration (Grafik / Compute) arbeiten können und das längerlaufende Computelast dynamisch auf freiwerdende SMs in unterschiedlichen GPCs verteilt werden kann.
Das Anwendungsfälle von Architekturen abhängig sind, sollte klar sein. Aber beide MDolenc Benches (alt wie der neue) zeigen unterschiedliche Verhalten auf, die die nVidia-Hardware auf das Niveau von AMD bringen. Und ein Weg dahin war die asymmetrische Bestückung von SMs für Pixelberechnungen zu GPCs.
Doch, anscheinend schon: "Der veränderte Aufbau gegenüber Maxwell (mehr SMs als theoretisch an Pixel/Takt verarbeitet werden können) ist maßgeblich verantwortlich für die Async Compute Unterstützung von Pascal", "Gaming-Pascal kann also bei Grafikberechnungen nur 80% der vorhandenen SM benutzen. Die restlichen 20% (bzw. 25%) sind reserviert für unabhängige Compute-Aufgaben, die Pascal per Compute-Queue gleichzeitig abarbeiten kann". Dem habe ich widersprochen und jetzt sagst du, darum gehe es nicht. :confused:
Mit den weiteren Aussagen gehe ich konform, bis auf den letzten Satz.
Dieser suggeriert eine technische Notwendigkeit der asymmetrischen Bestückung zur Ermöglichung von Async Compute, welche aber nicht gegeben ist.
Foobar2001
2016-07-01, 22:59:21
So ein Quatsch. Pascal kann man natuerlich auch mit nur Grafik komplett fuellen. Shader laufen normalerweise hunderte Takte pro Pixel. Dazu kommt, dass die ROPs mit Blending etc. auch mehr als einen Takt brauchen.
Damit die Verbindung von den SMs zu den ROPs limitiert muss man wahrscheinlich schon synthetische Faelle konstruieren.
BlacKi
2016-07-01, 23:53:52
für fhd und diese leistung sind 6gb "ok" für die nächsten 3 jahre. in 4 jahren sind dann aber auch 8gb recht knapp. ich finde die 6gb suboptimal, aber nicht "zu wenig", das muss zwar jeder für sich ausmachen, aber für die leistung reichen 6gb doch locker aus, 3 jahre sind ne lange zeit.
Hakim
2016-07-01, 23:55:10
Vielleicht kommen später 12 GB Versionen raus :)
StefanV
2016-07-02, 00:13:57
Warum solltens??
Damit man sich die Titan Versionen kaputt macht??
Undertaker
2016-07-02, 09:02:12
Weil eine 4GB GTX 960 die Verkäufe der GTX 980 kaputt gemacht hat? :freak:
Wenn es keine 12GB Version gibt, was höchst wahrscheinlich ist, dann ganz einfach deshalb, weil das nur Preis und Verbrauch nach oben treibt, nicht jedoch die Leistung.
AnarchX
2016-07-02, 10:41:49
12GiB wäre aber schon Titan Level, der kleine GP102 hat vielleicht gar nur 10GiB@$999.
Da könnte ich mir eher 8/4GiB@192-Bit vorstellen, wo der Treiber wieder versucht die Karte im schnellen VRAM-Bereich zu halten.
scully1234
2016-07-02, 11:05:46
12GiB wäre aber schon Titan Level, der kleine GP102 hat vielleicht gar nur 10GiB@$999.
Ich wäre vielmehr davon ausgegangen ,das man den Speicherausbau mit Titan Label verdoppelt zum jetzigen Modell, und der Ti die 12er Position überlässt...???
Immerhin macht es für Videoschnitt/Bildbearbeitung auch noch Sinn, hier bis zu 24GB zu verbauen, und man braucht für Quadro und Titan bis auf ECC Ram nur eine Produktionslinie
Das sollte bei den angepeilten Preisen ,doch durchaus noch ökonomisch vertretbar sein :-)
Kriton
2016-07-02, 12:41:42
Ehrlich, denkst du, dass niemand hier im Forum Ahnung hat?
Pascal unterstützt alles, was AMD bei Async Compute auch unterstützt:
Dynamic Load Balancing
High Priority Queue (Quick Response Queue)
Wir hatten diese ganze Diskussion schon einmal (auch mit Dir):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11033999#post11033999
Wenn ich das richtig lese/verstehe (man möge der Diskussion weiter folgen, es geht nicht nur um den einen Post), hat Digidi eindeutig recht. Wäre schön wenn bei solchen (rein technischen) Diskussionen die Fan-Brille mal nicht den Blick auf die Realität versperren würde. Und damit meine ich auch Dich, scully1234...:rolleyes:
Akkarin
2016-07-02, 13:12:41
Bei den ALUs ist man mittlerweile schon ziemlich nah und die Zukunft wird wohl sicherlich computelastiger. Bei Kepler und Maxwell war die Computeleistung/fähigkeit retroperspektiv nicht so toll.
Zumindest in spielen liegt nVidia flop normiert im durchschnitt immernoch rund ~20% vorne. Und das verhältnis hat sich auch mit P10 und GP104 kein bisschen verschoben.
Troyan
2016-07-02, 13:48:10
Wir hatten diese ganze Diskussion schon einmal (auch mit Dir):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11033999#post11033999
Wenn ich das richtig lese/verstehe (man möge der Diskussion weiter folgen, es geht nicht nur um den einen Post), hat Digidi eindeutig recht. Wäre schön wenn bei solchen (rein technischen) Diskussionen die Fan-Brille mal nicht den Blick auf die Realität versperren würde. Und damit meine ich auch Dich, scully1234...:rolleyes:
Das Posting stammt aus einer Zeit bevor ich meine Pascal-Karte hatte. Wieso gehst du also nicht auf Aussagen und Fakten ein, die danach entstanden sind?
Hier ein paar Fakten:
Vollständiger Async Compute Support: https://forum.beyond3d.com/posts/1922533/
Unterstützung der DX12 HPQ:
Latency (compute starts 10ms after graphics):
1. 1.36ms
2. 1.01ms
3. 1.09ms
4. 1.08ms
5. 1.03ms
6. 1.04ms
7. 1.01ms
8. 1.07ms
9. 1.05ms
10. 1.03ms
11. 1.05ms
12. 1.07ms
13. 1.03ms
14. 1.02ms
15. 1.04ms
16. 1.05ms
17. 1.05ms
18. 1.07ms
19. 1.07ms
20. 1.05ms
21. 1.04ms
22. 1.06ms
23. 1.07ms
24. 1.07ms
25. 1.08ms
26. 1.08ms
27. 1.08ms
28. 1.01ms
29. 1.12ms
30. 1.07ms
31. 1.00ms
32. 1.01ms
33. 1.03ms
34. 1.04ms
35. 1.03ms
36. 1.04ms
37. 1.06ms
38. 0.98ms
39. 1.01ms
40. 1.07ms
41. 1.07ms
42. 1.06ms
43. 1.07ms
44. 1.07ms
45. 1.07ms
46. 1.06ms
47. 1.12ms
48. 1.04ms
49. 1.11ms
50. 1.07ms
51. 1.06ms
52. 1.09ms
53. 1.06ms
54. 1.06ms
55. 1.07ms
56. 1.07ms
57. 1.08ms
58. 1.04ms
59. 1.05ms
60. 1.07ms
61. 1.09ms
62. 1.08ms
63. 1.07ms
64. 1.08ms
65. 1.03ms
66. 1.03ms
67. 1.06ms
68. 1.07ms
69. 1.09ms
70. 1.14ms
71. 1.06ms
72. 1.05ms
73. 1.01ms
74. 1.10ms
75. 1.04ms
76. 1.04ms
77. 1.07ms
78. 1.07ms
79. 1.02ms
80. 1.08ms
81. 1.07ms
82. 1.06ms
83. 1.07ms
84. 1.05ms
85. 1.07ms
86. 1.06ms
87. 1.05ms
88. 1.08ms
89. 1.02ms
90. 1.03ms
91. 1.04ms
92. 1.03ms
93. 1.04ms
94. 1.02ms
95. 1.08ms
96. 1.06ms
97. 1.10ms
98. 1.07ms
99. 1.07ms
100. 1.07ms
101. 1.10ms
102. 1.06ms
103. 1.08ms
104. 1.07ms
105. 1.06ms
106. 1.06ms
107. 1.03ms
108. 1.02ms
109. 1.04ms
110. 1.07ms
111. 1.05ms
112. 1.03ms
113. 1.04ms
114. 1.01ms
115. 1.09ms
116. 1.09ms
117. 1.01ms
118. 1.02ms
119. 1.05ms
120. 1.08ms
121. 1.02ms
122. 1.11ms
123. 1.06ms
124. 1.08ms
125. 1.09ms
126. 1.02ms
127. 1.07ms
128. 1.07ms
Average: 1.06ms
Hier ein Bild aus Hitman DX12:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56505&stc=1&d=1467460002
Wenn "Fan-Brille" dein einziges Argument ist, dann wäre dies traurig.
Anscheinend hast du mehr Ahnung über die Fähigkeiten von Pascal als ich. Bringe also bitte Fakten, die beweisen, dass Pascal all diese Fähigkeiten nicht besitzt.
scully1234
2016-07-02, 14:02:00
Wäre schön wenn bei solchen (rein technischen) Diskussionen die Fan-Brille mal nicht den Blick auf die Realität versperren würde. Und damit meine ich auch Dich, scully1234...:rolleyes:
Da brauche keine Fanbrille abnehmen ,die Realität ist nunmal das der Chip so wie er ist funktioniert, auch unter DX12.
Nvidia hat mit Pascal das umgesetzt was nötig war, und wird mit Volta da weiter machen, wo Pascal endet. Ohne zu befürchten ,das die Welt untergeht ,weil man gewisse Dinge nicht so wie AMD lösst!
Mir ist schon klar das das AMD gerne anders sehe, und das Marketing daher stehts bemüht ist, die ''Vorteile''der eigenen Herangehensweise an Dinge ,als das Non Plus Ultra zu vermarkten.
Das diese Binsenweissheiten, meist keine lange Halbwertzeit haben ,ist dir hoffentlich von der Mantle Era noch im Gedächtnis ?
Denn nicht nur AMD versteht den Markt und die Technik die dafür nötig ist, obwohl man manchmal den Eindruck gewinnen könnte ,wenn man in einschlägigen Threads so liesst.
Mir ist bisher kein einziges Spiel in DX12 unter gekommen ,was sich irgendwie nachteilig für Pascal heraus gestellt hätte, und sofern man eben mal bei der Realität bleibt,wird sich das bei einem Marktanteil von 80% auch kaum ändern, weder vom Support für etwaige Games und Chiparchitekturen,noch vom allgemein verwendeten Featureset!
Dural
2016-07-02, 16:46:49
Ist doch immer das selbe, zu wenig speicher, in zukunft langsamer, kein dx12... und bei amd ist immer die fertigung verantwortlich und jede amd gpu hat so wie so noch versteckte einheiten. :freak:
Wenn man nicht das nötige klein geld hat, muss man sein zeug halt rechtfertigen und schön reden. Ich freu mich ja schon auf zen, liegt dann alles nur an glfo :wink:
Akkarin
2016-07-02, 19:03:30
Da es im andren thread leicht OT ist nochmal hier:
Und vor allem gerade mal 15% schneller (wenn man der Folie überhaupt Glauben schenken darf)
Ich wollte erst antworten dass das über dem daumn gepeilt schon passt, hab dann aber festgestellt dass sie mit 1.7GHz@1280 shadern ziemlich genau die halbe 1080 leistung hat-und damit weniger als die 480, eigentlich sogar weniger als die 970.
Das ist seltsam.
Troyan
2016-07-02, 19:09:53
Kommt die Folie überhaupt von nVidia? Die ersten beiden sehen okay aus. Der Vergleich mit dem Graphen eher nicht.
Naja, 1,7GHz Boost muss nichts heißen. Die Karte auch höher takten.
Akkarin
2016-07-02, 19:16:30
Haben karten jemals im durchschnitt höher als ihr boost getaktet ? Im zweifelfall sind sie ja eher drunter, vor allem bei nVidia (aber inzwischen ja auch bei AMD)
Gibt es noch andre leaks für die 1060 ?
Dural
2016-07-02, 19:21:38
Also ich gehe nicht davon aus das es überhaupt rev. in den handel schaffen.
Und wie man bei der 960 sieht, dürften custom 1060 sicherlich über 1,7ghz takten.
Akkarin
2016-07-02, 19:25:11
Naja, custom =/= rev/stock. Da könnten andre ja auch mit custom Karten von AMD anfangen. Zumal diese custom karten dann vermutlich auch eher über dem MSRP liegen.
reaperrr
2016-07-02, 19:39:46
Ich wollte erst antworten dass das über dem daumn gepeilt schon passt, hab dann aber festgestellt dass sie mit 1.7GHz@1280 shadern ziemlich genau die halbe 1080 leistung hat-und damit weniger als die 480, eigentlich sogar weniger als die 970.
Das ist seltsam.
Die 1080 ist ähnlich bandbreiten-limitiert wie die 480, vielleicht sogar noch mehr.
8Gbps-Speicher @ 192bit entspricht 20% mehr Bandbreite je FLOP als die 1080. Außerdem taktet die 1060 im Schnitt vielleicht auch noch etwas höher.
Akkarin
2016-07-02, 19:47:31
Die 1070 ist sogar noch bandbreitenlimitierter als die 1080 und liefert trotzen gute resultate. Die zusatzbandbreite müsste schon 1:1 in mehr FPS imgesetzt werden um 980 performance zu erreichen. Und das ist mMn großer unsinn.
Auch mehr ROPs/shader und mehr raster-engine/shader können dass nicht raus hauen.
Undertaker
2016-07-02, 20:28:20
Die 1070 ist doch weniger bandbreitenlimitiert als die 1080er? Und das ist auch der Grund für den geringeren Rückstand zur 1080, als dies die Rechenleistung eigentlich vorgibt.
Akkarin
2016-07-02, 20:39:20
Ich muss zugeben dass ich irgendwie mit 7 anstatt 8 Gbps für die 1070 gerechnet hab. :freak:
Wobei da auch anscheinend auch was andres limitiert als nur die bandbreite, denn die performance skaliert nicht 1:1 mit.
Dural
2016-07-02, 22:16:03
Wie gesagt, die 960 custom takten zum teil deutlich höher als die ref.
Emperor
2016-07-03, 12:29:01
Also ich würde angesichts des 192-Bit-Interface eher derart tippen:
GeForce GTX 1060
GP106, mglw. 1280 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 4,5 TFlops
ca. 168 GB/sec
ca. 250$
(September 2016 ?)
GeForce GTX 1050
GP106, mglw. 1024 Shader-Einheiten @ 192 Bit GDDR5-Interface,
6 GB GDDR5
ca. 3,5 TFlops
ca. 134 GB/sec
ca. 200$
(Q4/2016 ?)
Das 192-Bit-Interface reduziert die Chancen auf mehr Shader-Einheiten als 50% zu GP104 - jene habe ich nur angenommen, weil die Diefläche so (relativ) groß war. Auf die Rechenleistung denke ich wird dies aufgrund der nochmals höheren Taktraten aber kaum Auswirkungen haben.
Sagen wir mal das es so sein wird wie unser Admin es sich hier vorstellt,dann hätte AMD aber echt schlechte Karten da es ja schon Gerüchte gibt die 1060 sei schneller wie eine RX480 und dann noch genau so günstig währe echt übel und dann noch eine 1050 und Nvidia hätte in einem Jahr alle Segmente vollkommen bestückt.Mit dem Top Dog der 1080ti können sie sich dann erstmal Zeit bis nächstes Jahr lassen oder sehe ich das falsch ?
Ich würd aber bei einer 1050 so um die 150$ ansiedeln
Undertaker
2016-07-03, 12:50:54
Wenn die GTX 1060 schneller, sparsamer und besser übertaktbar werden sollte als die RX 480, warum sollte sie für nur $10 mehr UVP verkauft werden? :confused:
Die aktuellen Leaks sprechen von $300 Dollar. Sagen wir $40 für die Mehrleistung und $30 für Verbrauch/OC, dann passt das Verhältnis zur RX 480 ziemlich exakt.
AnarchX
2016-07-03, 12:52:43
Spekulativ sind es momentan eher $249 für eine 3GiB / $299 für eine 6GiB Version. Je nachdem wie sich die RX 470 für $149 schlägt, geht die kleine Version vielleicht noch etwas tiefer.
Bei der RX 480 muss schnell das Powergate gefixt werden (evtl. PT -20% für 10% Leistungsverlust auf den Referenzboards) und vernünftige Custom-Boards für ~$249 erscheinen. Damit könnte man in diesem Martkbereich vielleicht fast ausgeglichene Verhältnisse bei den Verkäufen erreichen.
illidan
2016-07-03, 13:16:58
-20% PT ist nicht trivial, wenn in Spielen wie Witcher 3 momentan eh schon ordentlich gedrosselt wird. Miese Frametimes ahoi.
Leute bleibt doch mal ein bisschen auf dem Teppich.
Die Karte hat grade mal auf 4,35 TFLOPs, mit ach und krach kommt die mit massiver Übertaktung in Richtung 5, da ist die RX480 nicht sonderlich gefährdet. Sieht eher aus wie ein Gegner für die 470. Auch die Speicherbandbreite ist < 200GB/sec. Die Karte hat auch mit großer Sicherheit < 5Mia Transistoren und muss offenbar noch Profigedöns unterbringen, da bleibt einfach nicht soviel Spielraum.
AnarchX
2016-07-03, 17:08:11
70% der GTX 1070 (http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-480/launch-analyse-amd-radeon-rx-480-seite-4)sind halt schneller als die RX 480. Die reine ALU-Leistung mag für die RX 480 sprechen, aber selbst wenn das Ende 2016 Vorteile bringt, ist das ganze eher ziemlich ausgeglichen und NV hat wohl einen ~10% kleineren Die und kommt mit 192-Bit aus.
dildo4u
2016-07-03, 17:32:45
Leute bleibt doch mal ein bisschen auf dem Teppich.
Die Karte hat grade mal auf 4,35 TFLOPs, mit ach und krach kommt die mit massiver Übertaktung in Richtung 5, da ist die RX480 nicht sonderlich gefährdet. Sieht eher aus wie ein Gegner für die 470. Auch die Speicherbandbreite ist < 200GB/sec. Die Karte hat auch mit großer Sicherheit < 5Mia Transistoren und muss offenbar noch Profigedöns unterbringen, da bleibt einfach nicht soviel Spielraum.
Die GTX980 11% ist schneller als die RX 480 und hat 4.6TFlops,die 1060 sollte ca gleich mit der 980 liegen da sie mit Asynchron Compute nix verliert.
http://abload.de/img/gtx980g14snl.png
https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#abschnitt_benchmarks_in_1920__1080_und_2560__1440
Pascal profitiert tatsächlich von Async Compute
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/11/#abschnitt_pascal_profitiert_tatsaechlich_von_async_compute
Außerdem muss man natürlich noch den Treiber abwarten,der das TDP der 480 auf 150 begrenzt und wie sich das auf die Performance auswirkt.
Sunrise
2016-07-03, 17:42:22
...Die Karte hat grade mal auf 4,35 TFLOPs, mit ach und krach kommt die mit massiver Übertaktung in Richtung 5, da ist die RX480 nicht sonderlich gefährdet.
Stumpfe TFLOPS-Vergleiche und Speicherbandbreite-Vergleiche bringen nichts, denn beide gehen mit theoretischen Ressourcen anders um.
fondness
2016-07-03, 18:19:21
Problematisch finde ich da eher die 3GB Version. Das Ding ist doch vom ersten Tag an hochgradig VRAM-limitiert - und das wird in Zukunft sicher nicht besser.
illidan
2016-07-03, 18:23:56
Ist wirklich ein komplett unnötiges Produkt. Für alten Gammel, der wenig VRAM braucht, braucht man nicht so eine schnelle GPU.
Verschwörung: Absichtlich zu knapp, damit die Deppen sich rechtzeitig wieder neue Notebooks kaufen müssen?
Mancko
2016-07-03, 20:04:13
Ist wirklich ein komplett unnötiges Produkt. Für alten Gammel, der wenig VRAM braucht, braucht man nicht so eine schnelle GPU.
Verschwörung: Absichtlich zu knapp, damit die Deppen sich rechtzeitig wieder neue Notebooks kaufen müssen?
Ist die für Notebooks gedacht? Hatte jetzt eher so an OEM PCs und dann ggf. noch als preiswerte Alternative im Retail gedacht. Bei 3GB RAM hätte man ja auch einiges an Preisspielraum.
ilibilly
2016-07-03, 20:40:38
3gb halt ich auch für knapp wenns 2-3 jahre gehn soll,aber die 6gb für fhd dürfte locker noch 2-3 jahre reichen.
Da sind die 8gb der rx480 eher oversized zumal die auch nur für fhd geeignet ist.
Oc potenzial ist bei pascal ja auch nicht unerheblich und dürfte um die 20-25% extra bringen.
Bei amd wird seit fiji von extrem oc frudigkeit gesprochen und dann kommen 70-80mhz dabei raus.
Bei rx480 wars dasselbe ,dachte schon es geht richtung 1,5-1,7ghz und 130watt.
Also wenn gp106 den spekus entspricht gibts kaum argumente pro amd.
reaperrr
2016-07-03, 21:03:08
Also wenn gp106 den spekus entspricht gibts kaum argumente pro amd.
Es gibt sicherlich wesentlich mehr Spieleentwickler, die den VRAM-Bedarf unter 4GB zu halten versuchen, als Spieleentwickler, die versuchen ihn unter 3GB zu halten.
Soll heißen: Solange die 1060-3GB 25% mehr als die 480-4GB kostet, bietet letztere das bessere Gesamtpaket, solange einem OC-Spielraum und Verbrauch nicht so wichtig sind.
Die anderen Probleme, also Lautstärke, Temperaturen und PCIe-Verbrauch dürften die Customs bei der 480 fixen.
TheGood
2016-07-03, 21:26:44
Ich glaube es sind sich hier doch alle einig dass 3 GB zu wenig sind. Egal wie lang eman die Graka benutzt. Darüber zu diskutieren ist so sinnlos wie wenn in China ein Sack Reis umfällt.
Nichtsdestotrotz wird diese Karte auch ihre Abnehmer finden und die Leute werden damit zufrieden sein und ggf. Texturqualität oder sonstiges einfach runtersetzen und dann ist es auch wieder spielbar..
illidan
2016-07-03, 21:31:17
Sowohl Mirror's Edge: Catalyst als auch Rise of the Tomb Raider brauchen schon heute 6GB VRAM für maximale Texturdetails bei 1080p.
Das sollte sich langsam mal rumsprechen, um Leute vor Fehlkäufen zu bewahren.
Texturdetails reduzieren zu müssen ist einfach ärgerlich, weil sie bei genug VRAM fast keine Leistung kosten.
Hakim
2016-07-03, 22:44:24
Ist es eigentlich den Herstellern überlassen ob sie einfach mehr VRam draufzupacken wollen? Ich weiß das 12 GB Natürlich etwas Overkill für so eine Karte wäre, aber die kleinen Karten hatten ja später immer mehr Vram drauf wie am Launchtag, z.b GTX760 oder GTX960 mit 4GB
illidan
2016-07-03, 22:47:19
Wenn AMD & NV nicht wollen, wird man sie nicht deshalb brüskieren wollen. So geschehen bei der 290X 8GB (nur geringe Stückzahl) und GTX 780 6GB (ebenfalls).
BlacKi
2016-07-03, 22:56:10
Ich glaube es sind sich hier doch alle einig dass 3 GB zu wenig sind. Egal wie lang eman die Graka benutzt. Darüber zu diskutieren ist so sinnlos wie wenn in China ein Sack Reis umfällt.
Nichtsdestotrotz wird diese Karte auch ihre Abnehmer finden und die Leute werden damit zufrieden sein und ggf. Texturqualität oder sonstiges einfach runtersetzen und dann ist es auch wieder spielbar..
genau wie bei der 960 die 2gb version zum release.
auf 980 niveau sind dagegen 6gb perfekt. nicht zuviel(kostet ja schließlich geld)
und nicht viel zu wenig.
ich hätte die 3gb version teildeaktiviert als 1050 mit 3gb verkauft.
auf der anderen seite muss man eben beachten das nicht jeder die texturen auf hyper stellen muss. das ist ja auch der hauptgrund dafür das die 780 soviel federn lassen muss, wenn man etwas am texturregler spielt, dann nimmts die 780 immernoch mit der 290 4gb auf. so testet nur keiner, gespielt wird so aber schon.
so gesehen sind die 3gb also relativ.
Knuddelbearli
2016-07-03, 23:34:11
Ist es eigentlich den Herstellern überlassen ob sie einfach mehr VRam draufzupacken wollen? Ich weiß das 12 GB Natürlich etwas Overkill für so eine Karte wäre, aber die kleinen Karten hatten ja später immer mehr Vram drauf wie am Launchtag, z.b GTX760 oder GTX960 mit 4GB
Nein NV verkauft auch den RAM die AIBs können da also gar nichts machen nichtmal schnelleren Speicher nutzen.
Das war einmal so aber das war zu Zeiten der 50:50 Marktmacht ( und brachte dafür dann auch so stielblüten wie ddr2 statt GDDr4 usw )
Fusion_Power
2016-07-03, 23:47:59
Problematisch finde ich da eher die 3GB Version. Das Ding ist doch vom ersten Tag an hochgradig VRAM-limitiert - und das wird in Zukunft sicher nicht besser.
Nicht jeder braucht nen 4K Monitor, ich bin auch mit 1080p zufrieden. ;)
Sowohl Mirror's Edge: Catalyst als auch Rise of the Tomb Raider brauchen schon heute 6GB VRAM für maximale Texturdetails bei 1080p.
Das sollte sich langsam mal rumsprechen, um Leute vor Fehlkäufen zu bewahren.
Texturdetails reduzieren zu müssen ist einfach ärgerlich, weil sie bei genug VRAM fast keine Leistung kosten.
Echt? Da sollten dann aber ehr die Spieleentwickler was optimieren als einfach nur immer größere Texturen rauszurotzen, auf VRAM kom mraus.
prinz_valium
2016-07-04, 00:26:50
Problematisch finde ich da eher die 3GB Version. Das Ding ist doch vom ersten Tag an hochgradig VRAM-limitiert - und das wird in Zukunft sicher nicht besser.
nö. reicht locker noch 5 jahre aus
cs:go mit 200fps in 800*600 ist perfekt
overwatch auch perfekt für full hd mit 144 fps
für lol und dota reicht es auch
Ist wirklich ein komplett unnötiges Produkt. Für alten Gammel, der wenig VRAM braucht, braucht man nicht so eine schnelle GPU.
Verschwörung: Absichtlich zu knapp, damit die Deppen sich rechtzeitig wieder neue Notebooks kaufen müssen?
s.o ;)
edit: ohh mincecraft habe ich noch vergessen. aber in den fall stimmt es sogar. dafür braucht man keine so schnelle grafikkarte
Virtual
2016-07-04, 00:43:24
nö. reicht locker noch 5 jahre aus
cs:go mit 200fps in 800*600 ist perfekt
overwatch auch perfekt für full hd mit 144 fps
für lol und dota reicht es auch
s.o ;)
edit: ohh mincecraft habe ich noch vergessen. aber in den fall stimmt es sogar. dafür braucht man keine so schnelle grafikkarte
Na, das ist ja eine 100%ig egozentrische Betrachtungsweise und damit wunderbar allgemeingültig ***grins***.
Wenn schon 4GB für die Rohleistung GTX980 gerade ausreichend waren/sind, dann werden 3GB (<GTX970) für die ebensoschnell vermutete GTX1060 sicherlich ausreichend für schon die nächste Zukunft sein ***lach***.
OK, Sonderwünsche muss man eben haben, dann wird möglicherweise für das Ego alles gut, aber eben nicht alle Besitzer einer GTX1060 mit 3GB.
mczak
2016-07-04, 00:54:41
Ist es eigentlich den Herstellern überlassen ob sie einfach mehr VRam draufzupacken wollen? Ich weiß das 12 GB Natürlich etwas Overkill für so eine Karte wäre, aber die kleinen Karten hatten ja später immer mehr Vram drauf wie am Launchtag, z.b GTX760 oder GTX960 mit 4GB
12GB bei einer GTX 1060 gehen sowieso nicht so einfach. 3GB verwendet 6 4 gbit Chips, 6GB 6 8 gbit Chips. 16 gbit gddr5 chips gibt es nicht (und wird es vermutlich zumindest als gddr5-Variante auch nie geben), es müssten also 12 8 gbit Chips sein. Das ist technisch machbar (clamshell-Modus), wenn der MC und das Bios das mitmachen, braucht dann aber ein anderes PCB (denke zumindest nicht dass das Referenz-PCB dafür vorgesehen ist).
Da es noch nicht mal 8GB GTX 980 gibt bei denen das völlig locker machbar gewesen wäre (einfach 8 gbit statt 4 gbit Chips nehmen), dürften die Chancen dass man sowas je sieht sehr sehr nahe bei Null sein. Wäre aber tatsächlich etwas Overkill - denn die Karte soll ja in etwa so schnell sein wie die GTX 980 - die 6GB Variante hat also eh schon einen deutlichen Vorteil bei der Speichermenge (klar gegenüber den Radeons gilt das nicht aber dass da die 6GB wirklich in der Praxis ein Nachteil sind denke ich nicht).
illidan
2016-07-04, 01:11:01
Echt? Da sollten dann aber ehr die Spieleentwickler was optimieren als einfach nur immer größere Texturen rauszurotzen, auf VRAM kom mraus.
Kann man nichts machen, Frostbite in Mirror's Edge ist jetzt nicht gerade irgendeine Krauter-Müllengine wie das Ding von Arma 3 o.ä.
Irgendwelche Spiele werden nach oben hin immer aus der Reihe tanzen, auch AAA. Da hilft nur viel Speicher, wenn man auf nichts verzichten will.
VRAM-Optimierung ist für einige Entwickler leider ein Fremdwort.
=Floi=
2016-07-04, 01:31:24
durch gute texturen sehen selbst alte spiele noch super aus! das wird viel zu stark unterschätzt. es gibt genug beispiele aus der vergangenheit, wo gute texturen das spiel weniger stark altern lassen.
umgedreht lassen gammelige texturen die spiele schnell altern. im vergleich zu alllem anderen kostet es wie oben geschriben wenig performance und bringt teilweise sehr viel BQ.
---
btw. gibt es eigentlich irgendwo ein statement, warum nv so extrem auf takt geht UND warum sie so stark die shadereinheiten reduzieren?
BiZiNiZz
2016-07-04, 01:33:06
Ich kann die RAM Diskussion langsam echt nicht mehr hören.
Man kann den Entwicklern auch theoretisch 24gb auf die Karte knallen, die bekommen das irgendwie voll, da mittlerweile fast keiner mehr Effizient programmiert (können die das überhaupt noch?).
Mit die besten Beispiele sind die COD Teile, jährlich der gleiche hingerotzte kram der immer mehr RAM und VRAM frisst obwohl technisch absolut kein Fortschritt erzielt wird.
Manchmal wünsche ich mir echt wieder die alten Zeiten zurück. Was dort aus den begrenzten Ressourcen herausgeholt wurde ist ähnlich wie heute bei den Konsolen wenn es an ihr Lebensende geht.
Klar mögen 3gb mittlerweile in der Theorie zuwenig sein, aber für 1080 reicht das locker auch mit reduzierten Details. Muss man immer alles auf Max Stellen? Wenn sauber entwickelt wird, brauch man bestimmte Sachen einfach nicht auf Anschlag stellen da man keinen Unterschied sieht, wenn dann überhaupt mit der Lupe.
Die spekulativen 6gb der 1060 dürften locker bis an das Lebensende der Konsolengeneration reichen. Es wird zwar immer das Argument in den Raum geworfen das die Konsolen ja 8gb RAM haben. Was aber vergessen wird; die 8gb muss sich das spiel mit dem OS der Konsole und dem Programm selbst teilen. Daher bleiben großzügig gerechnet vll noch 5,5gb für Grafik auf den Konsolen über.
durch gute texturen sehen selbst alte spiele noch super aus! das wird viel zu stark unterschätzt. es gibt genug beispiele aus der vergangenheit, wo gute texturen das spiel weniger stark altern lassen.
umgedreht lassen gammelige texturen die spiele schnell altern. im vergleich zu alllem anderen kostet es wie oben geschriben wenig performance und bringt teilweise sehr viel BQ.
Eines der Besten Beispiele für gute Texturen sind in meinen Augen durchgängig die Blizzard Spiele. Sehr stimmiger Gesamteindruck der Grafik und selbst nach Jahren bekommt man keinen Augenkrebs davon. Man muss ja nicht immer das Maximale versuchen zu machen damit man den Grafikthron inne hat. Oft ist dann die Grafik einfach nicht stimmig, oder altert einfach viel zu schnell. Dann lieber Comic-Artige Grafik, diese altert sehr langsam wenn sie vernünftig umgesetzt wurde.
Undertaker
2016-07-04, 08:28:26
Problematisch finde ich da eher die 3GB Version. Das Ding ist doch vom ersten Tag an hochgradig VRAM-limitiert - und das wird in Zukunft sicher nicht besser.
Auch wenn ich persönlich die 3 GB Version ebenfalls nicht kaufen würde: Mit dem Argument hätte auch niemand eine Fury X kaufen dürfen, die ein in etwa ähnliches Verhältnis von (realer) Rechenleistung zu RAM-Menge hat. ;)
Wer gezielt einzelne speicherhungrige Optionen deaktiviert, wird mit dem 3 GB Modell sicher weiter kommen als viele erwarten. Aber da es die 6 GB Version gibt: Wozu der Geiz? ;)
Dural
2016-07-04, 09:10:42
Ich glaube es wird auch sehr übertrieben, den ich glaube nicht das die 3GB version derzeit im durchschnitt langsamer als die 6GB ist.
früher oder später wird ihr sicher der speicher ausgehen, aber heute ist es noch nicht so weit. Nur zur erinnerung, wir sprechen von einer Full HD Karte.
Calypso
2016-07-04, 09:54:57
also in dem Preisbereich wird meist nicht so oft aufgerüstet - so dass man auf lange Sicht sicher eher zu 8 GB der AMD greifen wird wie zu den 6 GB von nvidia - und 3 GB schon gar nicht. Zumal es ja heute schon Spiele gibt, die mehr als 6 GB fordern.
Das ist mal wieder typisch durch die grüne Brille gesehen: bei AMD ist alles schlecht aber bei nvidia sind 3 GB RAM keim Hemmschuh...
Undertaker
2016-07-04, 10:17:44
Wer kommt denn immer wieder auf die Idee, von steigendem Speicherverbrauch zu reden und dabei den ebenso wachsenden Rechenleistungsbedarf zu vernachlässigen? :confused: Es ist eben nicht so, dass sich diese Verhältnisse plötzlich radikal verschieben.
Der übliche Zusatz "aber bei AMD [...]" ist noch viel größerer Schmarren. Nochmal: Effektive Rechenleistung zu Speichermenge entspricht bei der GTX 1060 3 GB etwa einer Radeon Fury X(!). Das ist sicherlich nicht üppig, aber auch kein unbrauchbarer Krüppel. Und das die 6 GB Version bei spielbaren fps überhaupt irgendwo und irgendwann einmal an ihre Grenze stößt, will ich erst einmal sehen. Wieder im Verhältnis zur Rechenleistung betrachtet hat dieses Modell sogar mehr Speicher als die GTX 1080.
Dural
2016-07-04, 10:25:16
na Hauptsache 8GB voll und die 15FPS auf dem Bildschirm sind zweit ranging ;)
Bl@de
2016-07-04, 11:18:50
na Hauptsache 8GB voll und die 15FPS auf dem Bildschirm sind zweit ranging ;)
Muss nicht sein. Ich bin mit der Leistung meiner GTX 770 z.B. voll zufrieden, obwohl diese schon in die Jahre kommt. Leider muss ich heutzutage Spiele nach VRAM Verbrauch teilweise aussortieren, da selbst bei mittleren Texturdetails Probleme auftreten können (Assassin's Creed Unity als Negativbeispiel mit Matchtexturen in näherer Entfernung und kurze Nachladeruckler, Performance in 1080p aber sonst anständig genug mit 30fps+). Deshalb ist mehr VRAM immer gut.
Und bevor jemand sagt: Spiel doch auf sehr niedrigen Texturdetails -> Das ist nicht akzeptabel. Niedrige Texturen sehen teilweise schlimmer aus, als Unreal 1 :/ Warum auch immer.
Dural
2016-07-04, 11:47:43
Die 770 gibt es auch mit 4GB :wink:
Bl@de
2016-07-04, 12:00:45
Die 770 gibt es auch mit 4GB :wink:
Dafür war ich damals zu geizig und hab nur auf den Verbrauch aktueller Titel geschaut :D Jetzt habe ich es auf die harte Tour gelernt was zu wenig VRAM bedeutet :P
Käsetoast
2016-07-04, 12:19:31
Weiß hier denn jemand, wie Spielehersteller derzeit mit den Qualitätseinstellungen umgehen? Ich hätte jetzt einfach mal postuliert, dass das in Spielen so abläuft, d.h. das rein von den Einstellungen auf folgende zur Verfügung stehende Speichermengen abgezielt wird:
Ultra = 8GB
High = 4GB
Medium = 2GB
Low = 1GB
Hat man von so einer Zwischenlösung wie den 6 GB außer in irgendwelchen gesponsorten GameWorks Spielen, wo man eine extra 6 GB Stufe berücksichtigen lassen könnte, effektiv was von dem Mehr an Speicher gegenüber einer 4 GB Lösung? Spontan würde ich sagen, dass das höchstens bei optionalen Sachen wie Supersampling einen Bonus bringen könnte (wobei die 1060 da natürlich nicht die Leistung hat, um das bei modernen, anspruhsvollen Spielen einzusetzen)...
Sind die 6 GB der 1060 so gesehen "praxistauglich", oder wird das am Ende primär nur Marketingrelevanz haben, weil man gegenüber den 4 GB Karten mit einer größeren Zahl werben kann (aber rein vom praktischen Nutzen wäre das Ausreizen der 6 GB ein seltener Inselfall)?
Grendizer
2016-07-04, 12:38:10
Weiß hier denn jemand, wie Spielehersteller derzeit mit den Qualitätseinstellungen umgehen? Ich hätte jetzt einfach mal postuliert, dass das in Spielen so abläuft, d.h. das rein von den Einstellungen auf folgende zur Verfügung stehende Speichermengen abgezielt wird:
Ultra = 8GB
High = 4GB
Medium = 2GB
Low = 1GB
Hat man von so einer Zwischenlösung wie den 6 GB außer in irgendwelchen gesponsorten GameWorks Spielen, wo man eine extra 6 GB Stufe berücksichtigen lassen könnte, effektiv was von dem Mehr an Speicher gegenüber einer 4 GB Lösung? Spontan würde ich sagen, dass das höchstens bei optionalen Sachen wie Supersampling einen Bonus bringen könnte (wobei die 1060 da natürlich nicht die Leistung hat, um das bei modernen, anspruhsvollen Spielen einzusetzen)...
Sind die 6 GB der 1060 so gesehen "praxistauglich", oder wird das am Ende primär nur Marketingrelevanz haben, weil man gegenüber den 4 GB Karten mit einer größeren Zahl werben kann (aber rein vom praktischen Nutzen wäre das Ausreizen der 6 GB ein seltener Inselfall)?
Ich denke, wenn die 6Gb 1060 sich einigermaßen verkauft, dann werden auch 6Gb berücksichtig werden.
Undertaker
2016-07-04, 13:10:59
Ich denke nicht das so eine Tabelle Sinn macht und eine spezielle Speichergröße explizit berücksichtigt werden muss oder wird. Jede einzelne Auflösungsstufe und jedes einzelne Setting kann den Speicherverbrauch beeinflussen, das ergibt tausende potentielle Kombinationen. Das das konkret gewählte Setting genau die verfügbare Menge trifft, ist purer Zufall. Es könnten auch gerne 5,1745 GB verbaut werden...
prinz_valium
2016-07-04, 13:29:26
Na, das ist ja eine 100%ig egozentrische Betrachtungsweise und damit wunderbar allgemeingültig ***grins***.
Wenn schon 4GB für die Rohleistung GTX980 gerade ausreichend waren/sind, dann werden 3GB (<GTX970) für die ebensoschnell vermutete GTX1060 sicherlich ausreichend für schon die nächste Zukunft sein ***lach***.
OK, Sonderwünsche muss man eben haben, dann wird möglicherweise für das Ego alles gut, aber eben nicht alle Besitzer einer GTX1060 mit 3GB.
korrekt. genau darauf wollte ich hinaus
meine aussage ist genauso allgemeingültig oder eben nicht wie die, dass 3/4gb nicht ausreichend für die Zukunft sind.
das muss also jeder für sich und seinen anwendungsfall wissen.
wer gut informiert ist und das sollten die meisten hier sein, wird schon das richtige tun.
Troyan
2016-07-04, 13:40:50
Die Konsolen diktieren in den meisten Fällen die Effekte. Und dank der schlechten Technik in den Konsolen, reichen 3GB in keinster Weise mehr aus.
Nehmen wir Black Ops 3: Volume Lightning durch Compute-Shader. Speichermehrverbrauch von 400mb+. Fallout 4 mit Tessellation benötigt 10mb oder so.
Oder Rise of the Tomb Raider: PureHair benötigt 200mb. In the Witcher 3 mit Hairworks und mit zig vielen Charakteren liegt der Verbrauch bei 20mb oder so.
3GB wären okay, wenn Entwickler wirklich auf Effektumsetzungen setzen würden, die mit dem Speicher effizient umgehen. Aber dazu ist die Konsolenhardware nicht in der Lage.
Käsetoast
2016-07-04, 15:03:56
Ich denke nicht das so eine Tabelle Sinn macht und eine spezielle Speichergröße explizit berücksichtigt werden muss oder wird. Jede einzelne Auflösungsstufe und jedes einzelne Setting kann den Speicherverbrauch beeinflussen, das ergibt tausende potentielle Kombinationen. Das das konkret gewählte Setting genau die verfügbare Menge trifft, ist purer Zufall. Es könnten auch gerne 5,1745 GB verbaut werden...
Du musst als Hersteller ja schon mit ganz konkreten Grenzwerten arbeiten, damit du deine Zielhardware nicht überforderst. Üblich ist ja der Sprung von 4 auf 8 GB - einzelne Ausnahmen mit 6 GB gab es natürlich auch in der Vergangenheit schon mal, waren aber doch eher Ausnahmefälle. Auch ist klar, dass nur weil man mit 8 GB als Grenzwert plant man nicht deshalb in jeder Szene die 8 GB bis oben hin gefüllt kriegt...
Das Problem ist aus meiner Sicht nun, dass wenn wirklich Spiele generell eher den Schritt von 4 auf 8 GB in den Einstellungen berücksichtigen, aber keine 6 GB, dann ist das natürlich ein Problem. Im Klartext hieße das, wenn ich auf der 1060 mit den auf 8 GB ausgelegten Ultra Details spiele ich teilweise super dabei bin, weil gerade nur 5,1 GB genutzt werden, aber sobald in gewissen Szenen dann mal 6,5 GB genutzt werden sollen, habe ich Performanceeinbrüche, Ausreißer in der Framerate und so weiter. Als Spieler fühlt sich das bescheiden an wenn ein Spiel zwischendurch " zu ruckeln" anfängt (selbst wenn man über 30 fps ist fallen einem unregelmäßige Frametimes ja schon leicht negativ auf). Das ist natürlich auch für diejenigen, die so eine Karte benchmarken wollen ein Problem, denn Testmagazin A kriegt super Ergebnis in Spiel 1 raus, während Testmagazin B da in Spiel 1 "schlechte" Werte liefert, weil eben die Testszene ein wenig anders ist und die eine mehr als 6 GB Speicher bräuchte...
Deswegen die Frage, ob da jemand einen Überblick hat, inwiefern diese 6 GB Zwischenstufe ein Problem ist hinsichtlich eines beständig flüssigen Spielerlebnisses. Ich meine ich kann NVIDIA durchaus verstehen: Von den 2/4 GB der 960 nun auf 3/6 GB der 1060 ist das natürlich ein nettes Upgrade einhergehend mit dem entsprechend breitbandigerem Speicherinterface, nur weiß ich eben nicht, inwiefern so ein Zwischenschritt dann für den praktischen Nutzen auch sinnvoll ist. Für mich wäre die 480er / 1060er Klasse halt eine attraktive Upgrademöglichkeit, aber bei der 1060 sind die 6GB für mich das Haar in der Suppe, wo ich überhaupt nicht einschätzen kann, ob ich mich da in einem Jahr über Ausreißer in der Frametime ärgern muss, weil alle dank 480 & Co eben eine Qualistufe für 8 und eine für 4 GB anbieten und eine 1060 außer bei GameWorks Titeln vielleicht mit den 6 GB ein Nischendasein fristen wird im Sinne von einem "Nice to have" der zusätzlichen 2 GB, die einem aber kein durchgängig flüssiges Spielerlebnis garantieren können...
Dural
2016-07-04, 15:17:31
Ich glaube kaum das ein Spiele Entwickler seine Spiel auf die Abstufungen des Video Speichers anpasst.
Der PC ist so extrem Variabel, da wird einfach geschaut was der Durchschnitts Spieler in seiner Kiste hat und gut ist. :wink:
Ist ja übrigens nicht das erste mal das NV "komische" Speicher Mengen hat:
768MB
1,5GB
3GB
und sogar noch dazwischen wie 320 und 640MB.
Troyan
2016-07-04, 15:34:59
Paar Bilder der Founder's Edition: http://videocardz.com/61826/nvidia-geforce-gtx-1060-rumors-part-2
Interessant finde ich, dass anders als bei der 480 der Stromstecker am Rand ist, also in dem Teil der Kuehlerabdeckung, die das PCB ueberragt. Da hat man also noch eine "Verlaengerung" unter der Abdeckung, statt den Stecker auf dem PCB zu belassen :uponder:
Dural
2016-07-04, 15:48:31
Krass, das stört mich bei der RX480 extrem. :freak:
NV hat es einfach drauf ;) wobei ich nicht denke das die Karte überhaupt in den Handel kommt :frown: erst recht nicht wenn man solche Spielereien umsetzten kann.
Käsetoast
2016-07-04, 15:54:39
Ich glaube kaum das ein Spiele Entwickler seine Spiel auf die Abstufungen des Video Speichers anpasst.
Also das eine Obergrenze für den Speicher Verbrauch wird ja in jedem Fall gesetzt. Danach ist man beim runter skalieren natürlich flexibel. Dahingehend zielt meine Frage dann ja auch ab : Theoretisch könnte man natürlich eine 6GB Zwischenstufe einbauen. Die Frage ist halt, ob die Hersteller das auch machen oder eben da primär nur den Unterschied zwischen 4 und 8 GB sehen...
Undertaker
2016-07-04, 16:05:18
Nochmal die Frage: Wie sollen solche konkreten Grenzwerte denn definiert werden? Beliebiges Beispiel:
Grafikoption 1 braucht auf low 100 MB, auf med 200 MB, auf High 400 MB
Grafikoption 2 braucht auf low 50 MB, auf med 80 MB, auf High 140 MB
Grafikoption 3 [...]
Auflösungerhöhung von FHD auf WQHD erhöht den Speicherverbrauch um 15%
Auflösungerhöhung von WQHD auf 4K erhöht den Speicherverbrauch um 30%
Auflösungerhöhung von [...]
FXAA erhöht den Speicherverbrauch um 15%
2x MSAA erhöht den Speicherverbrauch um 40%
4x MSAA [...]
Jetzt haben wir das ganze jeweils dutzendfach mit unendlichen Kombinationsmöglichkeiten. Wie soll da auch nur annähernd eine feste Grenze gezogen werden? Der PC ist doch keine Konsole, wo alle Einstellungen festgezurrt sind.
Fusion_Power
2016-07-04, 16:06:58
Kann man nichts machen, Frostbite in Mirror's Edge ist jetzt nicht gerade irgendeine Krauter-Müllengine wie das Ding von Arma 3 o.ä.
Irgendwelche Spiele werden nach oben hin immer aus der Reihe tanzen, auch AAA. Da hilft nur viel Speicher, wenn man auf nichts verzichten will.
VRAM-Optimierung ist für einige Entwickler leider ein Fremdwort.
Aber die meißten Spieler rushen doch eh nur durch um das Spiel so schnell wie möglich zu schaffen, kaum einer schaut sich mal die Welten im Detail an. So bleibt am Ende wohl nur der allgemeine "subjektive" Eindruck übrig.
Seit wann ist es schlimm, wenn sich Texturen mal wiederholen? Dann kann man die immer noch hoch auflösen und spart trotzdem Speicher. Oder was ist aus den guten alten "Detail Texturen" geworden die sich über die normalen Texturen legen, sobald man nahe genug ist? Damit sah schon Unreal 1 extrem gut aus wenn man die Wände mal näher betrachtete, ohne dass man HighRes Texturen brauchte. (Ja, ich stand in dem Spiel öfters einfach mal rum und hab die Grafik bewundert. :D )
Der_Korken
2016-07-04, 16:13:38
Paar Bilder der Founder's Edition: http://videocardz.com/61826/nvidia-geforce-gtx-1060-rumors-part-2
Interessant, dass die 1060 auch ein kurzes PCB mit Überhangkühler hat. Könnte fast von AMD abgeschaut sein :tongue:. Allerdings hätten die ruhig hinten ein paar Aussparungen zum Lauftansaugen lassen können oder hätte das bei einem Radiallüfter irgendwelche Nachteile?
nVIDIA
2016-07-04, 16:42:20
ist eigentlich auch eine 1060 TI denkbar mit 256bit und 4 sowie 8GB RAM? Hat man davon schon was gehört oder bleibt es nur bei der 1060?
Dural
2016-07-04, 16:45:25
Interessant, dass die 1060 auch ein kurzes PCB mit Überhangkühler hat. Könnte fast von AMD abgeschaut sein :tongue:. Allerdings hätten die ruhig hinten ein paar Aussparungen zum Lauftansaugen lassen können oder hätte das bei einem Radiallüfter irgendwelche Nachteile?
Die Karte dürfte ca. 50Watt weniger verbrauchen als die RX480, sie braucht es einfach nicht.
Abgeschaut? fragt sich nur wer abgeschaut hat :wink:
https://us.hardware.info/reviews/2725/4/nvidia-geforce-gtx-670-review-plus-sli-and-3-way-sli-geforce-gtx-670s-by-asus-point-of-view-and-zotac
Hakim
2016-07-04, 16:49:34
Gut möglich das man eine 1060ti auf GP104 Basis bringen könnte, aber wahrscheinlich nur wenn es gebraucht wird, sprich RX480X-RX490 konter
Loeschzwerg
2016-07-04, 17:16:13
Interessant finde ich, dass anders als bei der 480 der Stromstecker am Rand ist, also in dem Teil der Kuehlerabdeckung, die das PCB ueberragt. Da hat man also noch eine "Verlaengerung" unter der Abdeckung, statt den Stecker auf dem PCB zu belassen :uponder:
Da bin ich mal gespannt wie die Verlängern am PCB angebracht ist. Sinn und Zweck der Aktion will mir gerade nicht in den Kopf gehen.
Auf den SLI Anschluss hat man verzichtet. Geht bestimmt irgendwie über den PCIe.
Kartenlehrling
2016-07-04, 17:21:33
Der 6pin ist nur für den Lüfter.
deLuxX`
2016-07-04, 17:29:15
Der 6pin ist nur für den Lüfter.
Ist zwar ein Joke, aber irgendwie habe ich das Gefühl, dass der Realverbrauch von GP106 noch niedriger als der des direkten Vorgängers sein könnte.
Dural
2016-07-04, 17:37:57
Es sieht einfach cooler aus und verdeckt der GeForce Schriftzug nicht, das dürfte für NV genug Gründe sein ;)
Hakim
2016-07-04, 17:57:02
Wieso bauen jetzt alle diese kurzen PCBs? Ich verbinde das irgendwie mit absoluten low budget, da hilft es auch nicht wenn es durch den Kühler länger ist :)
Troyan
2016-07-04, 18:07:10
Interessant, dass die 1060 auch ein kurzes PCB mit Überhangkühler hat. Könnte fast von AMD abgeschaut sein :tongue:. Allerdings hätten die ruhig hinten ein paar Aussparungen zum Lauftansaugen lassen können oder hätte das bei einem Radiallüfter irgendwelche Nachteile?
Wie hoch ist die Wahrscheinlichkeit, dass von "oben" kühle Luft kommt? Im schlimmsten Fall saugt die Karte warme Luft vom CPU-Kühler ein.
BlacKi
2016-07-04, 18:16:51
Wieso bauen jetzt alle diese kurzen PCBs? Ich verbinde das irgendwie mit absoluten low budget, da hilft es auch nicht wenn es durch den Kühler länger ist :)
naja, das hat schon seine gründe. es wird mit dem pcb format von 17cm auch andere karten geben ohne fön lüfter, das pcb design kann man dafür dann weiterverwenden. ich hatte ja gehofft das es eine 1070 in diesem format kommen wird. leider wird die 1070 mini viel breiter als diese.
lediglich die position des stromsteckers will nicht in meinen kopf...
prinz_valium
2016-07-04, 18:20:28
Der 6pin ist nur für den Lüfter.
haha danke. musste gut lachen
:biggrin:
Hakim
2016-07-04, 18:22:47
Die hängt dann vermutlich in der Luft wenn man den Kühler abnimmt, like einem zwischen Adapter. Aber ich werde auf auf jeden Fall Ausschau nach custom Designs mit längeren PCB halten :)
Edit: auf der chinesischen Seite sieht es so aus als ob die 1060 im bundle mit overwatch kommt, würde für mich passen da ich es eh holen wollte
Malabolge
2016-07-05, 10:45:49
Ist zwar ein Joke, aber irgendwie habe ich das Gefühl, dass der Realverbrauch von GP106 noch niedriger als der des direkten Vorgängers sein könnte.
Quatsch - laut gerüchten verbraucht die 1060 keinen Strom - Sie ERZEUGT ihn :biggrin::D
Man muss nur darauf achten das PCB sauber im Airflow zu halten;)
deLuxX`
2016-07-05, 11:19:51
Quatsch - laut gerüchten verbraucht die 1060 keinen Strom - Sie ERZEUGT ihn :biggrin::D
Man muss nur darauf achten das PCB sauber im Airflow zu halten;)
Ah, danke für den Hinweis. Dann kann ich mein NT ja aus dem Tower schmeißen. :)
Undertaker
2016-07-05, 13:48:00
Ist zwar ein Joke, aber irgendwie habe ich das Gefühl, dass der Realverbrauch von GP106 noch niedriger als der des direkten Vorgängers sein könnte.
Die GTX 960 hatte zwar ein hohes Power Target, lag real aber schon bei nur 85 W in Spielen:
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html
Die GTX 1060 hat nun ein breiteres SI und mehr Speicherchips, wird also näher an den größeren Modellen liegen. 100 - 110 Watt Spieleverbrauch wäre darum schon ein sehr gutes Ergebnis, insbesondere wenn die Leistung über einer 160 W RX 480 liegt.
deLuxX`
2016-07-05, 14:22:34
Die GTX 960 hatte zwar ein hohes Power Target, lag real aber schon bei nur 85 W in Spielen:
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html
Die GTX 1060 hat nun ein breiteres SI und mehr Speicherchips, wird also näher an den größeren Modellen liegen. 100 - 110 Watt Spieleverbrauch wäre darum schon ein sehr gutes Ergebnis, insbesondere wenn die Leistung über einer 160 W RX 480 liegt.
Damit magst du recht haben. Ich bin u.A. wegen der Chipfläche davon ausgegangen: (Achtung übelste Milfmädchenrechnung) GM206 hatte ~57% der Chipfläche von GM204. Wenn man jetzt mal für GP106 60% annimmt, kommt man auf ~188 mm². GM206 hatte 227mm².
edit: Wenn GP106 auch auf 227mm² kommt, hätte er ~72% der Chipfläche von GP104.
Dural
2016-07-05, 14:24:27
um die 100Watt wird es schon sein, die Ref. 1060 scheint nur 3 Phasen zu haben.
Digidi
2016-07-05, 14:46:13
Die GTX 960 hatte zwar ein hohes Power Target, lag real aber schon bei nur 85 W in Spielen:
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html
Die GTX 1060 hat nun ein breiteres SI und mehr Speicherchips, wird also näher an den größeren Modellen liegen. 100 - 110 Watt Spieleverbrauch wäre darum schon ein sehr gutes Ergebnis, insbesondere wenn die Leistung über einer 160 W RX 480 liegt.
Die Leistung wird aber mit den spekulieren Daten nicht über der rx 480 liegen. Wie mal gesagt wurde (laut Spekulationen) ist Gp106 ein halber gp104 bei ähnlichen Takt und etwas größerem Speicherinterface!
Damit sollte die Gtx 1060 gut 60% der Leistung der Gtx 1080 haben und da kommt man dann auch bei der rx 480 raus. Ich bin auf Dx12 gespannt die 2300 Shader der Rx480 könnte die 1240 der GTX 1060 schon alt aussehen lassen! Zumal Amd auch dieses Mal mit dem Takt einigermaßen mitkommt!
Dural
2016-07-05, 14:52:51
Nein, du kannst die 1080 nicht als Referenz nehmen, irgend was Skaliert bei der Karte einfach nicht gut.
Sollte es die Bandbreite sein, wird GP106 sogar ziemlich gut gehen.
Digidi
2016-07-05, 14:56:04
Doch das kann mann man darf auch nicht vergessen das die 1080 ddr5x Speicher hat und die 1060 nur normalen ddr5 bekommt. Das gleicht die Bandbreite aus. Deshalb schreib ich ja auch 60% bei halben Chip und nicht 50%! Schau dir das Verhältnis gtx 980 und gtx 960 an das ist gleich u d beide haben übrigens ddr5
dildo4u
2016-07-05, 14:58:30
Die Leistung wird aber mit den spekulieren Daten nicht über der rx 480 liegen. Wie mal gesagt wurde (laut Spekulationen) ist Gp106 ein halber gp104 bei ähnlichen Takt und etwas größerem Speicherinterface!
Damit sollte die Gtx 1060 gut 60% der Leistung der Gtx 1080 haben und da kommt man dann auch bei der rx 480 raus. Ich bin auf Dx12 gespannt die 2300 Shader der Rx480 könnte die 1240 der GTX 1060 schon alt aussehen lassen! Zumal Amd auch dieses Mal mit dem Takt einigermaßen mitkommt!
PCGH hat die 480 bei 50% der 1080.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
27% bis zur 980 laut NV soll die 1060 dort liegen.
http://videocardz.com/61753/nvidia-geforce-gtx-1060-specifications-leaked-faster-than-rx-480
BlacKi
2016-07-05, 15:03:21
Die Leistung wird aber mit den spekulieren Daten nicht über der rx 480 liegen. Wie mal gesagt wurde (laut Spekulationen) ist Gp106 ein halber gp104 bei ähnlichen Takt und etwas größerem Speicherinterface!
Damit sollte die Gtx 1060 gut 60% der Leistung der Gtx 1080 haben und da kommt man dann auch bei der rx 480 raus. Ich bin auf Dx12 gespannt die 2300 Shader der Rx480 könnte die 1240 der GTX 1060 schon alt aussehen lassen! Zumal Amd auch dieses Mal mit dem Takt einigermaßen mitkommt!
gm206 hatte auch nur die hälfte der stream prozessoren von gm204 und sogar die hälfte der speicher bandbreite.
gp106 hat zwar nur die hälfte der stream prozessoren, aber deutlich mehr bandbreite.
man muss daher annehmen das die 1060 viel näher an der 1070 sein wird als es die 960 an der 970 war.
ich glaube sogar das gp106 leicht schneller wird, als die 980.
Dural
2016-07-05, 15:03:21
Doch das kann mann man darf auch nicht vergessen das die 1080 ddr5x Speicher hat und die 1060 nur normalen ddr5 bekommt. Das gleicht die Bandbreite aus. Deshalb schreib ich ja auch 60% bei halben Chip und nicht 50%! Schau dir das Verhältnis gtx 980 und gtx 960 an das ist gleich u d beide haben übrigens ddr5
Nein, GDDR5X scheint pro GB/s etwas langsamer als GDDR5 zu sein.
Zudem deine Aussage schon gar nicht stimmt, die 1080 müsste 384GB/s haben um im gleichen Verhältnis mit GP106 zu sein, sie hat aber nur 320GB/s
Aber bevor man weiter diskutiert sollte man zuerst erfahren was bei der 1080 genau los ist. Ich war am Anfang ja ein grosser Verfechter an zu wenig Bandbreite, jedoch bin ich mir nicht mehr sicher ob es nur das dieser liegt.
Digidi
2016-07-05, 15:03:31
PCGH hat die 480 bei 50% der 1080.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Da ist aber auch das verhältnis gtx 980 zu 960 50%! Skaliert anscheinend hervorragend meine Aussage :wink:
@Dural ich schreib doch das die 1060 im Verhältnis etwas mehr Bandbreite hat. Deshalb kommt sie mit halben Chip auch nicht auf 50% Leistung sondern auf 60%
BlacKi
2016-07-05, 15:06:13
Da ist aber auch das verhältnis gtx 980 zu 960 50%! Skaliert anscheinend hervorragend meine Aussage :wink:
muss mich wohl selbst zitieren...
gm206 hatte auch nur die hälfte der stream prozessoren von gm204 und sogar die hälfte der speicher bandbreite.
gp106 hat zwar nur die hälfte der stream prozessoren, aber deutlich mehr bandbreite.
man muss daher annehmen das die 1060 viel näher an der 1070 sein wird als es die 960 an der 970 war.
ich glaube sogar das gp106 leicht schneller wird, als die 980.
deLuxX`
2016-07-05, 15:13:09
ich glaube sogar das gp106 leicht schneller wird, als die 980.
Dann wäre die 1070 FE nur ca. 30% entfernt lt. PCGH.
Glaube ich nicht.
edit:
Okay, man müsste halt wissen, ob es wirklich die Speicherbandbreite ist, die die 1080 so ausbremst. Dann könnte es sogar so hinkommen.
Eine 980 ist bei 63% einer 1080.
Da
1. die 1060 etwas mehr als einen halbe 1080 ist und
2. irgendwas bei der 1080 bremst
könnte es sich so ausgehen.:uponder:
Hakim
2016-07-05, 17:40:23
Ich denke auch ziemlich genau GTX980 Niveau, wobei ja der alte etwas mehr Bandbreite hat, 192GB/s zu 224GB/s
Troyan
2016-07-05, 19:37:44
Mehr Bilder: http://videocardz.com/61868/nvidia-geforce-gtx-1060-rumors-part-3-more-pictures
Angebliche Firestrike Punkte: http://forums.anandtech.com/showpost.php?p=38337126&postcount=313
Rampage 2
2016-07-05, 19:40:08
Besteht eigentlich die Möglichkeit, dass eine hypothetische 1060 Ti auch nur 192Bit SI hat, dafür aber gleich 3 GPCs (= 1920SPs, also exakt soviele wie die 1070)?
Das würde dann folgende Rechenleistung ergeben:
48 volle ROPs * 1750MHz = 84 GPixel/sec.
120 TMUs * 1750MHz = 210 GTexel/sec.
1920 SPs * 2 * 1750MHz = 6,72 TFlops/sec. SP
192 Bit SI @ 8Gbps = 192GB/sec.
So hätte das Ding die gleiche Rechenleistung und Texturierleistung wie eine 1070, aber 33% weniger Rasterizer-Leistung und Bandbreite...
R2
Edit: Huch, I musste ja erfahren dass die reale Rasterizer-Leistung von der Anzahl der GPCs abhängt - die 1070 hat nur 3 GPCs, so dass von den 64 ROPs nur 48 genutzt werden...
Digidi
2016-07-06, 01:28:56
Die Ergebnisse im 3d Mark sind nicht gerade der Hit:
GTX 1060 3dmark:
http://videocardz.com/61884/nvidia-geforce-gtx-1060-3dmark-fire-strike-performance
RX 480 3dmark :
http://www.3dmark.com/fs/9145527
Die maximale Punktzahl die hier ermittelt wurde waren 11.999 und die minimale 10500.
m Mittel von 153 kommt man hier bei 11250 Punkten raus
GTX 980 3dmark:
http://www.3dmark.com/fs/7453911
Hier gibt's 7659 Benchmarkwerte. Beginnend von 10800 bis 12599 Benchmarkewerte. Also im Mittel 11.899 Punkte
Man muss aber auch sagen das bei der GTX 980 viele dabei sind die schon Werksübertaktet sind im Gegensatz zur RX 480 und GTX 1060
Jetzt soll noch mal jemand sagen das sich die GTX 1060 nicht iregnedwo bei der RX 480 einpendelt und das ist Fire Strike eher eine Nvidia Domäne!
Hakim
2016-07-06, 03:19:02
Warten wir auf die richtigen Tests ab. Die Werte die du angibst sehen auch merkwürdig aus, wie kann der schlechte RX480 10500 Punkte haben während die RX480 bei CB gerade mal 10348 Punkte hat? Und beim Ergebnis link vom 480er ist mit 2250MHz zumindest der VRam übertaktet.
Ach ja wenn der hochstwert der 980 12599 ist kann der Mittelwert nicht 12899 sein
Digidi
2016-07-06, 03:23:09
Geh im Link auf:
--> Show Result Details (orangner Bereich) --> Score Diagramm ähnliche System
dann siehst du das der durchschnitt da liegt :D
Mitlerweile sind es 160 Ergebnisse. Die 86 bleiben Konstant die 160 werden immer mehr. Vorher war es noch 153.
Hakim
2016-07-06, 03:42:50
Ja aber schau dir mal die großen Testerseiten an, da hat sie so ~10400 - 10900 Punkte, und da weiß man das nichts ubertaktet wurde
Digidi
2016-07-06, 03:50:09
Das weißt du auch bei den anderen Ergebnissen. Du kannst dir überall die Taktraten anschauen. Und 10900 zu 11200 ist nicht viel das sind 2%
Hakim
2016-07-06, 03:56:43
Ja ausgehend von dem höchsten Wert den ich gesehen hatte, ich glaube Guru3d mit knapp 10900, und man noch einige Prozent drauf packst hast du 11200. Aber ob das wirklich der Durchschnitt einer stock 480 ist, naja egal.
Digidi
2016-07-06, 03:58:06
Ja ausgehend von dem höchsten Wert den ich gesehen hatte, ich glaube Guru3d mit knapp 10900, und man noch einige Prozent drauf packst hast du 11200. Aber ob das wirklich der Durchschnitt einer stock 480 ist, naja egal.
Das sind mitlerweile 160 Ergebnisse die dort auftauchen die um den dreh liegen, das wird dann wohl der Durchschnitt sein :rolleyes:
Hakim
2016-07-06, 04:03:59
Ja der Durchschnitt von Stock und oc Karten, aber sry keine Lust weiter drauf einzugehen, ich vertrau da eher den testseiten die Stock messen
Digidi
2016-07-06, 04:05:28
Da sind auch Karten dabei mit 1200 Mhz. Wie gesagt ich hab karten aus der Mitte herausgesucht die hatten alle 1.266 MHz.
Hakim
2016-07-06, 04:08:31
Schau dir bitte die 160er mal an, 13xx MHz
Digidi
2016-07-06, 04:11:55
Dann lies doch mal was ich geschrieben hab! Aus den 160 habe ich Karten aus der Mitte herausgesucht die den Takt von 1266 haben. In der Mitte bewegen sich alle 1266 Karten. Irgendwo zwischen 10.800 und 11.300
Hier http://www.3dmark.com/fs/9067231
10.900 Punkte aber 13.200 im Grafikscore
Hakim
2016-07-06, 04:19:15
Dann lies doch mal was ich geschrieben hab! Aus den 160 habe ich Karten aus der Mitte herausgesucht die den Takt von 1266 haben. In der Mitte bewegen sich alle 1266 Karten. Irgendwo zwischen 10.800 und 11.300
Hast du bei jedem auch überprüft ob bei allen ram Stock ist? :)
Wie gesagt da schaue ich lieber bei Computerbase und co
Digidi
2016-07-06, 04:31:27
Hast du bei jedem auch überprüft ob bei allen ram Stock ist? :)
Wie gesagt da schaue ich lieber bei Computerbase und co
Bei dem lezten verlinkten ja :D
Dural
2016-07-06, 10:04:08
Wie so vergleichst du nicht den Ultra Wert?
Wenn man GPUs mit 3DMark vergleichen will sollte man immer die Werte nehmen die sehr GPU lastig sind.
Und ob die Werte stimmen ist dann auch noch eine andere Frage, die 108 TMUs finde ich etwas seltsam von GPUZ
prinz_valium
2016-07-06, 15:57:10
ja die rx480 überperformt doch bei 3dmark
das war auch einer der gründe, warum man 980+ Leistung von ihr vermutet hatte, obwohl dann am ende weniger als 970 raus kam
also passt es doch wieder, dass die xtx 1060 ungefähr 980 Leistung haben wird
dazu hoffentlich noch besser taktbar und schön hat man eine feine karte, wenn der preis stimmt
Palpatin
2016-07-06, 16:10:07
ja die rx480 überperformt doch bei 3dmark
das war auch einer der gründe, warum man 980+ Leistung von ihr vermutet hatte, obwohl dann am ende weniger als 970 raus kam
Die RX480 war fast überall vor der 970 und hinter der 980 genau wie im 3dmark.
Die Abstände passen da ziemlich genau zum computerbase index obwohl 3dmark in dem nichtmal drinnen ist.
BlacKi
2016-07-06, 16:25:14
Die RX480 war fast überall vor der 970 und hinter der 980 genau wie im 3dmark.
Die Abstände passen da ziemlich genau zum computerbase index obwohl 3dmark in dem nichtmal drinnen ist.
mit 970 145w referenzbios, ja. aber nicht schneller als die meisten oc varianten, welche ebenfalls noch weit von der 980 entfernt sind.
wenn ich mir die 1060 benches ansehe und mit der 480 vergleich wird die 1060 mit dem firestrike ultra 10% schneller. das können die custom oc karten zwar schlagen, aber die custom 1060 werden ebenfalls erscheinen, und vermutlich sogar noch mehr oc reserven haben als die 480. der rest regelt der preis, den man absolut nicht abschätzen kann, ausser das sie natürlich teurer wird als die 480.
Digidi
2016-07-06, 16:48:02
Im normalen Firestrike der für 1080p gedacht ist herrscht Gleichstand zwischen 1060 und RX 480. Zurzeit sind von der RX 480 nur Standartkarten unterwegs.
In Ultra HD also Fire Strike Ultra ist die GTX 1060 etwas besser. Wahrscheinlich wegen der hohen Bandbreite und der vielen Rops. Was aber nichts bringt den für UHD sind beide Karten eh viel zu schwach!
Linmoum
2016-07-06, 16:53:02
Ausgehend von rund 10% höherer Performance wären die kolportierten $299 für die 6GB auf jeden Fall 'ne herbe Enttäuschung und zu viel.
Mal schauen, dürfte ja nicht mehr so lange dauern, bis man mehr weiß.
BlacKi
2016-07-06, 16:54:46
Ausgehend von rund 10% höherer Performance wären die kolportierten $299 für die 6GB auf jeden Fall 'ne herbe Enttäuschung und zu viel.
Mal schauen, dürfte ja nicht mehr so lange dauern, bis man mehr weiß.
warum enttäuschung? bist du davon ausgegangen das sie zum selben preis verkauft wird obwohl sie schneller ist? ich meine die 960 war nen ticken langsamer und oft 5€ teurer als die 380. daher konnte man den preis zumnidest so erwarten.
morgen glaub ich soll das nda fallen, oder?
illidan
2016-07-06, 16:55:24
Die 1060 Custom Designs dürften sich performancemäßig stärker von den 480 Customs absetzen.
Hakim
2016-07-06, 16:58:21
In Ultra HD also Fire Strike Ultra ist die GTX 1060 etwas besser. Wahrscheinlich wegen der hohen Bandbreite und der vielen Rops.
Das sind 192GB/s gegen die 256GB/s beim RX480, die RX480 hat 33% mehr Bandbreite
Digidi
2016-07-06, 16:58:49
Sagt deine Klaskugel ? Die GTX 1060 hat gerade mal 1280 Shader die RX 480 hat 2304 Shader.
Die GTX 1060 wird wohl wie Pascal von 1700 auf 2000 Takten können. Das sind 300 MHZ mehr. Da AMD fast Doppelte Shader haben müssen sie garnicht so hoch takten um die Leistung um den gleichen Teil zu erhöhen. Bei AMD reicht es wenn sie 150MH schneller Takten, das wären dann bei 1266 MH als Basis angenommen 1.415 Mhz.
@Hakim
Was viele vergessen ist auch die Anbidung des Speicherinterface an den Chip. Da Nvidia 1700 Boostakt hat können derer 192 GB/s besser ausgenutzt werden. Deshalb wird wohl bei GP106 wohl mehr Bandbreite rüber kommen. Aber du hast recht wahrscheinlich sind es nur die Rops.
BlacKi
2016-07-06, 17:00:45
Im normalen Firestrike der für 1080p gedacht ist herrscht Gleichstand zwischen 1060 und RX 480. Zurzeit sind von der RX 480 nur Standartkarten unterwegs.
In Ultra HD also Fire Strike Ultra ist die GTX 1060 etwas besser. Wahrscheinlich wegen der hohen Bandbreite und der vielen Rops. Was aber nichts bringt den für UHD sind beide Karten eh viel zu schwach!
ok nimm doch mal den graficscore im firestrike
480 bietet 12195
1060 bietet 13215
sind 8,3% mehr.
Digidi
2016-07-06, 17:03:13
Also ich hab hier 13088
http://www.3dmark.com/fs/9067231
Linmoum
2016-07-06, 17:03:17
warum enttäuschung? bist du davon ausgegangen das sie zum selben preis verkauft wird obwohl sie schneller ist?
morgen glaub ich soll das nda fallen, oder?
Natürlich nicht derselbe Preis, das würde ja keinen Sinn ergeben.
Das wären dann aber trotzdem schlappe 25% mehr und wenn man dann im Schnitt von rund 10% besserer Performance ausgeht, nunja.
Die 1060 wird 'nen besseren Verbrauch haben, dafür aber auch nochmal 2GB weniger. 6GB sind zwar absolut in Ordnung, aber wenn jemand die Wahl zwischen 8GB/6GB hat und bei ersterem noch +50€ mehr im Geldbeutel übrig bleiben... ;)
BlacKi
2016-07-06, 17:04:57
Also ich hab hier 13088
http://www.3dmark.com/fs/9067231
http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,26.html
12062 http://www.tweaktown.com/reviews/7756/amd-radeon-rx-480-video-card-review-starting-rebellion-199/index7.html
Digidi
2016-07-06, 17:13:43
http://www.3dmark.com/fs/9100800
http://www.3dmark.com/fs/9164939
Hier bitte schön. Die sind alle 2-3% langsamer als die GTX 1060. AMD hat ja auch angekündigt das der neue Treiber 3% Mehrleistung bringen soll, zumindest für die die Ihr Powertarget nicht verringern, was wohl 90% sind.
Und weiter geht's:
http://www.3dmark.com/fs/9051324
http://www.3dmark.com/fs/9032098
http://www.3dmark.com/fs/9067993
Troyan
2016-07-06, 17:22:40
Checkst du es nicht, dass dies nicht "default" ist? Das sind Werte mit einem erhöhten Powerlimit oder forcierten 1266Mhz Takt.
Es gibt genug Standardbenchmarks vom Firestrike. Dort liegt die Karte bei rund 12000 Punkten im Grafikscore in 1080p.
Lass es einfach gut sein.
Hakim
2016-07-06, 17:24:44
Das Thema 3Dmark Ergebnis Listen vs Testseitenergebnisse hatten wir ja schon :). Es gibt halt Leute die ein möglichst hohes Ergebnis erreichen wollen, und Selbst wenn der Takt default ist, gibt es soviele Bereiche wo man nachbessern kann und die nicht auf der Seite einsehen kann, z.B PT und Spannung erhöhen, Kühlung deutlich verbessern, ist das System überhaupt in einem Gehäuse getestet worden und und. Genau dafür gibt es seriöse Tester.
BlacKi
2016-07-06, 17:26:07
jap, lasst uns bis morgen warten, die karten sind bereits bei den reviewern und sollten morgen online gehen. dann wird man auch aktuelle treiber bei den radeons sehen.
Rampage 2
2016-07-06, 17:29:46
Die 1060 wird 'nen besseren Verbrauch haben, dafür aber auch nochmal 2GB weniger. 6GB sind zwar absolut in Ordnung, aber wenn jemand die Wahl zwischen 8GB/6GB hat und bei ersterem noch +50€ mehr im Geldbeutel übrig bleiben... ;)
Ich glaube weiterhin, dass die 6GB-Version der 1060 "nur" 249 USD kosten wird - sofern sie mehr oder weniger gleich schnell (oder höchstens 10-15% schneller) wie die 8GB RX480 ist. Die 249 USD ergeben beim derzeitigen Eurokurs exakt 270€ und zu Anfang der Markteinführung sind die Preise bekanntlich teurer. Wir reden hier vom Mainstream-Segment und nicht vom HighEnd-Segment und auch nicht vom Performance-Segment...
Kaum ein Mainstream-Käufer wird mehr als 270-280€ für eine Grafikkarte ausgeben...
Allerdings traue ich es Nvidia zu, dass sie versuchen werden das Ding (6GB-Version) dennoch für 300-330€ zu verkaufen - um den Preis dann aufgrund von Protesten wieder nach unten zu "korrigieren" wie bei der GTX 980...
R2
Ravenhearth
2016-07-06, 17:32:13
Wann haben sie den Preis der GTX 980 denn "aufgrund von Protesten" nach unten korrigiert?
Hakim
2016-07-06, 17:33:07
Was, sowas geht? Dann lasst mal heute schon ein Protest starten :D
..ich meine die 960 war nen ticken langsamer und oft 5€ teurer als die 380. daher konnte man den preis zumnidest so erwarten.
morgen glaub ich soll das nda fallen, oder?
Damals einen Ticken, heute einen Tocken.
Rampage 2
2016-07-06, 17:37:47
Wann haben sie den Preis der GTX 980 denn "aufgrund von Protesten" nach unten korrigiert?
So habe ich das in Erinnerung behalten - ist ja noch nicht mal 2 Jahre her. Der Preis wurde vor dem Release nach unten "korrigiert" - in den Newsmeldungen dazu habe ich irgendwas von Protest, Empörung und Inakzeptanz in Erinnerung behalten...
Aber gut, kann auch sein dass mein Gedächtnis das flach abgespeichert hat...
R2
AnarchX
2016-07-06, 17:45:03
Wann haben sie den Preis der GTX 980 denn "aufgrund von Protesten" nach unten korrigiert?
Bei 960 gab es wohl ein Befragung der Redakteure zum geplanten ~$249 Preis: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10495854&postcount=9
Ravenhearth
2016-07-06, 18:05:20
Eine Befragung ist aber was anderes als ein Protest. :D Ich habe das zudem in Zusammenhang mit der GTX 970 in Erinnerung, die nach Rückmeldungen auf $329 gesetzt wurde, statt $399 oder so.
Troyan
2016-07-06, 18:08:20
Das diente doch eher Leaks herauszufischen. Alleine auf die Idee zu kommen, dass $249 für die GTX960 mit 2GB angebracht wären, wenn es für $80 mehr die >60% schnellere GTX970 mit 4GB gab, macht das ganze Irrwitzig.
Das diente doch eher Leaks herauszufischen. Alleine auf die Idee zu kommen, dass $249 für die GTX960 mit 2GB angebracht wären, wenn es für $80 mehr die >60% schnellere GTX970 mit 4GB gab, macht das ganze Irrwitzig.
mit 3,5 + 0,5 GB meinst du wohl
Dural
2016-07-06, 18:53:56
Ist so ruhig, ich dachte morgen sollen die tests kommen?
maximus_hertus
2016-07-06, 18:57:22
Ist so ruhig, ich dachte morgen sollen die tests kommen?
Viele Sachen sind ja schon klar, von daher muss man sich nicht aufregen ;) Einzig der Preis ist noch ein wenig spannend, ob nV an den 299 USD / 340 Euro festhält.
Alles andere ist ja mehr oder weniger bekannt bzw. man erwartet da keine Überraschungen.
AnarchX
2016-07-06, 18:57:32
NV hat halt nur Türstopper mit GP104 ausgeliefert: https://semiaccurate.com/2016/07/06/nvidias-gp104-based-gt1060-real/ ;D
dildo4u
2016-07-06, 19:08:52
NV hat halt nur Türstopper mit GP104 ausgeliefert: https://semiaccurate.com/2016/07/06/nvidias-gp104-based-gt1060-real/ ;D
Komisch ich hatte eine 660TI kann mich nicht erinnern das die nur in geringen Mengen kamen.
Dural
2016-07-06, 19:09:00
Die karte hat auch immerhin ein 256bit pcb ;)
Aber das scheint bei nv tradition zu haben, schon die 960 hatte ja ein 192bit pcb
Digidi
2016-07-06, 19:26:00
NV hat halt nur Türstopper mit GP104 ausgeliefert: https://semiaccurate.com/2016/07/06/nvidias-gp104-based-gt1060-real/ ;D
Das glaub ich nicht. Mit was kommt denn dann die neue GTX 1060?
Des weiteren würde Nvidia mit jeder verkauften GTX 1060 herbe Verluste fahren so einen großen Chip für so wenig Leistung hinaus zu werfen.
Aber etwas verwundert war ich schon als nach dem Release der RX 480 Nvidia gleich kontert.
Screemer
2016-07-06, 19:34:32
wenn die teile aufgrund mieser yieldrate eh da sind, warum sollte man dann keine 1060ti auflegen. die normale 1060 kommt dann mit gp106. wäre ja nicht die ersten karten in der richtung. siehe 660ti, 980ti, etc
Digidi
2016-07-06, 19:43:50
Wenn die Yields schlecht sind dann ist auch nicht genug da für die gtx 1070 und gtx 1080 Wenn dann noch Chips für die 1060 vergeudet werden macht das keinen sinn. Da müssten die Yields ja unterirdisch sein das sich das lohne!
dildo4u
2016-07-06, 19:46:20
Das glaub ich nicht. Mit was kommt denn dann die neue GTX 1060?
Des weiteren würde Nvidia mit jeder verkauften GTX 1060 herbe Verluste fahren so einen großen Chip für so wenig Leistung hinaus zu werfen.
Aber etwas verwundert war ich schon als nach dem Release der RX 480 Nvidia gleich kontert.
Die 970 war größer und wurde ca für den selben Preis verkauft.
Undertaker
2016-07-06, 19:49:07
Das glaub ich nicht. Mit was kommt denn dann die neue GTX 1060?
Des weiteren würde Nvidia mit jeder verkauften GTX 1060 herbe Verluste fahren so einen großen Chip für so wenig Leistung hinaus zu werfen.
Aber etwas verwundert war ich schon als nach dem Release der RX 480 Nvidia gleich kontert.
Hmm, Verluste sicherlich nicht. Die zusätzliche Diefläche von GP104 gegenüber Polaris 10 (der sicher auch keinen Verlust macht) dürfte man mit 40 Euro Aufpreis, 2 GB weniger Speicher und einem billigeren PCB (192 Bit, geringerer Verbrauch) schon kompensieren können.
Nur Sinn macht das natürlich nicht. Die Kapazitäten sind knapp, GP104-Dies könnte man als GTX 1070/1080 weit lukrativer absetzen (vorausgesetzt, das Binning erlaubt es). Wäre GP106 noch Monate entfernt und ein schneller Konter zu Polaris erforderlich, wäre das eher ein Job für einen noch aggressiver gepreisten GM204 (ggf. sogar eine Neuauflage mit 8 GB o.ä.). Ist alles nicht der Fall, ergo steht GP106 direkt vor der Tür.
Digidi
2016-07-06, 19:58:41
Na ja GM204 wird sich nach Ankündigung von Polairs schon sehr viel schlechter verkaufen weil Ihm halt wichtige Features fehlen. Wie die neusten Display Port und Hdmi Standards oder Video Encoding oder DX12. Der kann nicht herhalten.
Ich könnte mir schon vorstellen das Nvidia da in die Bresche springt und zu versuchen AMD jede RX 480 abzuluxen. Nvidias Strategie basiert auf einem hohen Marktanteil. Wenn sich hier jetzt AMD Karten durchsetzen, die sogar noch einen guten Bezug zu Konsolen habe, wäre es für Nvidia ein Albtraum, weil sich dann Gameworks nur noch schlecht rechtfertigen ließe bei den Entwicklern. Hinzu kommt das sich Gameworks ja nicht gerade mit Ruhm in der letzten Zeit becklert hat und die Publisher auch etwas geschockt hat.
Undertaker
2016-07-06, 20:09:48
Maxwell war zwei Jahre lang überlegen bzgl. HDMI und Videoeinheit, konnte die Konkurrenz genau deswegen keine Karten verkaufen? :confused: Das ist sicherlich ein Faktor, aber kein Vergleich zu Punkten wie Performance und Energieeffizienz. Und da könnte ein GM204 auch heute noch ziemlich gut mithalten bzw. sogar überlegen sein – mal wild gesponnen: 8 GB Speicher mit 8 Gbps, 2048 ALUs, Maximaltakt der bei der nunmehr perfekt gereiften 28nm-Fertigung in 150 W TDP möglich ist. Da würde der neue P10 wohl plötzlich ziemlich alt aussehen...
Aber wie gesagt: Das wäre nur dann ein sinnvolle Variante, wenn kein GP106 vor der Tür stünde. Wobei ich sogar fast wetten würde, dass ein GM204 aktuell billiger zu produzieren ist als P10 oder gar GP106.
Digidi
2016-07-06, 20:14:27
Das wäre keine Sinnvolle Variante. Viele würden trotzdem zur RX 480 greifen. Wie gesagt viele Käufer schauen hauptsächlich ob die neusten Anschlüsse verbaut sind und wie sie unter neuen Technischen Aspekten Performern und da wird GM204 bei DX12 nicht gerade eine rosige Zukunft vorhergesagt.
Dural
2016-07-06, 20:19:03
RX480? Was ist das? Wahrscheinlich die karte die in einem jahr einen steam anteil von rund 2% hat :wink:
Digidi
2016-07-06, 20:24:07
@Dural
Die Karte verkauft sich besser als Dir lieb ist :D
Grendizer
2016-07-06, 20:24:19
RX480? Was ist das? Wahrscheinlich die karte die in einem jahr einen steam anteil von rund 2% hat :wink:
Ich bin ja eher nVidia affin, auch wenn ich gerade aktuell eine AMD 390 verbaut habe, aber ich würde die AMD 480 nicht sofort abschreiben, sondern noch auf die Customdesigns vertrauen. Die werden die Temperaturprobleme hoffentlich im Griff haben, 8 PIN anschlüsse bieten und übertaktungsspielraum bei vernünftiger Lautstärke bieten. Allerdings finde ich das da mit teilweise 299 Euro etwas über das Ziel hinausgeschossen wird, da ich in dieser Preislage auch die 1060 erwarte. Und wenn die dann wirklich 10% schneller ist....... dann wirds knapp für AMD, oder die Preis müssen für die Customs auf 269 runter, dann paßt das wieder.
Digidi
2016-07-06, 20:27:26
@WoW Zocker
Welches Temperaturprolbem? Die RX 480 haben lediglich ein Problem das sie eine Spezifikation an einer Stelle verletzten die eher unkritisch ist. Nämlich das sie 7A stats 5,5A Strom ziehen über den PCI Slot.
Grendizer
2016-07-06, 20:29:12
@Dural
Die Karte verkauft sich besser als Dir lieb ist :D
augenblicklich .... außerdem zeigt das eher wie "planlos" die Leute sind, da das Referenzdesign nunmal echt fürn Arsch ist. Laß die Dinger mal bei sommerlichen Zimmertemperatur laufen(ja vieleicht wird das dieses Jahr nix mehr, aber evtl. im nächsten Jahr;D,) mal schauen ob sie bei Vollast runterdrosseln :biggrin:
Wie gesagt, den Customs traue ich noch was zu, aber nicht für die geplanten Preise.
Grendizer
2016-07-06, 20:29:48
@WoW Zocker
Welches Temperaturprolbem? Die RX 480 haben lediglich ein Problem das sie eine Spezifikation an einer Stelle verletzten die eher unkritisch ist. Nämlich das sie 7A stats 5,5A Strom ziehen über den PCI Slot.
Sie laufen zu schnell ins Temperaturlimit. Nicht jeder hat 21° Zimmertemperatur
Undertaker
2016-07-06, 20:34:43
Das wäre keine Sinnvolle Variante. Viele würden trotzdem zur RX 480 greifen. Wie gesagt viele Käufer schauen hauptsächlich ob die neusten Anschlüsse verbaut sind und wie sie unter neuen Technischen Aspekten Performern und da wird GM204 bei DX12 nicht gerade eine rosige Zukunft vorhergesagt.
HDMI 2.0b statt HDMI 2.0 oder ein Fixed-Function- statt Hybrid-Decoder für HEVC sind zwar schön, für die Verkäufe einer Karte im Massenmarkt aber nicht mehr als eine Randnotiz. Vor Polaris konnte keine einzige AMD-Karte einen 4K-TV ohne Converter mit 60 Hz ansteuern, was eine wirklich großflächige und gravierende Einschränkung darstellt – und selbst das hatte nur sehr begrenzten Einfluss. Für die Masse zählen Performance und Effizienz (bzw. die davon abhängigen Folgepunkte) einfach viel, viel mehr. Und da steht P10 nicht einmal unter DX12 wirklich gut da (nur in einem von aktuell 4 Spielen schneller als eine GTX 980), in einem repräsentativen Mix schon gleich gar nicht.
Ich will allerdings gar nicht bestreiten, dass GP106 die Stärken von GM204 mitbringt und gleichzeitig vieles noch ein ganzes Stückchen besser kann, zweifellos also die bessere und logische Ablösung darstellt. Aber es ist nicht so, dass Nvidia ohne GP106 in der Mittelklasse keinerlei Optionen hätte.
So, genug Konjunktive. Ist morgen nicht der 7. Juli? :D
Linmoum
2016-07-06, 20:37:20
Sie laufen zu schnell ins Temperaturlimit. Nicht jeder hat 21° Zimmertemperatur
Ich kenn auch zwei Karten, die extrem schnell ins TT laufen. Sind sogar erst seit ein paar Wochen verfügbar... ;)
illidan
2016-07-06, 20:37:43
Du kannst mit GM204 keine UHD-BDs dekodieren lassen.
Grendizer
2016-07-06, 20:39:01
Ja ich bin auch echt gespannt ... meine 390 muss nämlich was leiserem weichen, da es hier im Dachstudio einfach zu warm für eine 275 Karte ist (das halten meine Ohren nicht aus)
Kartenlehrling
2016-07-06, 20:39:09
Es gibt doch überhaupt keinen Softwareplayer der UHD-HDR Filme abspielt,
erlaubt Netflix überhaupt das abspielen ihres 4k-HDR Material über eine gtx1080 ?
Ich habe noch kein Videobeweiss gesehen.
Dalai-lamer
2016-07-06, 20:42:20
HDMI 2.0b statt HDMI 2.0 oder ein Fixed-Function- statt Hybrid-Decoder für HEVC sind zwar schön, für die Verkäufe einer Karte im Massenmarkt aber nicht mehr als eine Randnotiz. Vor Polaris konnte keine einzige AMD-Karte einen 4K-TV ohne Converter mit 60 Hz ansteuern, was eine wirklich großflächige und gravierende Einschränkung darstellt – und selbst das hatte nur sehr begrenzten Einfluss. Für die Masse zählen Performance und Effizienz (bzw. die davon abhängigen Folgepunkte) einfach viel, viel mehr. Und da steht P10 nicht einmal unter DX12 wirklich gut da (nur in einem von aktuell 4 Spielen schneller als eine GTX 980), in einem repräsentativen Mix schon gleich gar nicht.
:D
Ich bin das erste mal überhaupt von amd zu NVIDIA gewechselte, da die amd Karten kein 4K unterstützt haben. Und jetzt habe ich eine 1080 gtx 😆
Ok kein massenmarkt, aber die 4K TV sind schon im massenmarkt angekommen.
Grendizer
2016-07-06, 20:43:29
Ich kenn auch zwei Karten, die extrem schnell ins TT laufen. Sind sogar erst seit ein paar Wochen verfügbar... ;)
Jopp aber auch die 1070/1080 Customdesign zeigen was geht, nur sind die billiger als die Foundersedition :biggrin:
Digidi
2016-07-06, 20:46:47
Mal sehen wie der Erfolg wird der GTX 1060. Dafür das morgen ja Release sein soll ist es in den Foren wirklich sehr still!
Grendizer
2016-07-06, 20:48:06
Mal sehen wie der Erfolg wird der GTX 1060. Dafür das morgen ja Release sein soll ist es in den Foren wirklich sehr still!
Das wird ein Paperlaunch die Customdesigns in wirklicher Menge erwarte ich für September ... aber ich könnte die Zeit warten, deshalb erwarte ich die Tests
Foobar2001
2016-07-06, 20:48:18
Niemand interessiert Mainstream, das war noch nie anders.
Digidi
2016-07-06, 20:51:57
@Foobar2001
Wie erklärst du dir dann den Hype um die RX 480. Da explodieren die foren.
Linmoum
2016-07-06, 20:52:28
Mal sehen wie der Erfolg wird der GTX 1060. Dafür das morgen ja Release sein soll ist es in den Foren wirklich sehr still!
Ich tippe mal auf offizielle Vorstellung morgen, Reviews in 2-3 Wochen und Anfang August geht's dann los.
Digidi
2016-07-06, 20:55:44
Die Reviewer haben schon Ihrer Karte. Deshalb glaube ich auch einen Release morgen Abend. Deshalb macht es ja das Gerücht das GTX 1060 auf Basis GP106 nur ein Platzhalter ist erst sinn.
ChaosTM
2016-07-06, 21:11:17
Wie erklärst du dir dann den Hype um die RX 480. Da explodieren die foren.
Bei der 480er wurden einerseits völlig unrealistische Erwartungen geschürt und andererseits haben doch die meisten gehofft, dass die Karte das Preisgefüge zumindest etwas noch unten drücken kann.
Bei GP106 fehlen diese Faktoren. Man erwartet eine solide Mittelklasse Karte aber auch nicht mehr.
dildo4u
2016-07-06, 21:15:56
Die Reviewer haben schon Ihrer Karte. Deshalb glaube ich auch einen Release morgen Abend. Deshalb macht es ja das Gerücht das GTX 1060 auf Basis GP106 nur ein Platzhalter ist erst sinn.
Nvidia macht jetzt mehr Geld als vorher,sie verkaufen den Midrange Chip jetzt für 320,470 und 700€.Vorher nur für 320 und 550€,selbst wenn sie keine Mega Gewinne mit der 1060 machen,gleicht das die 1080 aus,die sku gab es bis jetzt gar nicht.
Grendizer
2016-07-06, 21:35:40
Meint ihr das es dann auch ab 15 Uhr Infos gibt ? Oder ist da was anderes bekannt ?
[MK2]Mythos
2016-07-06, 21:45:46
Niemand interessiert Mainstream, das war noch nie anders.
Dass das völliger Quatsch ist, sagt alleine der Begriff MAINSTREAM schon. Rx480 und die 1060 sind Mainstream und eben deswegen für die meisten Spieler interessant.
Palpatin
2016-07-06, 23:43:09
Nvidia macht jetzt mehr Geld als vorher,sie verkaufen den Midrange Chip jetzt für 320,470 und 700€.Vorher nur für 320 und 550€,selbst wenn sie keine Mega Gewinne mit der 1060 machen,gleicht das die 1080 aus,die sku gab es bis jetzt gar nicht.
Nur wenn man zur Abzock Edition greift. Die Customs sind genau jeweils 50$ teurer. Ob da jetzt für NV mehr Gewinn rausspringt sei dahingestellt, da Kosten unbekannt.
berhan
2016-07-07, 00:46:24
Wenn ich die 1080 und 1070 mit den bekannten Daten der 1060 ins Verhältnis setze ergibt sich nach meiner Berechnung bei 48 ROPs ein FullHD Perf.Index von ~615% für die 1060. Falls nur 32 ROPs werden dann ~600%. Leistungsaufnahme ~105 Watt.
Hakim
2016-07-07, 01:03:33
die 48 ROPs scheinen laut GPU-Z pics sicher zu sein. Mal auf Morgen abwarten
Troyan
2016-07-07, 01:05:46
Der Chip kann trotzdem nur 32 Pixel pro Takt verarbeiten. :P
/edit: Offizielle Bilder von nVidia (inkl. leuchtenes Logo): http://videocardz.com/61908/nvidia-geforce-gtx-1060-rumors-part-4-official-pictures
Ein paar weitere Gerüchte: http://forums.anandtech.com/showpost.php?p=38340405&postcount=385
Hakim
2016-07-07, 01:33:03
Ist der cap jetzt bewusst exakt auf 2140 MHz gesetzt?
Screemer
2016-07-07, 01:43:36
360€+Steuer für 980 Leistung? Bisschen viel, oder?
TheCounter
2016-07-07, 04:32:43
Ist der cap jetzt bewusst exakt auf 2140 MHz gesetzt?
Wohl eher wie bei der 1080/1070.
Aber bei 2,0 - 2,1 GHz sieht die RX480 (selbst mit OC) kein Land mehr.
Foobar2001
2016-07-07, 05:34:38
Mythos;11092975']Dass das völliger Quatsch ist, sagt alleine der Begriff MAINSTREAM schon. Rx480 und die 1060 sind Mainstream und eben deswegen für die meisten Spieler interessant.
Trotzdem redet jeder nur ueber das High-End. Ist doch eh schon alles gesagt, die kleine Karte wird halt gekauft und ist 30% langsamer. Langweilig.
DarknessFalls
2016-07-07, 07:38:41
360€+Steuer für 980 Leistung? Bisschen viel, oder?
Kann ich mir nur schwerlich vorstellen, dass nV so viel nimmt. Wobei - für die 6GB-Variante... hm...
ilibilly
2016-07-07, 07:54:49
NV kann diese gen doch einiges mehr nehmen als sonst üblichen 50€ mehr als amd,es gitb keine konkurrenz,rx480 wurde nachgesagt an die 1070 rNzukommen,und jetzt schlägt eine stock 1060 sie wohl klar,dazu das nvtypische oc potenzial von nochmal um die 20%.
Rx480 crossfire kommt nichtmal an eine 1080 ran,da seh ich schwarz auch für vega.
Ich denk die meisten würden sich für 20-30% mehr leistung entscheiden anstatt für 8gb ,denn gerade für FHD reichen auch 6gb noch paar jahre.
DarknessFalls
2016-07-07, 08:03:09
Ich denk die meisten würden sich für 20-30% mehr leistung entscheiden anstatt für 8gb ,denn gerade für FHD reichen auch 6gb noch paar jahre.
Naja, 20-30% mehr Leistung ggü der RX480 gehören dann wohl eher ins Reich der Fabeln...
Cyphermaster
2016-07-07, 08:40:39
Ist das Gleiche wie im RX480-Thread. Bekannt sind bisher grade mal Stock-Differenzen von 6% zugunsten der 1060 in einem Benchmark, mit Spekulationen auf etwas mehr in nV-lastigen Benchmarks. Lassen wir's gedanklich sogar volle 15% sein, die eine 1060 ohne OC in Front liegen würde, was würde das heißen?
Unter dem Strich macht das einen Unterschied von etwa 3 fps am Rande der Spielbarkeit (d.h. 27fps/30fps oder 30fps/34fps) aus, etwa 6-8 bei den Durchschnitts-Monitor-üblichen 60fps. Für einen Mainstream-User sind das kaum Größen, die ihn zu Freudensprüngen veranlassen, die Karte wesentlich "langlebiger" machen, noch sein Budget deutlich nach oben aufzustocken. Sicher, bei preislichem Gleichstand wäre die 1060 bei bestätigt 10% Vorsprung oder mehr die bessere Wahl - aber schon den Preis-Gleichstand wird es wohl nicht geben. Unter dem Strich wird sich nVidia also gut überlegen müssen, ob sie wirklich 50€ (d.h. etwa 15-20%) auf den Preis der RX480 aufschlagen, wenn der Leistungsunterschied eher nach der Hälfte davon aussieht.
Dural
2016-07-07, 09:18:44
Sorry, aber die 1060 dürfte klar die bessere karte sein.
Ich sehe an der RX480 nichts was besser ist, klar 2GB für ein gutes gefühl, ob die jemals einen unterschied machen bleibt aber fraglich, zudem die 1060 von anfang an mehr power hat, und sicherlich durch ein gutes OC potential sogar recht deutlich vor der RX480 landen wird. Und das von anfang an, da sind die 2GB mehr die vielleicht in 3 Jahren was aus machen nur dummes geschwätz, man kauft eine grafikkarte nicht für in drei jahren sondern für jetzt. :rolleyes:
und überhaupt, wo sind die von AMD mehrfach versprochene "Massen" an Polaris chips? Ich sehe davon weit und breit nichts, selbst bei Apple wurde es sehr still... ich weis ja nicht was AMD an die OEMs so alles versprochen hat, aber wenn es das gleiche war wie sie öffentlich gesagt haben kann ich mir schon vorstellen das der ein oder andere OEM sich sprichwörtlich verarscht vorkommt...
ilibilly
2016-07-07, 09:20:58
Naja, 20-30% mehr Leistung ggü der RX480 gehören dann wohl eher ins Reich der Fabeln...
DAs war aufs oc potenzial bezogen, welches bei rx ja wieder ein witz ist genauso wie es bei fiji war,damals wurden awesome oc potenzial prognostiziert.
Beide komplett am limit dürfte der abstand durchaus 20-30% betragen. Ich geh jetzt mal von 2-2,1 ghz bei gp106 aus und rx1,3-1,4
Grendizer
2016-07-07, 09:21:25
Ist das Gleiche wie im RX480-Thread. Bekannt sind bisher grade mal Stock-Differenzen von 6% zugunsten der 1060 in einem Benchmark, mit Spekulationen auf etwas mehr in nV-lastigen Benchmarks. Lassen wir's gedanklich sogar volle 15% sein, die eine 1060 ohne OC in Front liegen würde, was würde das heißen?
Unter dem Strich macht das einen Unterschied von etwa 3 fps am Rande der Spielbarkeit (d.h. 27fps/30fps oder 30fps/34fps) aus, etwa 6-8 bei den Durchschnitts-Monitor-üblichen 60fps. Für einen Mainstream-User sind das kaum Größen, die ihn zu Freudensprüngen veranlassen, die Karte wesentlich "langlebiger" machen, noch sein Budget deutlich nach oben aufzustocken. Sicher, bei preislichem Gleichstand wäre die 1060 bei bestätigt 10% Vorsprung oder mehr die bessere Wahl - aber schon den Preis-Gleichstand wird es wohl nicht geben. Unter dem Strich wird sich nVidia also gut überlegen müssen, ob sie wirklich 50€ (d.h. etwa 15-20%) auf den Preis der RX480 aufschlagen, wenn der Leistungsunterschied eher nach der Hälfte davon aussieht.
Meine volle Zustimmung, allerdings mit der kleinen Anmerkung, das auf Grund der besseren Verbraucheigenschaften bei der Nutzung auf 18 Monate ein wenig Geld eingespart wird. (Vermutlich 13 Euro bei 2 Stunden Nutzung am Tag :biggrin: und vermuteter 40 Watt Differenz)
Die Preisdifferenz würde ihre einzige Berechtigung aus sehr guten Übertaktungseigenschaften beziehen. Aber mehr wie 279-299 sehe ich auch hier nicht, allerdings sind die Custom Designs der 480 auch hier angesiedelt...
Linmoum
2016-07-07, 09:33:20
Sorry, aber die 1060 dürfte klar die bessere karte sein.
Nur dann, wenn sie weniger als 300€ kostet (vorausgesetzt natürlich, die +10% stimmen am Ende auch ;) ). Wie wahrscheinlich das ist, darf jeder selbst beurteilen.
Ich sehe an der RX480 nichts was besser ist, klar 2GB für ein gutes gefühl, ob die jemals einen unterschied machen bleibt aber fraglich, zudem die 1060 von anfang an mehr power hat, und sicherlich durch ein gutes OC potential sogar recht deutlich vor der RX480 landen wird. Und das von anfang an, da sind die 2GB mehr die vielleicht in 3 Jahren was aus machen nur dummes geschwätz, man kauft eine grafikkarte nicht für in drei jahren sondern für jetzt. :rolleyes:
Gerade im Mainstream-Segment kaufen viele Leute ihre Karte für mehr als nur 1-2 Jahre, insofern: Doch, zukunftssicher(er) ist da deutlich relevanter als ein paar hundert Euro weiter oben.
Schaffe89
2016-07-07, 09:36:15
Sorry, aber die 1060 dürfte klar die bessere karte sein.
Man weiß bereits jetzt schon, dass es die bessere Karte sein wird.
Ich warte nur noch auf 15 Uhr und dann wird das Ding vorbestellt, sofern es nicht zuviel Aufpreis sind über der rx480, ich nehme auch an, man wird das Referenzdesign kaufen können, ohne einen Ohrenschutz zu brauchen.
und überhaupt, wo sind die von AMD mehrfach versprochene "Massen" an Polaris chips?
Auch nicht besser lieferbar als die 1070 oder 1080, die 4GB Version gibts schon gar nicht mehr.
Das Geschwafel von Super Verfügbarkeit usw.. war doch auch nur eine Theorie.
Es werden jetzt wieder deutlich mehr 1070/1080 verkauft und das bei dem Preis.
Meine Erwartungen zu AMD Produkten sind gleich Null, wahrscheinlich wird auch der Marktanteil die nächsten Wochen/Monate auf nur noch 15% im Desktopmarkt schrumpfen.
Da kommen ganz harte Zeiten auf AMD zu, deutlich härter als noch zu r9 390 Zeiten.
DarknessFalls
2016-07-07, 09:37:52
Nur dann, wenn sie weniger als 300€ kostet. Wie wahrscheinlich das ist, darf jeder selbst beurteilen.
Naja, in Hinsicht auf FPS/Watt wird es vermutlich schon so sein, P/L wiederum wohl anders herum. Rein an P/L kann man ja nicht festmachen, ob eine Karte die "bessere" ist. Das "bessere Angebot" hingegen dürfte die RX schon bleiben.
Undertaker
2016-07-07, 09:38:52
Gerade im Mainstream-Segment kaufen viele Leute ihre Karte für mehr als nur 1-2 Jahre, insofern: Doch, zukunftssicher(er) ist da deutlich relevanter als ein paar hundert Euro weiter oben.
Wenn aktuell vergleichbare/schnellere Karten (GTX 980, Furys) mit nur 4 GB RAM ziemlich gut auskommen, sind 50 Prozent Mehrspeicher schon ein gutes Zukunftspolster. Karten wie P10 und GP 106 (mit Ausnahme vielleicht der 3 GB Version) werden mittelfristig vor allem durch ihre mangelnde Rechenleistung altern.
Grendizer
2016-07-07, 09:43:14
Mal ehrlich ich habe auf Ebay für meine Gigabyte 960 mit 4 Gb noch 148 Euro bekommen (- Ebay Gebühren bleiben 130 Euro übrig). Für meine aktuelle AMD 390 würde ich evtl. 200 erwarten damit muss ich eine kleine Differenz überbrücken. Von der reinen Leistung macht das evtl. keine Sinn, aber ich hätte gerne was leiseres im Rechner. Deshalb schiele ich hier auch auf die 480 Custom Design bzw. die 1060. Für 49-99 Euro Netto ist das ok.
Dural
2016-07-07, 09:43:30
Ihr immer mit euren preis... Der markt (nachfrage/stückzahlen) bestimmt der preis, das sollte man jetzt langsam wissen.
Zudem die 1060 sogar einiges billiger in der herstellung sein dürfte: kleineren chip, weniger speicher, einfacheres PCB etc. das einzige was sicherlich mehr kostet ist der kühler, aber das ist eine bewusste NV entscheidung, zudem die ref. karte sicherlich nie gross im handel verfügbar sein wird.
Digidi
2016-07-07, 09:44:01
Wenn aktuell vergleichbare/schnellere Karten (GTX 980, Furys) mit nur 4 GB RAM ziemlich gut auskommen, sind 50 Prozent Mehrspeicher schon ein gutes Zukunftspolster. Karten wie P10 und GP 106 (mit Ausnahme vielleicht der 3 GB Version) werden mittelfristig vor allem durch ihre mangelnde Rechenleistung altern.
Mal ehrlich. Nach der R9 290x 4gb und R9 390x hat man doch schon gesehen das 4GB schon sehr limitierend sind heutzutage.
Linmoum
2016-07-07, 09:47:05
Ihr immer mit euren preis... Der markt (nachfrage/stückzahlen) bestimmt der preis, das sollte man jetzt langsam wissen.
Zudem die 1060 sogar einiges billiger in der herstellung sein dürfte: kleineren chip, weniger speicher, einfacheres PCB etc. das einzige was sicherlich mehr kostet ist der kühler, aber das ist eine bewusste NV entscheidung, zudem die ref. karte sicherlich nie gross im handel verfügbar sein wird.
Von wem der Preis im Endeffekt geregelt wird ist auch völlig egal, da das zählt, was man zahlen "muss".
Grendizer
2016-07-07, 09:51:45
Mal ehrlich. Nach der R9 290x 4gb und R9 390x hat man doch schon gesehen das 4GB schon sehr limitierend sind heutzutage.
Ist das tatsächlich so ? Müßte sich die 480 dann nicht wirklich deutlich mehr von der 3,5 Gb 970 absetzen.
Dural
2016-07-07, 09:52:45
@Linmoum
Ich kann dir das jetzt schon sagen, sollte NV richtig gute stüchzahlen liefern können dürften wir die karte schon um die 250.- sehen, später sogar weniger. wenn nicht sind es wohl 300.- + am anfang.
Aber nein, ich gehe eher nicht davon aus das NV wirklich viel liefern kann.
Undertaker
2016-07-07, 09:55:35
Ist das tatsächlich so ? Müßte sich die 480 dann nicht wirklich deutlich mehr von der 3,5 Gb 970 absetzen.
Es sind und bleiben Ausnahmefälle, oftmals gemessen in sehr grenzwertigen Settings bezogen auf spielbare Frameraten. Und: In vielen Fällen verbraten die Ultra-Settings mal eben 50 oder 100 % mehr Speicher als eine optisch nahezu gleichwertige hoch/sehr hoch Einstellung. Ich denke, ich könnte auch mit 4 GB noch ganz gut auskommen (gilt auch für die RX 480). 2 GB zusätzlich sehe ich dann als zukünftige Reserve.
Digidi
2016-07-07, 09:55:44
Ja in manchen B Klasse Spielen ist das so das mit Vram geschludert wird:
https://www.computerbase.de/2016-02/grafikkarten-speicher-vram-vergleich-4gb-8gb/2/#diagramm-radeon-r9-290x-390x-frametimes-mittelerde-2560-1440
Grendizer
2016-07-07, 09:56:04
@Linmoum
Ich kann dir das jetzt schon sagen, sollte NV richtig gute stüchzahlen liefern können dürften wir die karte schon um die 250.- sehen, später sogar weniger. wenn nicht sind es wohl 300.- + am anfang.
Aber nein, ich gehe eher nicht davon aus das NV wirklich viel liefern kann.
Ich vermute das man das Ding erst ab Mitte September wirklich zu normalen Preisen kaufen kann. Der Launch ist vorgezogen, woher sollen denn die Auslieferungslager bisher gefüllt worden sein.
DarknessFalls
2016-07-07, 10:01:24
@Linmoum
Ich kann dir das jetzt schon sagen, sollte NV richtig gute stüchzahlen liefern können dürften wir die karte schon um die 250.- sehen, später sogar weniger. wenn nicht sind es wohl 300.- + am anfang.
Aber nein, ich gehe eher nicht davon aus das NV wirklich viel liefern kann.
nV wird sich aber nicht die GP104-Preise selbst kaputt machen wollen. 250 Euro gibt's allenfalls für die 3GB-Version und selbst da halte ich das für unwahrscheinlich. Ebenso unwahrscheinlich ist ein echter Hardlaunch mit gefüllten Lagern - der Launch wurde wegen Polaris vorgezogen, woher sollen die Chips kommen?
hesTeR-
2016-07-07, 10:02:37
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39700-amd-radeon-rx-480-8-gb-vs-4-gb.html?start=16
soviel zu 4 und 8gb.... ich glaube 4 gb unter full hd werden noch ne ganze zeit lang reichen...
Dural
2016-07-07, 10:06:28
nV wird sich aber nicht die GP104-Preise selbst kaputt machen wollen. 250 Euro gibt's allenfalls für die 3GB-Version und selbst da halte ich das für unwahrscheinlich. Ebenso unwahrscheinlich ist ein echter Hardlaunch mit gefüllten Lagern - der Launch wurde wegen Polaris vorgezogen, woher sollen die Chips kommen?
Eigentlich habe ich auch gar nichts anderes gesagt ;) Also ich rechne mit 300.-
1070 und 1080 sind übrigens derzeit so teuer wegen der schlechten verfügbarkeit.
Ach ja, wegen dem vorgezogen, da wäre ich mir nicht mal so sicher, NV hat einen GP106 ja schon anfang jahr gezeigt.
Linmoum
2016-07-07, 10:08:30
@Linmoum
Ich kann dir das jetzt schon sagen, sollte NV richtig gute stüchzahlen liefern können dürften wir die karte schon um die 250.- sehen, später sogar weniger. wenn nicht sind es wohl 300.- + am anfang.
Aber nein, ich gehe eher nicht davon aus das NV wirklich viel liefern kann.
Da muss man in der Tat schauen, wie die Verfügbarkeit aussieht.
Momentan würde ich aber, sofern die $249/$299 zutreffen und mit den obligatorischen Early-Adopter-Aufschlägen, von 280€ und 330€/340€ ausgehen
Fliwatut
2016-07-07, 10:25:18
Unter DX11 wird die 1060 sicher schneller sein als die 480, aber unter DX12 wird das wieder anders aussehen. Ja, es wird sicher noch etwas dauern, bis DX12 der Standard ist, aber über kurz oder lang wird er es sein, schon jetzt haben 44% der Steamuser Win10 auf dem Rechner.
Grendizer
2016-07-07, 10:35:02
In DX12 ist doch aber die 980 auch schneller als eine 480, wo soll dann der Nachteil der 1060 entstehen ?:confused:
Screemer
2016-07-07, 10:38:53
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39700-amd-radeon-rx-480-8-gb-vs-4-gb.html?start=16
soviel zu 4 und 8gb.... ich glaube 4 gb unter full hd werden noch ne ganze zeit lang reichen...
so gerne ich ht4u mag, aber ohne frametimes hätten sie sich den test auch sparen können...
In DX12 ist doch aber die 980 auch schneller als eine 480, wo soll dann der Nachteil der 1060 entstehen ?:confused:
in welcher welt auser in der von lara croft und UHD?
boah, ich seh grad das ist ja hwluxx. wie ich blos auf ht4u komme.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39700-amd-radeon-rx-480-8-gb-vs-4-gb.html?start=16
soviel zu 4 und 8gb.... ich glaube 4 gb unter full hd werden noch ne ganze zeit lang reichen...
Zudem hat Nvidia das bessere Speichermanagement. 8 GB wären zwar schön gewesen, aber ein großes Manko sehe ich bei den 6 GB nicht.
Grendizer
2016-07-07, 10:49:20
so gerne ich ht4u mag, aber ohne frametimes hätten sie sich den test auch sparen können...
in welcher welt auser in der von lara croft und UHD?
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index40.php
Und selbst bei Warhammer DX12 ist die 480 nur 74 vs 72 der 980 um hammerharte 2 fps überlegen.
http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,12.html
Grendizer
2016-07-07, 10:53:56
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index40.php
Und selbst bei Warhammer DX12 ist die 480 nur 74 vs 72 der 980 um hammerharte 2 fps überlegen.
http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,12.html
Ich ändere schneller auf ebenbürtig, das trifft es wohl genauer. Wenn die 1060 auf dem Level performt und übertaktbar ist, dann ist sie beim Preis bis 300 Euro evtl. die bessere Karte.
dildo4u
2016-07-07, 10:55:18
Unter DX11 wird die 1060 sicher schneller sein als die 480, aber unter DX12 wird das wieder anders aussehen. Ja, es wird sicher noch etwas dauern, bis DX12 der Standard ist, aber über kurz oder lang wird er es sein, schon jetzt haben 44% der Steamuser Win10 auf dem Rechner.
Pascal verliert in DX12 kaum was im Gegensatz zu Maxwell,daher wäre ich vorsichtig mit solchen Aussagen.
Die 1070 steht z.b bei Hitman deutlich besser da als die 980 Ti,normal sind die Karten ziehmlich gleich auf.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72689-nvidia-geforce-gtx-1070-review-12.html
Screemer
2016-07-07, 10:59:23
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index40.php
es gibt ausreißer in die eine:
http://www.guru3d.com/articles_pages/amd_radeon_r9_rx_480_8gb_review,13.html
https://www.reddit.com/r/Amd/comments/4pjzt8/rx_480_ashes_of_the_singularity_comparisons/
wie in die andere richtung:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72889-radeon-rx480-8gb-performance-review-18.html
http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-5.html
overall vor allem in anderen dx12 titeln, zugegeben gibt nicht viele, ist die tendenz eher gehn 480. wir werden sehen wo die reise hingeht.
deLuxX`
2016-07-07, 11:05:56
es gibt ausreißer in die eine:
http://www.guru3d.com/articles_pages/amd_radeon_r9_rx_480_8gb_review,13.html
https://www.reddit.com/r/Amd/comments/4pjzt8/rx_480_ashes_of_the_singularity_comparisons/
wie in die andere richtung:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72889-radeon-rx480-8gb-performance-review-18.html
http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-5.html
overall vor allem in anderen dx12 titeln, zugegeben gibt nicht viele, ist die tendenz eher gehn 480. wir werden sehen wo die reise hingeht.
Sehe da absolut keine relevanten Tendenzen...weder für die RX480 noch für die GTX980.
Nach dem Durchschauen der Links kann man doch nur zu dem Ergebnis kommen, dass beide Grafikkarten gleich schnell sind!?
Grendizer
2016-07-07, 11:09:41
Sehe da absolut keine relevanten Tendenzen...weder für die RX480 noch für die GTX980.
Nach dem Durchschauen der Links kann man doch nur zu dem Ergebnis kommen, dass beide Grafikkarten gleich schnell sind!?
So würde ich das auch sehen. Und so blöd sich das jetzt in der ganzen Diskussion anhört. nvidia kann Hairworks schneller und ich liebe Witcher 3 ;D
Fliwatut
2016-07-07, 11:20:32
Und selbst bei Warhammer DX12 ist die 480 nur 74 vs 72 der 980 um hammerharte 2 fps überlegen.
Hitman nicht zu vergessen ;) Plus 8GB statt 4GB Speicher. Aber warten wir mal ab, wie sich die 1060 schlägt.
Schaffe89
2016-07-07, 11:25:30
Nvidia greift AMD wohl mit dem Preis an, da wird es vermutlich deutliche Preissenkungen der rx480 geben werden allerdings wohl erst ende July.
https://abload.de/img/desktop2uup1.png
http://videocardz.com/61917/nvidia-geforce-gtx-1060-to-cost-249-299-usd
Founders Edition mal 50 Dollar teurer.
Grendizer
2016-07-07, 11:27:34
Jaaaaaa..... aber wir sprechen ja eigentlich von der 1060 die auf 980 Niveau sein soll und dann 6 Gb Speicher hat. Was für den Einsatzweck der Karte ( Full HD bis 2018) mehr als ausreichend sein wird. Ich spreche nicht wirklich von von der 980 sondern über die VERMUTLICHE Performance der heute wohl erscheinenden 1060 im Vergleich zu der AMD 480.
Grendizer
2016-07-07, 11:28:06
Nvidia greift AMD wohl mit dem Preis an, da wird es vermutlich deutliche Preissenkungen der rx480 geben werden allerdings wohl erst ende July.
https://abload.de/img/desktop2uup1.png
http://videocardz.com/61917/nvidia-geforce-gtx-1060-to-cost-249-299-usd
Founders Edition mal 50 Dollar teurer.
Wow .... das wäre der Hammer.
Schaffe89
2016-07-07, 11:31:16
Für Nvidia sind 10 Dollar Aufpreis zur rx480 wenn die Customs kommen in der Tat nicht wirklich viel.
Cyphermaster
2016-07-07, 11:32:05
Ich vermute das man das Ding erst ab Mitte September wirklich zu normalen Preisen kaufen kann."Normale Preise" sieht man bei allen irgendwie Gaming-fähigen Karten unabhängig von der Verfügbarkeit ohnehin erst einige Zeit nach dem Launch; von "early birds" wird immer ein ordentlicher Eilzuschlag verlangt. Der wird höchstens noch einen Tacken höher, wenn der Nachschub noch nicht am Rollen ist, aber nicht riesig viel.
Für Nvidia sind 10 Dollar Aufpreis zur rx480 wenn die Customs kommen in der Tat nicht wirklich viel.
Wenn man bedenkt, dass alle Custom-Designs der GTX 1070 (auch die günstigeren von Inno3D, Palit und Co.) teurer sind als die FE, mache ich mir da keine großen Sorgen.
Grendizer
2016-07-07, 11:37:24
Für Nvidia sind 10 Dollar Aufpreis zur rx480 wenn die Customs kommen in der Tat nicht wirklich viel.
Ähhh das ist eine verkehrte Welt geradezu ... die AMD 480 ist für mich nur als Custom Variante interessant, weil sie nur mit verbesserter Kühlung übertaktbar ist und entsprechend leise. Allerdings kündigen sich hier die Herstellerdesigns wie z.B, die Sapphire Nitro eher bei 299,- an. Damit wäre die nVidia Karte ja sogar deutlich billiger.
Cyphermaster
2016-07-07, 11:41:06
Für Nvidia sind 10 Dollar Aufpreis zur rx480 wenn die Customs kommen in der Tat nicht wirklich viel.Du übersiehst, daß bei nV effektiv die "FE" dem (nur sprachlich schöngefärbten) MRSP der Referenz-RX480 entspricht, und daher der MRSP der 1060 dem entspräche und damit realistischer zu vergleichen ist, was bei AMD nach der ersten Preisanpassung steht. Die Marketingkonzepte diesbezüglich sind nun mal nicht 1:1.
Wobei natürlich aus Kundensicht sehr positiv wäre, wenn nVidia sich dank AMD-Konkurrenz bezüglich Preispolitik nach unten orientieren würde/müßte.
Linmoum
2016-07-07, 11:41:39
Ähhh das ist eine verkehrte Welt geradezu ... die AMD 480 ist für mich nur als Custom Variante interessant, weil sie nur mit verbesserter Kühlung übertaktbar ist und entsprechend leise. Allerdings kündigen sich hier die Herstellerdesigns wie z.B, die Sapphire Nitro eher bei 299,- an. Damit wäre die nVidia Karte ja sogar deutlich billiger.
Wo genau wären die Customs da "deutlich billiger"? Weil auf einer Folie $249 stehen und Nvidia das als MSRP nennt?
Die können auch $150 nennen, nützt alles nichts, wenn die Preise im Handel deutlich drüber liegen. Die billigste Custom 1070 kostet laut Geizhals 470€, das ist deutlich über der MSRP von $379.
Screemer
2016-07-07, 11:43:59
Sehe da absolut keine relevanten Tendenzen...weder für die RX480 noch für die GTX980.
du hast mich falsch verstanden. die tendenz ergibt sich für mich nicht aus den werten von ashes, sonder aus den beiden anderen spielen hitman und tw:wh.
Grendizer
2016-07-07, 11:44:38
Wo genau wären die Customs da "deutlich billiger"? Weil auf einer Folie $249 stehen und Nvidia das als MSRP nennt?
Die können auch $150 nennen, nützt alles nichts, wenn die Preise im Handel deutlich drüber liegen. Die billigste Custom 1070 kostet laut Geizhals 470€, das ist deutlich über der MSRP von $379.
Verfügbarkeit ist beschissen und treibt die Preise. Aber wer bis Herbst warten kann, wird die Preise nicht mehr zahlen. Wie gesagt ich gehe auch bei der 1060 von einen Paperlaunch und nur kleinen verfügbaren Menge bis Mitte September aus. Danach werden sich die Preise normalisieren.
Hilft niemanden der jetzt unbedingt kaufen will, aber das muss nicht jeder :biggrin:
Edit: Eigentlich können die Hersteller doch die Kühlkonzepte der 960 mehr oder weniger übernehmen, oder ?
Schaffe89
2016-07-07, 11:46:49
Wenn man bedenkt, dass alle Custom-Designs der GTX 1070 (auch die günstigeren von Inno3D, Palit und Co.) teurer sind als die FE, mache ich mir da keine großen Sorgen.
Verfügbarkeit, Händlerbonus, die Preise werden bald ganz sicher fallen.
Linmoum
2016-07-07, 11:53:15
Verfügbarkeit ist beschissen und treibt die Preise. Aber wer bis Herbst warten kann, wird die Preise nicht mehr zahlen. Wie gesagt ich gehe auch bei der 1060 von einen Paperlaunch und nur kleinen verfügbaren Menge bis Mitte September aus. Danach werden sich die Preise normalisieren.
Hilft niemanden der jetzt unbedingt kaufen will, aber das muss nicht jeder :biggrin:
Edit: Eigentlich können die Hersteller doch die Kühlkonzepte der 960 mehr oder weniger übernehmen, oder ?
Keine Frage, irgendwann werden sich die Preise auf normalem Niveau eingependelt haben, das gilt für AMD und Nvidia.
Aber wenn die MSRP für die AIBs bei $249 liegt sagt das erstmal nichts für die tatsächlichen Preise aus... Marketing halt. :tongue: Und bei der 1070 sieht man ja wie gesagt, wie weit die Customs noch von der offiziellen MSRP entfernt sind.
Wenn das von Videocardz stimmt, wird die FE hier in Deutschland zum Start bei ~330€ liegen, womöglich sogar noch etwas höher und da werden auch die Customs starten, bis sie dann Woche für Woche hier und da mal im Preis nach unten gehen.
Cyphermaster
2016-07-07, 11:54:04
Edit: Eigentlich können die Hersteller doch die Kühlkonzepte der 960 mehr oder weniger übernehmen, oder ?Welche "Konzepte" meinst du?
Troyan
2016-07-07, 11:54:56
Wenn man bedenkt, dass alle Custom-Designs der GTX 1070 (auch die günstigeren von Inno3D, Palit und Co.) teurer sind als die FE, mache ich mir da keine großen Sorgen.
Das liegt eher daran, dass die Händler die FE deutlich günstiger als UVP verkaufen. In Amerika z.B. kosten die Custom-GTX1070 Karten deutlich weniger.
$249 für die Custom-Karten ist ein guter Preis. Dank geringem Stromverbrauch können selbst schlechte Kühllösungen gut verwendet werden. AMDs Partner werden da richtig schlucken müssen.
Grendizer
2016-07-07, 11:56:38
Welche "Konzepte" meinst du?
Kühlkörper und Lüfter .. zB, Gigabyte Winforce usw.
dildo4u
2016-07-07, 12:03:52
Wenn man bedenkt, dass alle Custom-Designs der GTX 1070 (auch die günstigeren von Inno3D, Palit und Co.) teurer sind als die FE, mache ich mir da keine großen Sorgen.
Die Customs sind nicht wirklich teuerer ich sehe hier 2€ Unterschied.
https://geizhals.de/?cat=gra16_512&xf=132_8192~1439_GTX+1070&asuch=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&bl1_id=30&sort=p
Screemer
2016-07-07, 12:10:59
sie sollten allerdings laut msrp günstiger sein und außerdem sind es genau 2 karten. darauf wollte er hinaus. msrp sagt erst mal gar nix aus.
Bl@de
2016-07-07, 12:13:05
Für Nvidia sind 10 Dollar Aufpreis zur rx480 wenn die Customs kommen in der Tat nicht wirklich viel.
10$? Eher 60$. Ich habe starke Zweifel daran, dass gute Partnerkarten für weniger als 299$ verkauft werden (siehe 1070/1080).
Disco_STFU
2016-07-07, 12:13:24
Ui die Fools Edition gibts für schmale 299 $ vor Steuern. Die ist sogar limited! zugreifen Jungs!
Troyan
2016-07-07, 12:14:13
Die günstigste Gigabyte-GTX1070 kostet in Amerika $399. Also $50 weniger als die FE.
Unsere angeblichen 419€ für die AIB Versionen scheinen wohl falsch zu sein. Da sollte mal jemand bei nVidia nachfragen...
Grendizer
2016-07-07, 12:14:42
sie sollten allerdings laut msrp günstiger sein und außerdem sind es genau 2 karten. darauf wollte er hinaus. msrp sagt erst mal gar nix aus.
Gebe ich dir zum aktuellen Stand absolut recht. Freuen wir uns doch als Käufer, da wird sich was beim Preis bewegen. Ich vermute das wir bei AMD bald die 4 GB Variante für unter 200 Euro sehen werden und die 8 Gb Variante auch der Customdesigns eher bei 250 als bei 300. Wo nVidia dann rauskommt schauen wir dann später im Jahr.
Grendizer
2016-07-07, 12:17:35
10$? Eher 60$. Ich habe starke Zweifel daran, dass gute Partnerkarten für weniger als 299$ verkauft werden (siehe 1070/1080).
Kühler und Lüfter dürften nicht komplizierter sein als bei der 960, die TDP ist doch die gleiche. Weiss man wie groß der Chip im vergleich zur 960 sein wird ? Braucht das Ding so ein hochwertiges PCB wie bei der 480 ? Ich denke nicht. Warum sollten die dann teurer sein. Die Founders gibt es doch nur um die schlechte Verfügbarkeit zu kaschieren,
dildo4u
2016-07-07, 12:21:22
sie sollten allerdings laut msrp günstiger sein und außerdem sind es genau 2 karten. darauf wollte er hinaus. msrp sagt erst mal gar nix aus.
Das Problem ist die 1070 hat keine Konkurenz und NV kann nicht genug Chips liefern,man kann als NV Fan nur hoffen das die 480 einige 1060 Käufer weg schnappt und dadurch die Verfügbarkeit der 1060 besser ist.
GTX 1060 G1 angekündigt.
http://videocardz.com/61934/gigabyte-announces-geforce-gtx-1060-g1-gaming
Grendizer
2016-07-07, 12:30:29
Ich denke das der Plan von AMD auch nicht wirklich zum Erfolg führen wird. Man hat 6 Wochen in denen man sehr viele 480 an den Mann bringen wird, aber im High-End Bereich ist man dann seit Monaten im Hintertreffen und nVidia und Partner können ihre limitiert verfügbaren Karten zu viel zu hohen Preisen verkaufen.
Durch die Leaks am Tag vor der 480 Verkaufstart zögern dann doch einige ihren Kauf hinaus und warten bis zumindest klar ist, was die 1060 kann und was sie kosten wird.
Zum Glück gibt es gerade aktuell nur wenige aktuelle Spiele, die den Verkauf von Hardware begünstigen würden. Wenn man gerade die Pain eines Kaufes wegen eines absoluten Highlights hätte, wäre es vieleich schwer stillzuhalten.
und dazu kommt noch .... es ist zumindest im Kalender Sommer und manche Leute sind dann tatsächlich eher draussen als am zocken.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.