PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1060: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 4 5 [6] 7

dildo4u
2016-08-30, 09:31:29
Wie gesagt die 480 kackt auch ab mit vollen 4GB.

http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/RX-480-4GB-Test-Review-1200675/

Das Game wirft auch ein Warnung raus wenn man Very High Texturen einstellt das 4GB nicht reichen.

Iruwen
2016-08-30, 09:46:11
Es gibt auch solche Entwickler.

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Doom-Vulkan-Asynchronous-Compute-1202335/

PCs sind keine Konsolen.

RoughNeck
2016-08-30, 09:52:21
Tomb Raider bringt einfach 4GB Karten zum platzen wenn die Texturen auf Very high stehen, sollte mittlerweile auch jeder AMD Fan wissen bzw. bemerkt haben.
Verstehe die Aufregung nicht, genau deswegen hat AMD ja den 8GB Standard eingeführt in der Mittelklasse.

dargo
2016-08-30, 10:16:19
PCs sind keine Konsolen.
Du solltest vielleicht mal alles lesen. :rolleyes:
Asynchronous Compute wird momentan ausschließlich auf Radeons eingesetzt, sowohl in der PC- als auch in den Konsolen-Versionen.

Hier hast du ein Beispiel wie es bei der Total War Engine vorangeht.
http://gpuopen.com/anatomy-total-war-engine-part-4/

Da wurden auf einer Fury X bisher 2ms nur durch Optimierung der Partikelsimulation und SSAO eingespart.

Wie gesagt die 480 kackt auch ab mit vollen 4GB.

http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/RX-480-4GB-Test-Review-1200675/

Das Game wirft auch ein Warnung raus wenn man Very High Texturen einstellt das 4GB nicht reichen.
Hast du denn überhaupt verstanden worum es ursprünglich ging? Es ging um das Märchen von Schaffe NV hätte ein besseres Speichermanagement als AMD. Raff sagt in deinem verlinkten Video, dass die Ruckler kein generelles Problem in diesem Spiel der Radeons sind sondern genau so auch auf 4GB Geforces auftreten. Daraufhin kommst du mir mit pcper.

dildo4u
2016-08-30, 10:32:54
Es wurden doch die 460 mit der 950 verglichen,warum sollte sich das Verhalten bei 4GB Karten ändern?Ist eh massig OT hier Nvidia hat mal wieder genau die richtig Menge für die 1060 gefunden,wo sie massig mher Kohle als AMD machen und es überall ohne Probleme läuft.

dargo
2016-08-30, 10:35:50
Oh ja... die machen massig Kohle mit 6GB 8Gbps GDDR5 vs. 8GB 7Gbps GDDR5 wo schon 4GB vs. 8GB bei der RX470 30-35€ beim Endkundenpreis ausmachen. dildo on the best wieder. :facepalm:

captain_drink
2016-08-30, 10:38:23
Du bist ein ganz Großer. :comfort:
http://www.tomshardware.de/amd-radeon-rx-470-grafikkarte-asus,testberichte-242165-7.html

AotS @DX12 = 141W
Doom @Vulkan = 144W

Ich habe mich offensichtlich bei den 30W geirrt, es ist etwas weniger.

Und wo sind die entsprechenden Werte der 1060? dargo'sche Schätzung?

Morale
2016-08-30, 10:43:49
Hab jetzt auch ne 1060 und muss sagen: geil wie kühl sie bleibt. Zocke zwar nur wow aber da läuft zu 70 Prozent selbst im Spiel der Lüfter nicht. Und wenn dann nur marginal

Rancor
2016-08-30, 10:44:40
Dargo ey ;D Wieviel Kohle bekommst du von AMD eigentlich dafür? WIe kann man so fanatisch sein.. Das hier ist der 1060er Fred.. Es reicht nun langsam

dargo
2016-08-30, 10:45:12
Und wo sind die entsprechenden Werte der 1060? dargo'sche Schätzung?
Muss man dir alles vorkauen?
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-7.html

Dargo ey ;D Wieviel Kohle bekommst du von AMD eigentlich dafür?
Mehr als von Nvidia wo ich noch Geforces im Rechner hatte. :P

Schnoesel
2016-08-30, 10:46:23
Dargo ey Wieviel Kohle bekommst du von AMD eigentlich dafür? WIe kann man so fanatisch sein.. Das hier ist der 1060er Fred.. Es reicht nun langsam

Finde ich gut normalerweise wird ein AMD Thread dafür missbraucht. ;D

Screemer
2016-08-30, 10:51:14
Dargo ey ;D Wieviel Kohle bekommst du von AMD eigentlich dafür? WIe kann man so fanatisch sein.. Das hier ist der 1060er Fred.. Es reicht nun langsam
Kannst dir ja mal den 480 "review-thread" ansehen was da so gepostet wurde. Scully, dildo, troyan, und Konsorten waren dort Dauergäste.

RoughNeck
2016-08-30, 11:01:41
Muss man dir alles vorkauen?
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-7.html

Metro 4K, fast 50W unterschied.
Was ist da jetzt toll für AMD? Die Pascal Karten kann man ganz leicht noch sparsamer bekommen ohne Leistungseinbußen fürchten zu müssen, bei den 470 / 480 Karten geht das nur mit Einbußen in der Leistung (sind wenn dann nicht hoch aber dennoch).

Lurtz
2016-08-30, 11:53:44
Von praktisch alle sollte man vielleicht nur reden, wenn man davon Ahnung hat.
Ist ja schön dass Unity in Version 5.x endlich ein PC-Standardfeature unterstützt. Ändert auch nichts daran dass es da draußen Massen von Titeln gibt, die keinen exklusiven Fullscreen haben und wo das so bleiben wird.

Für ältere Titel
Super Lösung die API runterzustufen.
Gerade mal bei Firewatch probiert, funktioniert auch nicht. Wie zu erwarten bei so "tollem" Support.

Raff
2016-08-30, 11:54:40
Metro 4K, fast 50W unterschied.
Was ist da jetzt toll für AMD? Die Pascal Karten kann man ganz leicht noch sparsamer bekommen ohne Leistungseinbußen fürchten zu müssen, bei den 470 / 480 Karten geht das nur mit Einbußen in der Leistung (sind wenn dann nicht hoch aber dennoch).

Huh? Man kann Radeons seit Äonen unabhängig vom Kerntakt undervolten. Wenn überhaupt, dann steigt der Boost dadurch (näher an den eingestellten Höchstboost, da das Powerlimit durch Undervolting seltener limitiert). Neu ist das nur bei Nvidia, seit Pascal kann man hier vernünftig undervolten, anstatt das indirekt über eine Senkung des Powerlimits zu machen bzw. eine BIOS-Mod durchzuführen.

MfG,.
Raff

Achill
2016-08-30, 12:01:57
Finde ich gut normalerweise wird ein AMD Thread dafür missbraucht. ;D

:cool:

Es wurden doch die 460 mit der 950 verglichen,warum sollte sich das Verhalten bei 4GB Karten ändern?Ist eh massig OT hier Nvidia hat mal wieder genau die richtig Menge für die 1060 gefunden,wo sie massig mher Kohle als AMD machen und es überall ohne Probleme läuft.

Mit der Aussage wäre ich vorsichtig, Deus Ex Menkind Devided hat bei mir in 1440p mir Ultra (ohne CHS) VRam Spitzen bis ~7.3GB. RotTR braucht auch VRam wie Hölle, finde das ist schon wieder das Manko der 1060-6GB und zeigt eigentlich schon wieder das Limit am Horizont auf. Die Leistung für 1440p ist ja da, aber VRam geht schon wieder aus. Davon profitiert nur einer, NV, wenn die 1060 Käufer dann in ~1-2 Jahren upgraden.

Ich empfehle jetzt schon allen Freunden schon immer eine 8GB GPU (egal ob NV oder AMD) ...

captain_drink
2016-08-30, 12:05:24
Muss man dir alles vorkauen?
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-7.html

Und die Werte für Doom@Vulkan und AotS@DX12 darf ich mir im Adam-und-Eva-Stil aus den Rippen schneiden?

dargo
2016-08-30, 12:09:59
Finde ich gut normalerweise wird ein AMD Thread dafür missbraucht. ;D
Das wird dann gerne übersehen was Schaffe & Co in den jeweiligen Threads veranstalten.

Metro 4K, fast 50W unterschied.
Was ist da jetzt toll für AMD?
Ich weiß nicht ob du Tomaten auf den Augen hast, aber gerade in Metro trennen die GTX1060 und RX470 25W.

Und die Werte für Doom@Vulkan und AotS@DX12 darf ich mir im Adam-und-Eva-Stil aus den Rippen schneiden?
Frage igor wenn du mehr Details brauchst. Erst vor kurzen vermisst er mehrere Games und nicht nur Metro. Wenn schon die RX470 in AotS (DX12) 3W weniger verbraucht als in Metro (DX11) und Doom (Vulkan) wird die GTX1060 nicht auf magische Weise viel weniger brauchen. Oder willst du mit mir jetzt 10 Seiten lang über +/-5W schwadronieren? Sorry, da habe ich besseres zu tun.

scully1234
2016-08-30, 12:20:17
Muss man dir alles vorkauen?
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-7.html

Allein schon das die 1060 sich mit der 470 in Low Level messen muss, als unumstößliches Faktum hinzustellen, damit man dann mit deren Energieaufnahme was ins "rechte" Licht rücken kann ist...

Ach wieso noch weiter ausholen , es sieht doch jeder das Cherry Picking^^

dargo
2016-08-30, 12:21:19
Nicht jeder, nur die grünen Fanatiker.

captain_drink
2016-08-30, 12:23:01
Frage igor wenn du mehr Details brauchst. Erst vor kurzen vermisst er mehrere Games und nicht nur Metro. Wenn schon die RX470 in AotS (DX12) 3W weniger verbraucht als in Metro (DX11) und Doom (Vulkan) wird die GTX1060 nicht auf magische Weise viel weniger brauchen. Oder willst du mit mir jetzt 10 Seiten lang über +/-5W schwadronieren? Sorry, da habe ich besseres zu tun.

Ich brauche nicht mehr Details, schließlich war nicht ich derjenige, der großspurig auf die Differenz in der Leistungsaufnahme mit explizitem Verweis auf Low Level angekommen ist.
Solche Aussagen wirken gleich ein ganzes Stück weniger ideologisch, wenn sie auf nachweisbaren Quellen beruhen...

RoughNeck
2016-08-30, 12:25:57
Ich weiß nicht ob du Tomaten auf den Augen hast, aber gerade in Metro trennen die GTX1060 und RX470 25W.


Frage igor wenn du mehr Details brauchst. Erst vor kurzen vermisst er mehrere Games und nicht nur Metro. Wenn schon die RX470 in AotS (DX12) 3W weniger verbraucht als in Metro (DX11) und Doom (Vulkan) wird die GTX1060 nicht auf magische Weise viel weniger brauchen. Oder willst du mit mir jetzt 10 Seiten lang über +/-5W schwadronieren? Sorry, da habe ich besseres zu tun.

Wem juckt eine 470?
Die 1060 mit 6GB ist der Gegner der 480 und da sind es gute 50W, vom OC reden wir lieber nicht, dann fängt die GCN Architektur wieder ins saufen an.
Für eine 14nm Architektur schon fast lächerlich, oder willst mir weismachen dass eine RX 480 auf einmal nur paar W mehr braucht als eine 1060?
Das kannst dir sparen, ich weiß was die Karten brauchen und die neuen Radeon Karten sich bei weiten nicht so effizient wie die Pascal Karten.

Nimm mal deine rote Brille ab.

dargo
2016-08-30, 12:26:59
Ich brauche nicht mehr Details...
Dann sag gleich, dass du kein Interesse an einer Messung hast sondern nur wieder persönliche Angriffe verfolgst.

Wem juckt eine 470?

Diejenigen die das Pendant zur GTX1060 6GB unter low level suchen.


Die 1060 mit 6GB ist der Gegner der 480 und da sind es gute 50W, vom OC reden wir lieber nicht, dann fängt die GCN Architektur wieder ins saufen an.

OC zieht nicht. Das OC-Potenzial von GP106 ist lächerlich. Laut igor boostet die FE schon auf 1850Mhz im Schnitt. Mit 2Ghz hast du gerade mal +8%, mit 2,1Ghz 13%. Kaum der Rede wert, zumal das eh nie komplett bei den bandbreitenlimitierten GPUs durchschlägt.

captain_drink
2016-08-30, 12:34:53
Dann sag gleich, dass du kein Interesse an einer Messung hast sondern nur wieder persönliche Angriffe verfolgst.

http://www.reactiongifs.us/wp-content/uploads/2013/09/hehehehehe_duck.gif

dildo4u
2016-08-30, 12:37:11
Tomb Raider und Ashes sind auch Low Level,es ist wie immer es gibt Games die gut auf AMD und welche die besser auf NV laufen egal welche API genutzt wird.Bei Ashes gibt auch kein großartigen 480 Vorteil mher und das ist ein reines AMD Game.

http://abload.de/img/gtx-1060-review-78zbshc.jpg

http://abload.de/img/gtx-1060-review-816qsmd.jpg

RoughNeck
2016-08-30, 12:41:06
Diejenigen die das Pendant zur GTX1060 6GB unter low level suchen.

;D
Wenn du es glaubst, lass ich dich gern daran glauben.
Frag doch gleich die Su nach einer Gehaltserhöhung.

Wenn ich mir DX12 so ansehe, sehr gute API.
http://wccftech.com/rx-480-gtx-1060-dx12-vulkan-tested/

Man achte auf die Frametimes. Keine Ahnung warum sich die AMD Fans so daran klammern, so möchte ich nicht zocken.

dargo
2016-08-30, 13:14:14
Tomb Raider und Ashes sind auch Low Level,es ist wie immer es gibt Games die gut auf AMD und welche die besser auf NV laufen egal welche API genutzt wird.Bei Ashes gibt auch kein großartigen 480 Vorteil mher und das ist ein reines AMD Game.

http://abload.de/img/gtx-1060-review-78zbshc.jpg

http://abload.de/img/gtx-1060-review-816qsmd.jpg
Und die anderen 4 Games werden wieder gekonnt von dildo ignoriert. :rolleyes:
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Schade ist nur, dass MS es mit dem UWP-Mist verkackt hat. Sonst würde man den Games mehr Beachtung schenken. Dafür kann aber natürlich die API nichts.

Hakim
2016-08-30, 16:01:29
Wie hoch geht ihr eigentlich bei euren 1060ern mit dem Vram Takt? Ich hatte ihn anfangs mit 2200 MHz laufen lassen und seit heute mit 2250 MHz. Das wären dann 216GB/s was schon nahe am Stock GTX980 mit ihren 256 Bit bei 224GB/s ist. Ich denke ich lasse es erstmal so.

FatBot
2016-08-30, 16:05:18
Bitte im 1060 Thread keine Fragen zur 1060 stellen, dass stört hier nur das LL-HL--Glaskugel-Kleinkrieggefüge.

@Hakim: Du hast doch jetzt die Non-SC, wie zufrieden bist Du mit der Lautstärke?

Hakim
2016-08-30, 16:12:24
@Hakim: Du hast doch jetzt die Non-SC, wie zufrieden bist Du mit der Lautstärke?

Ich hab die normale Jetstream, nicht die Super Version. Sind aber vermutlich baugleich, genau so wie bei Phoenix und Phoenix GLS.

Ich bin sehr zufrieden, und ehrlich gesagt fand ich die Stock Lüftersteuerung viel zu zurückhaltend. Sie war für meinen Geschmack zu sehr auf Silence eingestellt. Hab mir ein eigenes Lüfter Profil erstellt.

FatBot
2016-08-30, 16:22:08
Ah, verdammt, hatte Dich mit Hacki_P3D verwechselt, der hatte sich wohl die kurze EVGA Non SC bestellt (die Namen sind aber auch so ähnlich...)
Na, viel Spaß mit der Karte.

Schaffe89
2016-08-30, 17:31:15
OC zieht nicht. Das OC-Potenzial von GP106 ist lächerlich.

Das OC Potenzial ist, was die erreichte Reale Mehrleistung angeht, ziemlich ähnlich.
Ich betreibe meine Gainward und Zotac Mini beide stabil mit einem Takt von >2100mhz und 2250mhz Ramtakt.
In beiden Fällen kommen im Vergleich zur Stock Variante dabei ca 15% mehr Performance heraus. Verbrauchsanstieg liegt dabei bei maximal 16% mehr, also ca 138 Watt.

Referenzdesigns der rx480 takten meistens mit etwa 1200 mhz @ stock.
Wenn du hier 15% draufrechnest, befindest du dich bei 1380 mhz, am oberen Ende der Fahnenstange bei einem abnormalen Verbrauch von >200 Watt, eher etwa 225 Watt.

Ein besseres OC Potenzial bei einer rx480 kannst du vergeblich versuchen zu propagieren, weil es die Tests nicht hergeben. Igor von Toms Hardware brachte die Gaming sogar auf 2154 mhz stabil, ich lass meine beiden auf 2114 mhz rennen, das ist alles in einem gleichwertigen Rahmen, natürlich leider mit einer Verbrauchsexplosion bei AMD, weil es AMD mit den Stocktaktraten wiedermal weit übertrieben hat.

De rx480 war ganz klar eine 1050 bis 1100mhz Karte und auf die GTX 970/r9 290 angesetzt, niemals auf eine 390/390x oder GTX 980.

Iruwen
2016-08-30, 21:32:15
Battlefield 1 Benches: http://www.gamestar.de/spiele/battlefield-1/artikel/battlefield_1_open_beta,53468,3301876.html

Rancor
2016-08-30, 21:34:30
Hahaha AMD ey :D

Andi Y
2016-08-30, 21:38:58
Wie hoch geht ihr eigentlich bei euren 1060ern mit dem Vram Takt? Ich hatte ihn anfangs mit 2200 MHz laufen lassen und seit heute mit 2250 MHz. Das wären dann 216GB/s was schon nahe am Stock GTX980 mit ihren 256 Bit bei 224GB/s ist. Ich denke ich lasse es erstmal so.

2257, obwohl die ja eh Taktsprünge von mehreren Mhz macht.

-/\-CruNcher-/\-
2016-08-31, 21:28:37
;D
Wenn du es glaubst, lass ich dich gern daran glauben.
Frag doch gleich die Su nach einer Gehaltserhöhung.

Wenn ich mir DX12 so ansehe, sehr gute API.
http://wccftech.com/rx-480-gtx-1060-dx12-vulkan-tested/

Man achte auf die Frametimes. Keine Ahnung warum sich die AMD Fans so daran klammern, so möchte ich nicht zocken.


Das sind keine Render Frametimes das ist schrott extremster Kern Shrott von jemanden der überhaupt keinen blasen schimmer hat was er da eigentlich macht.

OC Karten sind meistens nicht auf Effizienz ausgelegt sondern billig in der Herstellung zu sein Maximalen Gewinn zu fahren und in Balken Benchmarks gut da zu stehen, dafür lügt betrügt man die Reviewer und Käufer auch teils das sich die Balken biegen und gaukelt ihnen vor wie wichtig 10 fps mehr sind absoluter bullshit wie die 10 fps ankommen ist wichtig nicht das es 10 in einem Balken mehr sind ;)

In dem Bezug muss man auch mal HT4u nochmal rauskramen die jetzt angefangen haben einen sehr interessanten Bios Datenabgleich darzustellen in ihren neuen tests (begrüsenswert) ;)


Hier Igor seine Daten denen vertraue ich 10000000000000x mehr als irgend einem daher gelaufenen möchtegern Reviewer ohne Grundwissen.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YL1MvNjAxMjY0L29yaWdpbmFsL2FzaGVzLXNtb290 aG5lc3MucG5n/r_600x450.png

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YL1IvNjAxMjYzL29yaWdpbmFsL2FzaGVzLWZ0b3Iu cG5n/r_600x450.png


Übersichtlichkeit bei der Graph anzeige ist leider scheisse besser wäre es gewesen eine Transparente sicht zu wählen überschneidungen werden so hier von den höheren fluktuationen total überdeckt und lassen sich auch nicht mehr rekonstruieren ;)

Zumindest in Ashes of the Singularity schneidet AMD sehr gut ab. Die RX 480 holt sich im Testfeld der Midrange-Grafikkarten den ersten Platz und liegt somit noch vor Nvidias GTX 1060 in der Founders Edition. Darüber hinaus liegt die neue Radeon RX 470 nur knapp hinter der GeForce GTX 970, für die aktuell immer noch zumeist 240 bis 260 Euro fällig werden.


Hier sieht man auch nochmal sehr nice wieso die GTX 960 damals schon Kern Schrott war und Nvidia erfolgreich viele auf die GTX 970 buxieren konnte, zumindestens die die Ahnung hatten ausser von dem netten 3.5 GB trick selbst getäuscht wurden, Watch Dogs war hier das koriosum mit seiner AMD Performance bis die 3.5 GB aufflogen ;)

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YLzIvNjAxMjM4L29yaWdpbmFsL2Rvb20tZnRvci5w bmc=/r_600x450.png


http://techreport.com/r.x/rx470review/dv-163.png

Damals war Igor aber noch nicht so weit nun Zeige ich dir wieso ich nicht auf die GTX 960 bin sondern 100€ mehr investiert habe auf die GTX 970, wie gesagt igor war da noch nicht so weit in die Zukunft zu blicken ;)


Das hier war Ausschlaggebend für die GTX 970 Entscheidung gegen die GTX 960 (bevor diese aber released wurde Nvidias Strategie war von vornerein ersichtlich)

http://techreport.com/r.x/geforce-gtx-980/dogs-16ms.gif

http://techreport.com/r.x/geforce-gtx-980/c3-16ms.gif

http://techreport.com/r.x/geforce-gtx-960/fc4-16ms.gif

http://techreport.com/r.x/geforce-gtx-960/ai-16ms.gif


Kein Reviewer bis jetzt hat sich auch mal näher angeschaut welche Option eigentlich die höchste last für Polaris bei Tomb Raider 2016 erzeugt.

http://techreport.com/r.x/rx470review/rdx12-16.png

Franconian
2016-09-01, 12:13:02
So, hab mir jetzt mal die EVGA für 253,99 bei Digitalo bestellt, günstiger wirds wohl erstmal nicht mehr.

Gibt einen 5 € Gutschein für Digitalo: messevorteil16

Mike
2016-09-01, 13:43:33
Hier Igor seine Daten denen vertraue ich 10000000000000x mehr als irgend einem daher gelaufenen möchtegern Reviewer ohne Grundwissen.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YL1MvNjAxMjY0L29yaWdpbmFsL2FzaGVzLXNtb290 aG5lc3MucG5n/r_600x450.png

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YL1IvNjAxMjYzL29yaWdpbmFsL2FzaGVzLWZ0b3Iu cG5n/r_600x450.png

Man sieht auch gut, dass die R280X 3 GB im Vergleich zu den 2-GB-Nvidia-Karten bei den Frametimes und deren Varianz schlechter abschneidet. Ist das womöglich wieder ein Hinweis auf besseres Speichermanagement bei Nvidia? :)

So, hab mir jetzt mal die EVGA für 253,99 bei Digitalo bestellt, günstiger wirds wohl erstmal nicht mehr.
Der Preis sieht ja echt gut aus. Ich war nur etwas erschrocken, als ich gesehen habe, wie beschnitten der Kühler gegenüber dem SC-Kühler ist, da fehlt nicht nur die Heatpipe. Berichte mal bitte, wenn du sie hast.

Franconian
2016-09-01, 13:49:45
Der Preis sieht ja echt gut aus. Ich war nur etwas erschrocken, als ich gesehen habe, wie beschnitten der Kühler gegenüber dem SC-Kühler ist, da fehlt nicht nur die Heatpipe. Berichte mal bitte, wenn du sie hast.

Ja, deswegen habe ich auch 2-3 Tage überlegt, was mich nun eine Woche längere Lieferzeit kostet.

Aber der Kühler scheint überhaupt keine Rolle zu spielen wenn man nach Hardwareluxx geht:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39974-evga-geforce-gtx-1060-gaming-im-kurztest.html?start=5

Die SC ist sogar 2 Grad wärmer? Und überhaupt, die anderen 1060 von Gigabyte oder Zotac werden alle heißer. Sogar die Nvidia Founders Edition wird 14 Grad heißer!

Das zeigt mir: Auf den Kühler kann man pfeifen, alles im Rahmen.

Bösewicht
2016-09-01, 14:18:36
Man sieht auch gut, dass die R280X 3 GB im Vergleich zu den 2-GB-Nvidia-Karten bei den Frametimes und deren Varianz schlechter abschneidet. Ist das womöglich wieder ein Hinweis auf besseres Speichermanagement bei Nvidia? :)
Ich würde fast ehr noch darauf tippen das es generell ehr daran liegen könnte das Nvidia Chips effizienter Arbeiten zumindest hab ich noch ältere Vergleichswerte im Kopf wo ATI immer mehr von allen gebraucht hat um mithalten zu können, im Prinzip auch das selbe wie in der CPU Abteilung, mehr Cache Bedeutet nicht Automatisch schneller als die Konkurrenz und auch mehr Speicher ist nicht gleich immer besser, ich bin mir jedenfalls sicher das auch im Mainstream inzwischen bekannt sein sollte das mehr Speicher nicht Automatisch die Beste Karte Bedeutet.

siegemaster
2016-09-01, 15:00:26
Ich habe mir jetzt die Windforce 2 OC bestellt, werde Berichten wenn die Karte da ist ^^

fulgore1101
2016-09-01, 16:36:19
Im Mindstar gibts die Gigabyte 1060 Windforce OC grade für 269€.
Taugt das Kühlsystem denn was? Zerofan Modus, vielleicht bekannte Probleme, wie stehts um die Lautstärke?

Winnie
2016-09-01, 19:20:18
Im Mindstar gibts die Gigabyte 1060 Windforce OC grade für 269€.
Taugt das Kühlsystem denn was? Zerofan Modus, vielleicht bekannte Probleme, wie stehts um die Lautstärke?

Kann ich Dir nächste Woche sagen, hab die da gestern geordert :)

/edit
ZeroFan geht wohl:
TUXACia1byQ

-/\-CruNcher-/\-
2016-09-01, 23:57:07
Man sieht auch gut, dass die R280X 3 GB im Vergleich zu den 2-GB-Nvidia-Karten bei den Frametimes und deren Varianz schlechter abschneidet. Ist das womöglich wieder ein Hinweis auf besseres Speichermanagement bei Nvidia? :)


Der Preis sieht ja echt gut aus. Ich war nur etwas erschrocken, als ich gesehen habe, wie beschnitten der Kühler gegenüber dem SC-Kühler ist, da fehlt nicht nur die Heatpipe. Berichte mal bitte, wenn du sie hast.


Das kannst du so auch nicht 100% sagen das Problem ist das Reviewer generel zu ungenau testen, weil sie garnicht die Zeit dazu hätten sich richtig intensiv damit zu beschäftigen, die daten geben meistens nur Aufschlüsse über das jeweilige Preset mehr aber auch nicht ;)

Hochauflößender Datenabgleich zwischen Reviewern ist generel überhaupt nicht effizient möglich und miestens eher zum Haare raufen ;)

Nvidia hat schon ein ordentliches Windows Memory Management innerhalb WDDMs keine Frage und mit der GTX 970 haben sie auch bewiesen was vor allem ihre DCE R&D im stande ist zu kompensieren seit Maxwell.

Nvidia ist auch sehr bedacht vor allem den VRAM Hunger immer so niedrieg wie möglich zu halten innerhalb des Gesamtsystems da investieren sie ordentlich auf Software seite was ihnen dann hier auf Hardware seite immer wieder den Lead mit weniger VRAM einfährt und gleichzeitig ihre Hardware Kosten senkt und den Stromverbrauch niedrieg hält ;)

Raff
2016-09-02, 00:08:21
Ja, deswegen habe ich auch 2-3 Tage überlegt, was mich nun eine Woche längere Lieferzeit kostet.

Aber der Kühler scheint überhaupt keine Rolle zu spielen wenn man nach Hardwareluxx geht:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39974-evga-geforce-gtx-1060-gaming-im-kurztest.html?start=5

Die SC ist sogar 2 Grad wärmer? Und überhaupt, die anderen 1060 von Gigabyte oder Zotac werden alle heißer. Sogar die Nvidia Founders Edition wird 14 Grad heißer!

Das zeigt mir: Auf den Kühler kann man pfeifen, alles im Rahmen.

Nee, nee, nee. Die EVGA Gaming ist wesentlich schwächer gekühlt als die EVGA SC Gaming. Letztere kommt super mit ihren 120 Watt klar, Erstere nicht – sie muss sich nicht nur wegen der TDP, sondern auch wegen der Temperatur drosseln und wird ein ganzes Eck lauter. Einen kompletten Test gibt's ab morgen digital in der PCGH 10/2016 (8× Geforce GTX 1060/6G und 6× Radeon RX 480 im Vergleich) (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/). :) Einmal kurz 3DMark laufen lassen reicht nicht, um die Unterschiede zwischen den Karten herauszuarbeiten. Das ist eine Heidenarbeit, vor allem bei der aktuellen Polaris-Genereration, die oft mehrere Betriebsmodi (BIOSe) besitzt.

MfG,
Raff

Franconian
2016-09-02, 00:20:54
Warum sagt dann der HWLuxx Test etwas anderes bezüglich Temperatur und Lautstärke?

Mike
2016-09-02, 00:23:20
Nee, nee, nee. Die EVGA Gaming ist wesentlich schwächer gekühlt als die EVGA SC Gaming. Letztere kommt super mit ihren 120 Watt klar, Erstere nicht – sie muss sich nicht nur wegen der TDP, sondern auch wegen der Temperatur drosseln und wird ein ganzes Eck lauter.
Der Unterschied war ja zu befürchten - mich wundert, dass die bisherigen Tests das nicht feststellten. Danke für die Info!

Hermelinmaster
2016-09-02, 01:42:33
So, ich musste jetzt auch bei der Gigabyte 1060 zuschlagen. Meine 570 hatte rosa Schnee und weiße horizontale Linien angezeigt, auch schon im UEFI Post. Zumindest hoffe ich es war die 570... Morgen sollte ich noch schnell leihweise und übergangshalber eine 970 bekommen. Irgendwelche Testwünsche?
(Btw. Vorher habe ich noch Amazon nach 480 8GB, 460 4GB und andere 1060 6GB durchsucht, aber 80-90% waren nicht vorrätig und sollen erst im September/Oktober wieder lieferbar sein (Spaßeshalber auch die 1070 die auch oftmals nicht lagernd gelistet ist und noch ein kräftiges Preisplus gegenüber anderen Händlern haben). Meine lokalen MediaMärkte hatten auch nichts davon auf Lager. Habe das Gefühl, dass ich auch noch Early-Adopter-Tax zahlen musste...
Die Dame am Telefon meinte ich solle die AMGs (sic!) doch bitte buchstabieren (meinte wohl das Arrrr-Ex). Aber 460 und 480 seien überhaupt nicht gelistet?

Chronicle
2016-09-02, 01:47:16
Meine Gigabyte soll angeblich morgen ankommen. Dann kann ich hoffentlich etwas dazu sagen :D

Chronicle
2016-09-02, 14:08:48
Ganzen Vormittag daheim gewesen und Hermes schreibt ins Tracking: "13:26:29 Der Empfänger wurde nicht angetroffen."

Telefonsupport hat sogar einfach nur gesagt, dass da ein Mitarbeiter wohl zu faul war auszusteigen. Wtf :confused:
Ich liebe diesen Drecksverein...

Hacki_P3D
2016-09-02, 14:34:05
Sowas ist immer ärgerlich :/ Selber auch schon erlebt, aber immer mit DHL... Hermes ist hier immer top gewesen.
Meine kommt morgen im Hermes Shop an :)

Chronicle
2016-09-02, 15:02:41
Hätte wohl auch einfach mal zum Hermes Shop um die Ecke bestellen sollen. Naja hinterher ist man immer schlauer.

Dimon
2016-09-02, 15:58:24
Ganzen Vormittag daheim gewesen und Hermes schreibt ins Tracking: "13:26:29 Der Empfänger wurde nicht angetroffen."

Telefonsupport hat sogar einfach nur gesagt, dass da ein Mitarbeiter wohl zu faul war auszusteigen. Wtf :confused:
Ich liebe diesen Drecksverein...

Genau dasselbe Problem mit hermes, immer wieder sowas erlebt, DHL dagegen immer Top...

Gruß

Hermelinmaster
2016-09-02, 16:11:47
Hermes und DHL sind bei uns eigentlich oft unproblematisch. Aber dpd macht grundsätzlich Probleme ;-)

Franconian
2016-09-02, 20:34:30
Jetzt wo es die Gigabyte Windforce 2x für den gleichen Preis wie die EVGA Non-SC gibt, komme ich wieder ins grübeln welche besser ist. Das Kühlkonzept spricht für die Gigabyte, aber die EVGA schneidet irgendwie trotzdem besser ab bei HWLuxx (da wurde auch noch die höherwertige die G1 vergleichen nicht die Windforce). Bin verwirrt. Zudem ist bei Reddit und Youtube viel davon zu lesen, dass vermehrt Gigabyte Karten unter Spulenfiepen leiden

Ist jemand PCGH-Insider und hat schon einen Blick in den heute erschienenen Test geworfen?

Andi Y
2016-09-02, 21:07:01
Jetzt wo es die Gigabyte Windforce 2x für den gleichen Preis wie die EVGA Non-SC gibt, komme ich wieder ins grübeln welche besser ist. Das Kühlkonzept spricht für die Gigabyte, aber die EVGA schneidet irgendwie trotzdem besser ab bei HWLuxx (da wurde auch noch die höherwertige die G1 vergleichen nicht die Windforce). Bin verwirrt. Zudem ist bei Reddit und Youtube viel davon zu lesen, dass vermehrt Gigabyte Karten unter Spulenfiepen leiden

Ist jemand PCGH-Insider und hat schon einen Blick in den heute erschienenen Test geworfen?
Mein macht auch Geräusche, aber im geschlossenen Gehäuse höre ich nichts mehr.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=575346

fulgore1101
2016-09-03, 10:49:23
Bei Caseking gibts die Gigabyte 1060 Windforce oc jetzt für 249€.
Aber es scheinen ja mehrere vom Fiepen betroffen zu sein. Hab auch woanders schon davon gelesen. Ich denke, dann lass ich die Finger davon. Ich bin mir eh noch nicht schlüssig darüber, ob der Umstieg von einer GTX 780 auf eine 1060 so sinnvoll ist.

Hacki_P3D
2016-09-03, 11:26:20
laut PCGH würde der Performancevorteil bei ca. ~31% liegen

Hakim
2016-09-03, 12:36:45
Kauf dir lieber eine 1070

-/\-CruNcher-/\-
2016-09-03, 12:52:18
Ja aus wirtschaftlichen gesichtspunkten klar die bessere Wahl (momentan noch) ;)

Bösewicht
2016-09-03, 12:56:42
ja finde auch von einer 80er lieber auf 1070 upgraden, alternativ noch ein Jahr auf Vegas warten :tongue:

fulgore1101
2016-09-03, 14:36:44
Ihr habt ja recht. Eine neue Karte soll für mich ja auch wieder ein paar Jahre reichen. Mit der GTX 780 war ich jetzt ~3 Jahre zufrieden. Das wäre wohl mit einer 1060 nicht der Fall. Aber zwischen 250€ und 400+€ ist schon ein Unterschied und im Moment sitzt das Geld nicht so locker.

Bösewicht
2016-09-03, 14:44:36
2-3 Monate 50€ sparen und schon hättest mehr als ein 30% Update.
Also ich würde mit deiner Karte vermutlich noch ein paar jahre auskommen... selbst meine 560 reichte mir bis auf bei ARK das kaum spielbar gewesen ist fast noch aus.
Für FullHD reicht auch die 1060 wohl einige Jahre schließlich ist damit auch Battlefield 1 mitsamt seiner Optik und max Details 60fps möglich was will man mehr, aber in deinem fall würde ich echt sagen halt 1-2 Monate noch durch und dann richtig :D

Chronicle
2016-09-03, 23:34:03
Die Gigabyte 1060 Windforce OC ist angekommen. Schnurrt wie ein Kätzchen :)
Hab noch nicht OC getestet aber läuft derzeit beim Spielen mit maximal 50% Lüfter und ich hab maximal 72°C gesehen bisher.

Ex3cut3r
2016-09-04, 00:21:27
:up: Viel spaß damit. Von was kommst du?

Chronicle
2016-09-04, 00:56:22
Ursprünglich einer R290 die im Frühjahr kaputt gegangen ist. War jetzt grob ein halbes Jahr mit einer GTX460 unterwegs :ugly:

nVIDIA
2016-09-04, 11:20:41
Ich habe seit einem Monat auch die Zotac Mini GTX 1060. Der Leistungsunterschied zur GTX 560TI die mir jahrelange treue Dienste leistete ist schon gigantisch. Betreibe die GTX an einer Wasserkühlung. Temperatur geht maximal auf 38° unter Vollast.

Mike
2016-09-04, 12:08:11
Die Gigabyte 1060 Windforce OC ist angekommen. Schnurrt wie ein Kätzchen :)
Hab noch nicht OC getestet aber läuft derzeit beim Spielen mit maximal 50% Lüfter und ich hab maximal 72°C gesehen bisher.
Hoffentlich sind es nicht die Spulen auf der Karte, die schnurren. ;)
Wieviel Umdrehungen sind denn 50 %? Ich nehme an, sie bleibt also auch unter Last sehr leise.

Chronicle
2016-09-04, 23:03:55
50% sind ~1570rpm. Bin jetzt aber auch nicht so der Silent-Fetischist da eh immer Musik läuft oder das Headset aufm Kopf sitzt. Höre die Karte demnach selbst auf 70% Lüfter nichtmal aus dem Gehäuse raus :D
Also definitiv leiser als die R290 oder GTX460Ti

Hermelinmaster
2016-09-05, 02:54:20
Meine Windforce ist auch eingebaut. Hab aber nur kurz testen können.
Sie ist recht leise, wobei die Stock-Kurve recht konservativ ist. Erreicht mit max OC im Furmark keine 80°. Im Valley keine 75°. Ich hab das Ding mal auf 50% Lüfter gestellt und die Temps waren i.O. Dann ist sie auch aus meinem Selbstbau-Gehäuse auf dem Schreibtisch nicht zu hören. Coil whine hab ich jetzt auch keinen gehört wobei Fraps immer unter 150fps geblieben ist. Werd ich mal noch mit CS Go testen, da sollten höhere fps drin sein.
Verbaut ist Samsung Speicher der problemlos 9Gbps bei mir macht. Die GPU hat ne ASIC von 60.2% und geht nur +100MHz auf etwas über 2GHz. Im Afterburner ist Voltage gelockt und Power geht auf 116%, wird aber nie erreicht (außer inmeinem Testmit Furmark 720p ohne AA, kA warum, ansonsten blieb es unter 110%).
Zubehör im Karton ist nicht existent.
Ich probier mal das EVGA-Tool, vielleicht lässt sich da die Voltage erhöhen. Ich war nämlich zu 90% in Voltage Limit und zu 10% im Ausnutzungslimit (was ist das eigentlich)?

Edit: Ausnutzung könnte vom Prozessor kommen.
Und die Karte ist thermisch sehr träge. Auf 25% Lüfter braucht sie im Furmark trotzdem einige Minuten für 80°. Zero Fan hat vor den Tests funktioniert, danach hab ich vergessen zu schauen, bzw. vergessen zu messen wie lange der Lüfter nachläuft, aber wie gesagt unter 40-50% ist sie eh unhörbar.

Andi Y
2016-09-05, 10:27:26
Bei meiner G1 Gaming kann ich auch keine Voltage einstellen. OC habe ich bei der GPU 1650 Mhz, damit boostet Sie immer auf 2000 Mhz (Witcher, Schatten von Mordor). RAM läuft auf 4514 Mhz (Macht aber glaube ich so 12-15 Mhz Sprünge beim OC).
Lüfter ist ab 55% hörbar. Laut GPU-Z Cap. Reason immer Vrel. Temperatur max. beim Valley-Loop 72 Grad im geschlossenem Gehäuse und sie schnurrt ein wenig (Grille light).

Hakim
2016-09-05, 11:12:47
Ich denke untereinander schenken sich die Karten nicht viel bezüglich OC, Solange ein halbwegs vernünftiger Kühler drauf ist.

Fusion_Power
2016-09-05, 16:38:06
Wäre so ne WindForce cool genug für ein kleineres Mini-ITX Gehäuse? Mir würde ja die 3GB Version vollkommen reichen, hauptsache das Ding ist (möglichst) leise und schmilzt nicht, OC oder manuelles dran rum doktern nicht vorgesehen. Meine GTX560 wird schon kuschelige 75°C warm in meinem Kästchen, ist halt nicht viel Platz aber ne ausgewachseneGraKa passt da schon rein.
Hab bisher leider keine guten Erfahrungen mit pre-OC Karten gemacht, hatte ne GTX460 und ganz böse TDR's damit in Windows, war nicht schön. Drum bin ich ehr auf derSuche nach nem gescheiten Non-OC Modell, hauptsache solide, kühl und leise. Die WindForce macht aber zumindest nen guten Eindruck und Gigabyte kann ja nicht so schlecht sein.

In ohter news: gibt auch erste Infos zur kommenden GTX1050, wohl wahlweise mit 2 oder 4GB VRAM und vor allem mit 75W TDP! :D
http://www.gamestar.de/hardware/news/grafikkarten/3302110/geforce_gtx_1050.html

http://images.cgames.de/images/idgwpgsgp/bdb/2769428/944x531.jpg

(del)
2016-09-05, 18:43:34
EVGA hat bei der kurzen 1060 Superclocked das BIOS versemmelt und den Kühler gleich mit. Keine VRM-Kühlung (Spitze über 119°C) und keine RAM-Kühlung (Spitze bis ca. 93°C). Der PWM-Controller läuft konstant bei 105°C und mehr... Nichts gegen eine leise Karte, aber das ist glatter Murks. Aufgrund der Kühlerkonstruktion bringen auch höhere Drehzahlen nicht die komplette Lösung, denn der Airflow geht seitwärts vorbei und die Bauelemente bekommen keinerlei echte Frischluft. Im Gegenteil, die breitgekloppte Heatpipe liegt nur 2 mm über den VRM und verdeckt alles. In einen HTPC würde ich die jedenfalls nicht stecken :(

Fusion_Power
2016-09-05, 23:11:52
EVGA hat bei der kurzen 1060 Superclocked das BIOS versemmelt und den Kühler gleich mit. Keine VRM-Kühlung (Spitze über 119°C) und keine RAM-Kühlung (Spitze bis ca. 93°C). Der PWM-Controller läuft konstant bei 105°C und mehr... Nichts gegen eine leise Karte, aber das ist glatter Murks. Aufgrund der Kühlerkonstruktion bringen auch höhere Drehzahlen nicht die komplette Lösung, denn der Airflow geht seitwärts vorbei und die Bauelemente bekommen keinerlei echte Frischluft. Im Gegenteil, die breitgekloppte Heatpipe liegt nur 2 mm über den VRM und verdeckt alles. In einen HTPC würde ich die jedenfalls nicht stecken :(
Worauf man heutzutage so alles achten muss, zum Glück gibts Tests und Reviews, offenbar sparen die Hersteller mittlerweile an der QC wenn solche Konstrukte durch gehen. Das mit dem Biso hab ich auch gelesen, wollt mir anfangs genau so eine kurze holen, EVGA hatte doch eigentlich nen passablen Ruf.
Egal, ne normal lange Karte passt bei mir auch rein, wirds dann halt so eine, aber nicht von EVGA. :rolleyes:

Mike
2016-09-06, 02:15:47
und keine RAM-Kühlung (Spitze bis ca. 93°C).
Gibt's da eigentlich Erfahrungswerte/zulässige Höchsttemperaturen für den RAM?

Und ein anderer Punkt: Gibt es jemanden mit einer GTX 10X0/Pascal-Karte, der den Standby-Modus des Rechners nutzt? Der Rechner meines Bruders friert ab und an beim Aufwachen ein, nachdem er auf die GTX 1060 aufgerüstet hat.

Hermelinmaster
2016-09-06, 02:25:24
@Fusion_Power Ich hab ein gedämmtes Holzgehäuse mit 2x120mm Einlass über einen Radi und einen 140mm Auslass. Ich denke die Windforce sollte auch in ITX kein Problem sein.

@Format_C Benutzt Du dein eigenes Tool für diese Temps? Oder wie kann ich die auslesen?

(del)
2016-09-06, 07:25:37
@Format_C Benutzt Du dein eigenes Tool für diese Temps? Oder wie kann ich die auslesen?

Die werden nicht ausgelesen, sondern gemessen :)
So testet THDE: Infrarot-Technik richtig und sinnvoll eingesetzt (http://www.tomshardware.de/infrarot-messtechnik-richtig-messen-methodik-so-testen-wir,testberichte-242029.html)

Das, was z.B. GPU-Z als VRM, bzw. VRM1 und VRM2 anzeigt, hat mit den Temperaturen der MOSFETs übrigens fast nie was zu tun.
Meist bekommt man nur die Werte der PWM-Controller-Chips, denn es gibt kaum MOSFETs, die eine Temp-Diode integriert haben.
Wenn man mal nachmisst, welche Temperaturen unter den MOSFETs wirklich herrschen und was GPU-Z auswirft, dann Gute Nacht.

http://i.imgur.com/i4CTHRX.jpg

Rechts neben der Beschriftung VRM sieht man den PWM-Controller (als blasses Rechteck).
Der liegt z.B. 10°C oberhalb seiner Specs (also deutlich mehr als 10%).
Ob da noch wirklich exakte Spannungen rauskommen und ob das auf Dauer gesund ist?
Ich bin kein Hellseher, aber es gefällt mir nicht.

Außerdem steigen die Leckströme und damit die Spannungswandlerverluste. Da NV aber auch ein Current Monitoring der
gesamten fließenden Ströme betreibt, wird die Karte also bereits oft eingebremst, bevor der Chip vieleicht ins eigentliche
Power-Limit rennt. Das wiederum finde ich gut, denn es ist wenigstens eine kleine Reißleine, die ich AMD nur zum
Nachmachen empfehlen kann.

Gibt's da eigentlich Erfahrungswerte/zulässige Höchsttemperaturen für den RAM?
Dafür gibt es Specs für jedes RAM-Modul :)

Was haben sich die Leute schon über Artefakte nach ein paar Monaten aufgeregt, dabei wars meist ein defekter RAM,
der durch ein zu heißes PCA von unten regelrecht gegrillt wurde. Layout- und Kühlungsfehler gibt es immer wieder.
Elpida-Module waren nicht per se schlecht, aber gerade auf so mancher 290X auf Grund der thermischen Belastung
von unten einfach schneller kaputt als gedacht. Nur lag das nicht an Elpida, sondern einigen Boardpartnern, die die
Spannungswandler einfach zu schlecht gekühlt haben. Wärme wandert, vor allem bei so kupferhaltigen Multilayer-PCBs.
Specs mit Angabe der zulässigen Betriebstemperaturen gibt es nicht umsonst. Für jeden Hersteller einsehbar.

dildo4u
2016-09-06, 11:53:58
PCGH hat jetzt komplett PCs mit 480 und 1060,absolut krass wie verschwenderich Custom 480 konfiguriert werden.

http://abload.de/img/pcghpcais42.png

http://www.pcgh-pc.de/

Raff
2016-09-06, 11:58:06
Die MSI RX 480 Gaming X (im PCGH-PC) ist das einzige Modell, das einen stabilen Boost mit leiser Kühlung vereint - das geht nur mit einem üppigen Powerlimit. Siehe PCGH 10/2016, dort gibt's u. a. einen Test von 15 1060-/480-Grafikkarten (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/). :)

MfG,
Raff

fondness
2016-09-06, 12:30:00
Die MSI RX 480 Gaming X (im PCGH-PC) ist das einzige Modell, das einen stabilen Boost mit leiser Kühlung vereint - das geht nur mit einem üppigen Powerlimit. Siehe PCGH 10/2016, dort gibt's u. a. einen Test von 15 1060-/480-Grafikkarten (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/). :)

MfG,
Raff

Die Frage ist, warum man unbedingt den Takt um jeden Preis halten will. Das wird dann natürlich automatisch ineffizient.

(del)
2016-09-06, 15:28:35
...aber es wird schneller und am Ende hat man sogar meist das ruhigere Bild. AMDs Power Tune funktioniert da leider nicht ganz so smooth wie Boost und bei den Frametimes sieht man leider schnell, wenn eine Karte ausgebremst wurde.

Ich finde es nur amüsant, wenn einerseits AMD-affine User die Leistungsaufnahme kleinreden (was man bei 30 bis 50 Watt ja auch akzeptieren kann,
solange der Preis stimmt) und andererseits auf MSI schimpfen. MSI hat das bei der 480 das einzig Richtige gemacht, denn auch die Kühlung passt dazu.
Man kann natürlich auch den eigentlichen Takt runtersetzen und die Karte ab Werk um 5-10% einbremsen. Dann hätte man sie auch ohne Saufambitionen gezügelter. :)
Da aber alle nur auf Benchmarkbalken schielen, hat Vernunft eh ausgedient. Dann lieber so, weil richtig :)

Schaffe89
2016-09-06, 15:44:27
Also heißt das aufgrund der Frametimes man solle lieber den Takt stabil halten?
Hätte mich auch gewundert, wenn AMD mal in irgendetwas besser als Nivida wäre.

(del)
2016-09-06, 20:12:08
AMD ist nicht wirklich schlechter, nur darf man die Chips ab Werk nicht so bis zur Kotzgrenze pushen - oder man muss mit den Folgen leben. GloFos Prozess hat nun mal so seine Macken mit den höheren Taktraten, damit muss man sich arrangieren. Was übrigens ganz gut geht :)

scully1234
2016-09-07, 11:18:54
...
Da aber alle nur auf Benchmarkbalken schielen, hat Vernunft eh ausgedient. Dann lieber so, weil richtig :)

Ist aber indirekt AMDs Strategie , denn die Positionierung in GTX1060 Gefilden , wurde ja vom Konzern forciert, die Boardpartner müssen die Suppe letztendlich nur auslöffeln.

MSI scheint da wie du sagst den einzigen noch vernünftigen Weg einzuschlagen, um die Karte dort hin zu pressen wie vorgegeben, mit so wenig Ausreißern in den Frametimes wie möglich.

Andererseits wäre sie sonst wohl eine Klasse tiefer einsortiert worden, nur wäre der Chip dann noch einigermaßen wirtschaftlich zu vermarkten gewesen...???

(del)
2016-09-07, 16:24:17
Nein. Wäre er wohl nicht. Aber der psychologische Faktor ist dabei ja noch viel wichtiger als der momentane Umsatz.

Ich finde es bedauerlich, dass mich viele der Hardcore-AMD'ler aus Verbohrtheit damals einfach nicht verstanden haben. Exakt diese Situation, so wie wir sie jetzt haben, habe ich ja seinerzeit als mögliches Szenario angedeutet und bin dafür arg verprügelt worden. Jetzt wissen wir es besser (Verfügbarkeit, Leistung, Treiber) und komischerweise ist Ruhe. :D

siegemaster
2016-09-07, 23:48:20
Heute ist meine Windforce OC gekommen. Schön leise ist die Karte und Spulenfiepen habe ich auch nicht. Aber: Wollte natürlich gleich mal schauen was OC-Mäßig so geht und in Furmark schafft sie selbst mit 116% Powertarget nichteinmal die Werksangabe. Ist das normal oder habe ich einfach ein Montagsmodell erwischt?

whetstone
2016-09-08, 01:17:39
Aber: Wollte natürlich gleich mal schauen was OC-Mäßig so geht und in Furmark schafft sie selbst mit 116% Powertarget nichteinmal die Werksangabe. Ist das normal oder habe ich einfach ein Montagsmodell erwischt?

Das hört sich nicht so gut an. Mit 100% PT boostet meine temporär mit bis zu 2075mhz (1730 baseclock) und pendelt sich dann nach ner weile bei ~2000mhz ein. Hängt dann aber nach 15 min valley bei 80° und macht entsprechend krach . Wie sehen denn die temps aus ? Vllt rennst du ins Temp Target?

Hab aber auch ein kleines Problem mit meiner Windforce OC. Und zwar klackern die lüfter 1x kurz, jedesmal wenn sie aus dem zerofan modus anlaufen. An der Tempschwelle kann das dann auch 5x in der Minute passieren. Lasse den lüfter jetzt einfach auf 20% laufen, ist auch nicht hörbar, trozdem etwas nervig das Ganze, mein einziger Kritikpunkt an meinem Exemplar.

Hermelinmaster
2016-09-08, 01:44:22
@siegemaster das ist nicht normal. Schau dir mal die Temps an. Wie sieht dein Airflow aus? Evtl WLP wechseln, vielleicht liegt da der Fehler.
@whetstone Also ich hab kein Klackern vernommen, scheint jetzt auch nicht normal. Kommt es eher vom Lager oder "schleift" was? Aber coole Clocks. Wie ist denn dein Asic?

whetstone
2016-09-08, 01:57:34
Wie lese ich asic bei NVIDIA aus (ist meine erste seit 2003 o0) ? Bei GPU-Z steht "not supported on this card".

Das klackern hört sich eher nach lager an, soweit ich es beurteilen kann. Sobald die lüfter laufen ist alles normal. Hab auch zb. versucht langsamer anzufahren, ändert aber nichts...

Edit: beim booten ist das klackern (ist eher 1-2 sek "klick klack klick", ruhe) übrigens nicht. Nur wenn zero fan aktiv ist.

Edit2: doch beim booten ist es auch, halt immer ausm stand, kA ...

Iruwen
2016-09-08, 10:29:04
Wizzard hat wohl immer noch keinen Weg gefunden das bei Pascal auszulesen.
https://www.reddit.com/r/nvidia/comments/4lmpg5/gtx_1080_holy_grail_100_asic/

/e: oder doch https://www.techpowerup.com/downloads/2764/techpowerup-gpu-z-v1-10-0

siegemaster
2016-09-08, 12:23:46
Das hört sich nicht so gut an. Mit 100% PT boostet meine temporär mit bis zu 2075mhz (1730 baseclock) und pendelt sich dann nach ner weile bei ~2000mhz ein. Hängt dann aber nach 15 min valley bei 80° und macht entsprechend krach . Wie sehen denn die temps aus ? Vllt rennst du ins Temp Target?

Hab aber auch ein kleines Problem mit meiner Windforce OC. Und zwar klackern die lüfter 1x kurz, jedesmal wenn sie aus dem zerofan modus anlaufen. An der Tempschwelle kann das dann auch 5x in der Minute passieren. Lasse den lüfter jetzt einfach auf 20% laufen, ist auch nicht hörbar, trozdem etwas nervig das Ganze, mein einziger Kritikpunkt an meinem Exemplar.
@siegemaster das ist nicht normal. Schau dir mal die Temps an. Wie sieht dein Airflow aus? Evtl WLP wechseln, vielleicht liegt da der Fehler.
@whetstone Also ich hab kein Klackern vernommen, scheint jetzt auch nicht normal. Kommt es eher vom Lager oder "schleift" was? Aber coole Clocks. Wie ist denn dein Asic?

Naja es kann doch wohl kaum an den Temps liegen denke ich wenn die Karte beim Starten von Furmark schon nur noch auf ~ 1750Mhz Boostet, oder? Die Läuft halt sofort in das Powertarget (116%) trotz der "niedrigen" Taktrate. Spannung liegt laut XTREME GAMING ENGINE (:ulol:) bei ~875mV und trotz großzügiger Lüftereinstellung liegen auch relativ Fix 82°C an. In Spielen die ich Bisher getestet habe war der Boosttakt immer über 1900 Mhz.
Irgendwie ist mir das alles zu Hoch, früher war es einfacher :usad:

Hermelinmaster
2016-09-08, 12:25:28
Also meinen asic konnte ich auslesen indem ich bei gpu-z oben auf den rahmen vom fenster rechts klicke und im drop down asic auswähle. Ging problemlos.
Kaputten Lüfter kurz nach Beweislastumkehr oder nach Gewährleistung würde ich nicht riskieren. Wenn ich mich aber recht erinnere können die Lüfter einfach rausgeschraubt werden. Schreib mal deinen Händler an wegen Ersatzlüftern.
@siegemaster hast du auch mal das Temp-Target hoch gesetzt? Direkt die 82°C zu erreichen spricht für einen Fehler bei der WLP. Die Windforce ist eigentlich extrem träge was die Temps betrifft. Ich brauche selbst mit 25% Lüfter im Furmark ein paar Minuten bis zum thermal throttling.

siegemaster
2016-09-08, 12:52:59
@siegemaster hast du auch mal das Temp-Target hoch gesetzt? Direkt die 82°C zu erreichen spricht für einen Fehler bei der WLP. Die Windforce ist eigentlich extrem träge was die Temps betrifft. Ich brauche selbst mit 25% Lüfter im Furmark ein paar Minuten bis zum thermal throttling.


Ja das Thermaltarget habe ich auch hochgestellt. Dass die Karte schnell heiß wird ist mir allerdings nicht suspekt, da der Rechner nur mit einer "Minimalbelüftung" läuft (1x12er Vorne und Hinten, beide @ 500U/min). Trotzdem werde ich deinen Tipp mit der WLP im Hinterkopf behalten.

Hermelinmaster
2016-09-08, 19:05:51
Die Karte sollte nicht signifikant schneller heiß werden bei schlechter Belüftung, das sollte dominiert sein von der thermalen Trägheit (Masse und Co). Bei mir saugen 2x120 über einen Radi rein und ein 140 raus. Alles auf niedrige Drehzahl gestellt und es ändert sich wenig an der Aufheizkurve. 2x120 bei dir sollte insbesondere bei erhöhter Drehzahl problemlos sein.
Achso, was mir aufgefallen ist bei Furmark. Ohne AA saugt die Karte wesentlich mehr am Powertarget. 720p ohne AA durchgehend bei 116% und leichtem throttlen, 720p mit 8xAA und sie geht nicht über 108% raus.

Hacki_P3D
2016-09-08, 21:48:15
Heute ist meine Windforce OC gekommen. Schön leise ist die Karte und Spulenfiepen habe ich auch nicht. Aber: Wollte natürlich gleich mal schauen was OC-Mäßig so geht und in Furmark schafft sie selbst mit 116% Powertarget nichteinmal die Werksangabe. Ist das normal oder habe ich einfach ein Montagsmodell erwischt?

Welche Einstellungen hast Du denn bei Furmark verändert? Auflösung? AA?

Hab die gleiche Karte, und wenn ich nur das PT auf 116% einstelle, dann sieht es nach 3 Minuten so aus:

https://abload.de/thumb/furmark8fr6a.jpg (http://abload.de/image.php?img=furmark8fr6a.jpg)

Wie man sehen kann, erreicht sie ihren Boosttakt auch nicht.


Stell mal lediglich AA auf 8x MSAA

siegemaster
2016-09-09, 00:03:40
Du hast recht, mit AA gibts keine Probleme. Einen Sinn ergibt das für mich aber nicht :D

Andi Y
2016-09-09, 09:52:16
Wie könnt ihr bitte eure ASIC auslesen? Mit dem neusten GPU-Z und meiner Gigabyte G1 Gaming wird es nicht unterstützt. Auch kann ich keine Spannungen im AB (letzte BETA) verändern, oder ist das noch nicht möglich mit einer 1060?

Hermelinmaster
2016-09-09, 12:52:59
Müsste mal meine gpu-z version raussuchen, aber asic auslesen geht bei mir damit. Voltage ist glaub ich je nach Bios gelockt. Die Windforce hat doch glaub ich 2 Biose, vielleicht findet sich ein tapferer Mann, der mal das Bios der G1 flasht und schaut ob die Spannung dann erhöht werden kann ;-)

captain_drink
2016-09-09, 14:38:09
Müsste mal meine gpu-z version raussuchen, aber asic auslesen geht bei mir damit.

Das geht mit mehreren GPU-Z-Versionen, allerdings sind dann die Werte nicht korrekt.

Hermelinmaster
2016-09-10, 01:19:58
Ich hab die 0.8.6 als protable Version.

(del)
2016-09-10, 06:27:22
Wozu zur Hölle braucht Ihr eigentlich den ASIC? Der sagt alles und nichts. Am Ende weiß man zwar,
ob der Chip aus der hypothetisch besseren Fläche des Wafers stammt, aber noch lange nicht, wie gut der Wafer selbst überhaupt war.

Ich habe hier Golden Samples mit guten OC-Eigenschaften und sehr niedriger Leistungsaufnahme, die weit unter 70 liegen. Nur eben: 70 von irgendwas.
Und GENAU DAS erfahrt ihr nämlich nicht. Also hört auf, Euch damit fertig zu machen ;)

deLuxX`
2016-09-10, 10:16:20
Mal 'ne Frage: Welche würdet ihr kaufen?
Die 1060 ist wohl so 5% schneller über alles in FullHD.
Direkt nach der Performance steht bei mir die Lautstärke.
Kosten beide das selbe.

PowerColor Radeon RX 480 Red Devil 8GiB
http://geizhals.de/powercolor-radeon-rx-480-red-devil-axrx-480-8gbd5-3dh-oc-a1480295.html?hloc=at&hloc=de

Gigabyte GeForce GTX 1060 6GB G1 Gaming 6GiB
http://geizhals.de/gigabyte-geforce-gtx-1060-6gb-g1-gaming-6g-gv-n1060g1-gaming-6gd-a1479045.html?hloc=at&hloc=de

Und ja, mir ist die Sprengkraft dieser Frage durchaus bewusst.:freak:

Bösewicht
2016-09-10, 10:31:19
Ich glaube in diesen thread bekommst du weniger explosive antworten als an anderer stelle.

sollte es 1060 sein ich glaube lautstaerke soll bei http://geizhals.de/palit-geforce-gtx-1060-6gb-jetstream-ne51060015j9j-a1478637.html?hloc=at&hloc=de sehr gut sein.

Bleib einfach bei der Marke die du kennst es sei denn dich stört vielleicht was dann könnte man ja mal was neues probieren... ich mag nvidia Treiber und kenne die Einstellungen in und auswendig da kommt alles andere fremd vor.

edit guck mal hier
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/5/

Fliwatut
2016-09-10, 11:18:31
Mal 'ne Frage: Welche würdet ihr kaufen?
Wie lange willst du die Karte denn voraussichtlich nutzen?

Mike
2016-09-10, 11:21:12
Mal 'ne Frage: Welche würdet ihr kaufen?
Die 1060 ist wohl so 5% schneller über alles in FullHD.
Direkt nach der Performance steht bei mir die Lautstärke.
Kosten beide das selbe.

PowerColor Radeon RX 480 Red Devil 8GiB
http://geizhals.de/powercolor-radeon-rx-480-red-devil-axrx-480-8gbd5-3dh-oc-a1480295.html?hloc=at&hloc=de

Gigabyte GeForce GTX 1060 6GB G1 Gaming 6GiB
http://geizhals.de/gigabyte-geforce-gtx-1060-6gb-g1-gaming-6g-gv-n1060g1-gaming-6gd-a1479045.html?hloc=at&hloc=de

Und ja, mir ist die Sprengkraft dieser Frage durchaus bewusst.:freak:

Wenn für dich Lautstärke wichtig ist, solltest du dich vielleicht auch mal bei MSI umschauen, die 1060 Gaming ist sehr gut auf diesem Gebiet, und die Armor sollte kaum schlechter sein.

dildo4u
2016-09-10, 11:32:24
Mal 'ne Frage: Welche würdet ihr kaufen?
Die 1060 ist wohl so 5% schneller über alles in FullHD.
Direkt nach der Performance steht bei mir die Lautstärke.
Kosten beide das selbe.

PowerColor Radeon RX 480 Red Devil 8GiB
http://geizhals.de/powercolor-radeon-rx-480-red-devil-axrx-480-8gbd5-3dh-oc-a1480295.html?hloc=at&hloc=de

Gigabyte GeForce GTX 1060 6GB G1 Gaming 6GiB
http://geizhals.de/gigabyte-geforce-gtx-1060-6gb-g1-gaming-6g-gv-n1060g1-gaming-6gd-a1479045.html?hloc=at&hloc=de

Und ja, mir ist die Sprengkraft dieser Frage durchaus bewusst.:freak:
Richtig leise sind laut PCGH nur 1060 Karten z.b die MSI Gameing X 0.7 Sone oder die 1060 AMP! 1.0 Sone.Die 480 Customs fangen erst bei 2 Sone an.

Die AMP ist auch nicht so teuer.

http://www.heise.de/preisvergleich/zotac-geforce-gtx-1060-6gb-amp-zt-p10600b-10m-a1478147.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l#filterform

Raspo
2016-09-10, 12:17:42
Hab die Red Devil. Unhörbar unter Volllast.

dildo4u
2016-09-10, 12:20:13
Das ist die leiseste 480 laut PCGH,aber als unhörbar stuft PCGH die nicht ein.
Bei der Red Devil steht Leiser Kühler bei der 1060 von MSI Beinahe unhörbarer Kühler.
Hängt natürlich auch davon ab wie laut der Rest des PC's ist ob man die Karte überhaupt raushören kann.

Raspo
2016-09-10, 12:29:51
Das ist natürlich richtig. Vorher hab ich immer die 7970 OC gehört, wenn die mit Boinc voll ausgelastet war. Das Geräusch ist durch die Red Devil komplett weg. Die maximalen Umdrehungen, die ich mit der Red Devil gesehen habe waren glaube ich ca. 1300. Boinc Volllast bei aktuellen Temperaturen von knapp 30 Grad hier in Hamburg. Die Karte ist schon sehr gut.

dildo4u
2016-09-10, 12:50:23
Redout mit UE 4.0 1060 vs 480

https://youtu.be/bhW_puDIaaM?t=2m58s

Das ist mal interessant vermutlich ein Game was keine Treiber Optimierung bekommen hat.

gmb
2016-09-10, 13:53:03
AMD kackt öfter ab in Spielen, die nicht in typischen reviews zu finden sind.

fondness
2016-09-10, 14:00:32
AMD kackt öfter ab in Spielen, die nicht in typischen reviews zu finden sind.

Und wenn Nvidia abkackt, ist der Entwickler Schuld. :ugly:

gmb
2016-09-10, 14:23:31
Genau andersrum. Wenn AMD abkackt, ist oft der Entwickler Schuld. Dann wären sie entweder geschmiert worden von Nvidia oder unfähig.

Hermelinmaster
2016-09-10, 14:41:08
Die 1060 sind im Schnitt leiser und erzeugen weniger Abwärme, wodurch der Rest potentiell etwas leiser laufen kann. Noch dazu der leichte Performancevorteil der 1060. Wenn Du dich trotzdem nicht entscheiden kannst, dann schau dir für dich wichtige einzelne Spielebenchmarks an. Für mich hätte den Ausschlag GTA V und Ark Survival Evolved gegeben.

@Format_C Ich dachte der Asic wird individuell bestimmt, in dem Test in dem auch die schlechten, anschließend gecutteten CUs der Salvages definiert werden? Aber bei mir hat es wieder gepasst, schlechter Asic=schlechter OC. Gestern in Far Cry 4 konnte die Karte nichtmal +50/250MHz mitmachen. Ist gecrasht...

(del)
2016-09-10, 15:30:18
@Format_C Ich dachte der Asic wird individuell bestimmt, in dem Test in dem auch die schlechten, anschließend gecutteten CUs der Salvages definiert werden? Aber bei mir hat es wieder gepasst, schlechter Asic=schlechter OC. Gestern in Far Cry 4 konnte die Karte nichtmal +50/250MHz mitmachen. Ist gecrasht...
Glaubst Du, im Nachhinein testet einer noch alle Chips einzeln auf die elektrische Güte?
Das steckt so viel Statistik drin, dass diese Pauschalwerte alle schlechteren Qualitäten ziemlich sicher erfassen,
jedoch viele brauchbare und gute Qualitäten ungerechterweise abwerten. Erinnere Dich doch einfach mal an Intels VID.
Diese lokale Komponente (Waferposition) dient heute noch als Faktor im Berechnungsprozess.
Elektrische Güte und elektrische Funktionalität sind nicht das Gleiche (Voltage vs. Cut)

Gigabyte hat z.B. so etwas ähnliches als "Gauntlet"-Verfahren, da nimmt die im Allgemeinen die Waferposition (wie bei Intel) und diverse,
im Schnellverfahren ermittelbare Faktoren, um eine gewisse Qualität zu prognostizieren.

Hermelinmaster
2016-09-11, 01:40:15
Hey, danke für die Infos. Würde da gern noch mehr hören wenn Du es erzählen darfst ;-)
Hatte ne Flying Probe erwartet oder so um den chip zu testen. Ich hatte mal gehört, das bei nem Cut von nem voll funktionsfähigen Chip die schlechtesten CUs geschnitten werden. Aber wohl nur ein Gerücht.
Du meinst es fließt hauptsächlich oder ausschließlich die Position in die Asic ein? (Die Position ist ein Faktor wegen einer punktförmigen Lichtquelle beim Belichten?)
Dachte auch die Asic kommt von nVidia?

scully1234
2016-09-11, 08:36:20
Wozu zur Hölle braucht Ihr eigentlich den ASIC? Der sagt alles und nichts.

Ich verstehe diesen Hype der darum betrieben wird auch nicht, er ist nicht mal ein zuverlässiger Indikator fürs OC genau genommen

Unwinder würde gut daran tun, den Flaschengeist wieder in sein Gefäß zu stopfen.

Denn alles was damit betrieben wird ,ist Verleitung zur Preisdrueckerei im Marktplatz, und Abnutzung funktionierender neuer Produkte

Ich hab Chips gehabt die liefen mit 60er richtig gut und 80er die bewegten sich tatkmaessig kein Stück und umgekehrt

Die Leute sollten einfach damit klar kommen was sie geliefert bekommen, und nicht 20 Karten durchranzen, auf der Suche nach dem ''Über'' ASIC.

Die Händler belastet dieses nämlich auch seit geraumer Zeit

Zergra
2016-09-11, 08:47:06
Du meinst es fließt hauptsächlich oder ausschließlich die Position in die Asic ein? (Die Position ist ein Faktor wegen einer punktförmigen Lichtquelle beim Belichten?)
Dachte auch die Asic kommt von nVidia?

Naja die Position und die Gesamte Güte des Wafers. Daraus wird dann errechnet wie gut der einzelne Chip sein könnte.

(del)
2016-09-11, 09:12:09
Wir wundern uns doch immer, warum man manche GPUs und CPUs anfangs einfach so per Firmware "freischalten" kann. Die lustigsten Kommentare dazu sind dann immer die, dass der Hersteller das jeweils nur macht, um sein Portfolio um kleinere Modelle zu erweitern. Mutter-Theresa-Effet? Dabei sind diese softwaremäßig abgenippelten Funktionsbereiche nicht umsonst weg, nur war halt einfach noch keine Zeit für einen Cut. Kann gut gehen, muss aber nicht. Ich würde es auch versuchen, aber kritisch hinschauen.

Die Photolithographie (also das "Belichten" der Wafer) ist eine ziemlich komplizierte Geschichte. Wie bei jedem indirekten Verfahren entstehen vor allem an den Rändern gewisse Unschärfen, die im schlechtesten Fall zu Totalausfällen, oft aber schon zu Qualitätsminderungen führen können. Dann muss man die Spannung anheben und/oder es werden keine so hohen Frequenzen mehr erreicht usw. Da die Projektion in der Mitte immer am schärfsten / genauesten ist, kann man dort auch die besten Ergebnisse erzielen. Intel nutzt z.B. bei den Xeons, die die gleichen Masken wie die Consumer-Chips verwenden, generell die mittigen Chips für die kommerzielle Variante, der Rest wird dann zu K- und non-K-Modellen mit sinkendem Takt, je weiter man sich von der Mitte entfernt. Hat man aber einen perfekten Wafer, kann auch ein Chip von weiter außen besser sein, als ein Chip aus der Mitte eines schlechteren Wafers. Die besten Chips vereinen beide Umstände in sich: perfekt belichteter Wafer und Mitte. Da man aber die Yield Rate möglichst hoch halten möchte, ist da wie immer noch viel Luft nach unten. Die nutzen dann die ganzen Übertakter, die sich immer dann freuen, wenn es ein geiler Wafer war. Das wiederum sagt der ASIC aber nicht aus. Hier kennt man nur die physikalische Qualität des Einkristalls und die Position, nicht aber die Qualität der Belichtung :)

deLuxX`
2016-09-11, 14:12:00
Wenn für dich Lautstärke wichtig ist, solltest du dich vielleicht auch mal bei MSI umschauen, die 1060 Gaming ist sehr gut auf diesem Gebiet, und die Armor sollte kaum schlechter sein.
Danke für den Tipp. Bin bei der Gigabyte gelandet, weil die Spannungswandler+Spulen direkt mit dem Kühler verbunden sind. Deswegen sind dort auch die Temperaturen deutlich besser.
Siehe: http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-gp106-grafikkarten-roundup,testberichte-242152-3.html

Fusion_Power
2016-09-11, 15:12:01
Danke für den Tipp. Bin bei der Gigabyte gelandet, weil die Spannungswandler+Spulen direkt mit dem Kühler verbunden sind. Deswegen sind dort auch die Temperaturen deutlich besser.
Siehe: http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-gp106-grafikkarten-roundup,testberichte-242152-3.html
Ich denke, bei mir könnte es die kleinere Gigabyte "Windforce" (http://www.gigabyte.com/products/product-page.aspx?pid=5979#kf) werden, falls ich da nichtn och was negatives drüber lesen sollte (chromisches Spulenfiepen???) in der 3GB Ausführung, bin ja bescheiden. Die ist um einiges kompakter und sollte dementsprechend gut in mein Mini-ITX Gehäuse passen.

Hermelinmaster
2016-09-11, 15:17:32
Und wie wird die Wafer-Qualität bestimmt?
Statistisch betrachtet kommt es aber doch gut hin, niedriger Asic=niedriger OC. Wäre die standard deviation noch interessant.
Hat jemand mittlerweile ne Möglichkeit gefunden die Spannung anzuheben? Vllt. ein Mod-Bios?

@Fusion Power Das mit der 3GB-Variante solltest Du dir gut überlegen. Für FHD meiner Meinung nach nicht ausreichend. Spulenfiepen hab ich bei meiner nicht gehört. Weder bei 60, noch bei 300 oder 1500fps. Gab aber auch schon andere Aussagen dazu.

Fusion_Power
2016-09-11, 15:28:53
Das mit den 3GB hab ich mir schon gut überlegt, keine bange. Erst wollte ich sogar auf die 1050er warten, weil die würde eigentlich für meine Zwecke auch vollkommen reichen. Dagegen ist die 1060er ja sicher Overkill, vor allem im Vergleich zu meiner derzeitigen GTX560 mit "nur" 1GB RAM, die reicht schon für Overwatch in mittleren Details, da wird die 3GB 1060er sicher mehr als angemessen sein, mehr als FHD brauch ich eh nicht und die Speicherkomprimierung der aktuellen Generation ist zudem sicher auch nochmal ne ganze Ecke besser als jene zu 500er Zeiten.
Geht halt um den Preis und um ne halbwegs kühle und leise Karte. Ich brauch echt keinen Boliden.

whetstone
2016-09-11, 15:48:24
Ich lass mir meine windforce wohl doch austauschen, ab 75% drehzahl klappert der eine lüfter jetzt auch im betrieb. Einzeln auswechseln kann man die leider auch nicht :( .

(del)
2016-09-11, 16:08:53
Und wie wird die Wafer-Qualität bestimmt? Statistisch betrachtet kommt es aber doch gut hin, niedriger Asic=niedriger OC. Wäre die standard deviation noch interessant.Die Wafer-Qualität kannst Du nicht einfach so bestimmen. Mit steigender Yield-Rate erhaält man automatisch bessere Chips, so dass auch der ASIC mit fortlaufender Verfeinerung überflüssig wird wie ein Kropf. Ich halte diese Werte einfach für überflüssig und ein Instrument, den gutgläubigen Kiddies nur unnütz Kohle aus der Tasche zu ziehen. :)

BTW:
Alle meine Schätzchen im Archiv, die richtig gut abgehen, haben niedrigere ASIC-Werte - stellenweise sogar deutlich unter 70. Für Pascal funtioniert das eh nicht mehr. Gott sei Dank.

Hermelinmaster
2016-09-11, 19:54:25
Wie zieht man mit der Asic mehr Geld aus der Tasche? Im Gegenteil, viele Schlechte gehen zurück oder manch einer ordert mehrere und schickt dann alle bis auf die Beste zurück.
Angeblich sollen die niedrigen Asics ja besser fürs OC unter Wasser und LN2 sein, bei einer fetten LuKü und offener Spannung könnte das auch der Fall sein. Nutzt aber nix wenn Gigabyte die Spannung lockt. ^^
Was funktioniert bei Pascal nichtmehr? ASIC auslesen? Bei mir scheint es zu gehen???

(del)
2016-09-11, 20:11:24
Wie zieht man mit der Asic mehr Geld aus der Tasche? Im Gegenteil, viele Schlechte gehen zurück oder manch einer ordert mehrere und schickt dann alle bis auf die Beste zurück.Es gibt diverse Editionen, bei denen man mit dem ASIC wirbt und es für viel Geld an den Mann bringen will. Dummerweise gibt es genügend Kinder, die diesen Unfug auch noch glauben.

Die Zurückschickerei ist eine lästige und teure Folge der absolut grundlosen ASIC-Hysterie. Ein weiterer Grund, solche Käufer bei manchen Stores gleich ganz zu bannen. Mich persönlich interessiert der ASIC-Wert eine bunte Wurst. :D

x-force
2016-09-11, 20:24:28
Mich persönlich interessiert der ASIC-Wert eine bunte Wurst. :D

es gab definitiv eine korrelation bei maxwell zwischen asic und erreichbarem takt.

vielleicht bekommst du auch einige (wenige) mit niedrigem asic ordentlich geprügelt. das wird dann aber wahrscheinlich mehr spannung brauchen und den verbrauch treiben.

ich denke hinter den kulissen weiß nv im vorraus ziemlich genau wie der (einzelne) chip skaliert.
der komplette pascal release kam mir vor wie eine punktlandung, die entsprechend gewollt, geplant und ausgeführt wurde.

beste grüße
ich hab grade wieder freigang :biggrin:

Dimon
2016-09-11, 21:41:18
Gibts den keinen test zu der MSI GTX1060 Armor 6G OC?

hat einer evtl. diese grafikkarte?

Mfg

Fusion_Power
2016-09-11, 22:22:16
WTF is ASIC? :freak:

Gibts den keinen test zu der MSI GTX1060 Armor 6G OC?

hat einer evtl. diese grafikkarte?

Mfg
Ich hab mir im Netz auch mal eine MSI angesehen (wieder 3GB), die scheinen aber noch rar gesäht, weder Reviews noch allzu viele Händler gefunden:

MSI GeForce GTX 1060 3GB 3GT OC (http://geizhals.de/msi-geforce-gtx-1060-3gb-3gt-oc-a1495009.html?hloc=at&hloc=de)

Edit: ich seh da auch nicht so den Unterschied zwischen den Karten, (auch bei den 6GB) ander Kühllösung OK. Aber sonst?
https://www.alternate.de/MSI/GeForce-GTX-1060-6GT-OC-Grafikkarte/html/product/1288964?campaign=Grafikkarte/MSI/1288964
https://www.alternate.de/MSI/GeForce-GTX-1060-ARMOR-6G-OC-Grafikkarte/html/product/1288963?campaign=Grafikkarte/MSI/1288963

Mike
2016-09-11, 22:54:23
Edit: ich seh da auch nicht so den Unterschied zwischen den Karten, (auch bei den 6GB) ander Kühllösung OK. Aber sonst?

Naja, der Kühler ist doch eines der wichtigsten Unterscheidungsmerkmale der Custom-Karten, oder nicht? Die Armor-Karte/deren Kühler ist ein paar cm länger und breiter, auch die Lüfter sind größer, was sie doch laufruhiger machen sollte. Außerdem unterstützt die günstige MSI offenbar nicht das Abschalten der Lüfter im 2D-Betrieb. Das Anschlussangebot ist auch anders.

(del)
2016-09-12, 09:16:28
es gab definitiv eine korrelation bei maxwell zwischen asic und erreichbarem takt.
vielleicht bekommst du auch einige (wenige) mit niedrigem asic ordentlich geprügelt. das wird dann aber wahrscheinlich mehr spannung brauchen und den verbrauch treiben.

Und wie erklärst Du Dir dann mein GTX 980 Gaming G1 Sample, das mit einem ASIC von weit unter 70 mit Werks-OC eine Leistungsaufnahme von albernen 170-176 Watt liefert und selbst beim max. OC von 1,5 GHz noch deutlich unter 200 Watt bleibt? Alles reines Cherry-Picking, in beiden Richtungen. Der ASIC ist und bleibt das Konstrukt eines einzelnen, übermotivierten (oder beauftragten) Programmierers. Mehr nicht. Hier wurde bisher NICHTS offengelegt und wenn ich ehrlich sein soll, nichts ist verdächtiger als Intransparenz.

Iruwen
2016-09-12, 09:50:29
Nach deiner Beschreibung der Vorgehensweise legen die Hersteller doch die Qualität der Chips an der Stelle für sich selbst fest, das würde bei den Summen um die es da geht doch nicht branchenweit passieren wenn es gar keinen Sinn ergäbe. Und auch wenn das nur statistische Werte sind scheinen die ja ganz gut zu passen, sonst gäbe es ja haufenweise Probleme mit falsch selektierten Chips. Oder?

MadManniMan
2016-09-12, 11:05:50
Igor, beim letzten Teil gebe ich Dir Recht - aber für Korrelationen sind einzelne Ausreißer zwar nicht unerheblich, sagen aber für die Gesamtheit nicht zwangsläufig viel aus.

Ich frage mich vielmehr: wurde das mal wirklich vernünftig erhoben? Wohl eher nicht.

Schnoesel
2016-09-12, 11:07:30
CB Test der 3GB Version:

https://www.computerbase.de/2016-09/geforce-gtx-1060-3gb-test/

Hermelinmaster
2016-09-12, 11:09:07
Warum sollte man das überhaupt machen? Ich traue mich wetten, das weit über 90% der Käufer nicht wissen was der Asic ist und wie er ausgelesen wird. Special Edition mit beworbenem Asic sind meines Wissens nach auch selten. Aber deine Argumentation @Format_C mit der anektotischen Evidenz ist ohne einen Überblick über die standard deviation wenig aussagekräftig. Wenn nur eine von 100 GPUs das von dir beschriebene Verhalten aufweist ist es ein anderer Fall, wie wenn sich 40% anders verhalten als erwartet. (Mögliche Erklärungen für deine G1 sind beispielsweise 1. Sonderfall, der von der Asic-Statistik nicht erfasst wird 2. Falsch festgelegt 3. Fehler in den Annahmen zum Asic)
Ich habe auf jeden Fall nen niedrigen Asic und OC ist unter aller Sau. Bin entäuscht.
Aber du sagt den Asic legen die AiBs fest? Würden die dann nicht alle Asics höher ansetzen?
Aber nochmal, ich habe dich so verstanden als gäbe es keinen Asic mehr bei Pascal?

Schaffe89
2016-09-12, 12:27:23
CB Test der 3GB Version:

https://www.computerbase.de/2016-09/geforce-gtx-1060-3gb-test/

Schöner Test, Preisknaller mit bisschen zu wenig V-ram, insgesamt aber immernoch einer rx470 4GB vorzuziehen, meiner Meinung nach.

HOT
2016-09-12, 12:30:13
3GB sind leider nicht 4GB. Schonmal ne Karte mit zu knappen VRAM gehabt? Das ist echt kein Spass.

Schaffe89
2016-09-12, 12:42:12
Insgesamt gehen aber alle Punkte an die GTX 1060 außer dem V-ram, daher finde ich das Fazit von Computerbase ein bisschen AMD lastig. Für 1080p dürften die 3GB in 98% aller Fälle sogar für maximale Settings ausreichen.

Schnoesel
2016-09-12, 12:59:05
Womit wohl eindeutig belegt wäre, dass Nvidias besseres Speichermenagement (ob sich das auf alle Karten übertragen lässt lasse ich mal dahingestellt, ich bezweifle das) nicht 1 oder 2 GB Mehrspeicher kompensieren kann. Insofern ist die 3GB Variante ein totaler fail.

maximus_hertus
2016-09-12, 13:25:17
Insgesamt gehen aber alle Punkte an die GTX 1060 außer dem V-ram, daher finde ich das Fazit von Computerbase ein bisschen AMD lastig. Für 1080p dürften die 3GB in 98% aller Fälle sogar für maximale Settings ausreichen.

Zu laut => kann man beheben bzw. weiterhin flüssig spielen.
Zu Stromhungrig => kann man manuell nachhelfen (Undervolting / Kühlung / Powertarget) bzw. weiterhin flüssig spielen
Zu wenig VRAM => Da gibt es keine Hilfe, evtl. auf Minimale (Textur)details zurückgehen. Aber mit vollen Details hat man verloren.

Von daher ja, die GTX 1060 3GB wäre eine absolute Top-Karte, hätte sie 4+ GiB. Mit 3 GiB ist sie mMn unbrauchbar, auch wenn es jetzt harsch klingt. Ich wüsste auch kein Szenario, in dem man die Karte empfehlen könnte:

Für FullHD mit allen Details => zu wenig VRAM, schon jetzt gibt es mehr als ein paar Ausnahmen, bei denen die Frametimes (extrem) mies sind.

Gelegenheits/CS/LoL etc. Spieler: Zu teuer, da braucht man nicht diese GPU Leistung, da reicht eine GTX 950 / RX 460 für ca. 100 Euro weniger (bei nochmals reduziertem Stromverbrauch, ohne extra Stromstecker).

Ich wüsste echt nicht, in welch einem Szenario die GTX 1060 empfehlenswert ist?

captain_drink
2016-09-12, 13:26:30
Ich habe auf jeden Fall nen niedrigen Asic und OC ist unter aller Sau. Bin entäuscht.

Wie gesagt, der Wert wird falsch ausgelesen bei Pascal.

Schaffe89
2016-09-12, 14:42:16
Womit wohl eindeutig belegt wäre, dass Nvidias besseres Speichermenagement (ob sich das auf alle Karten übertragen lässt lasse ich mal dahingestellt, ich bezweifle das) nicht 1 oder 2 GB Mehrspeicher kompensieren kann. Insofern ist die 3GB Variante ein totaler fail.

Eigentlich ist die 3 GB Variante, auch wenn sie von den AMD Anhängern jetzt wegen des geringen V-ram Verbaus gedisst wird - Fury lässt grüßen - ein ziemlich guter Schachzug von Nvidia, denn auch wenn sie nur 3GB hat ist sie genausoflott wie eine rx480 8GB, die 4GB ist ja durch den verkrüppelten Speichertakt langsamer.

Nvidia übernimmt in dieser Generation die Position die AMD früher mal innehatte.
Die P/L Krone. Das war zumindest die letzte AMD Bastion um unteren Preisbereich.
Dass Nvidia das jetzt macht, ist mehr oder weniger der Todesstoß für AMD, denn die Verkäufe der rx480 stagnieren mehr oder weniger, vor allem deswegen weil die GTX 1060 der deutlich bessere Kauf ist, die 3GB Version jetzt vielleicht mal ausgeklammert, aber ehrlicherweise lässt sich für die rx470 kein Argument außer dem Speicher finden, was der Karte einen Vorteil bringen würde.

Schaffe89
2016-09-12, 14:49:59
Zu laut => kann man beheben bzw. weiterhin flüssig spielen.
Zu Stromhungrig => kann man manuell nachhelfen (Undervolting / Kühlung / Powertarget) bzw. weiterhin flüssig spielen
Zu wenig VRAM => Da gibt es keine Hilfe, evtl. auf Minimale (Textur)details zurückgehen. Aber mit vollen Details hat man verloren.

Ich finde es immerwieder spannend, wenn für AMD immer Ausreden gesucht werden, würde man das neutral bewerten, dann sieht man auf der AMD höchstens den Speicherverbau als positives Argument für eine 470.

DIe GTX 1060 3GB ist ja je nach Modell sicherlich minimum 10% schneller.
Benötigt gegenüber hochgetaktete rx470 Karten 50 bis 60 Watt weniger Strom, hat die besseren Treiber was konstante Leistung in Spielen angeht.
Fast jedes Modell ist leiser und ist halt einfach auch was Surfen/Video angeht, deutlich sparsamer.

Von daher ja, die GTX 1060 3GB wäre eine absolute Top-Karte, hätte sie 4+ GiB.

Das ist ein klarer Nachteil der Karte, allerdings wird der die Käufer nicht davon abhalten die Karte zu den günstigen Preisen zu kaufen und die Folgen sind für den Durchschnittszocker eher völlig kalkulierbar.


Für FullHD mit allen Details => zu wenig VRAM, schon jetzt gibt es mehr als ein paar Ausnahmen, bei denen die Frametimes (extrem) mies sind.

Gibt es ja bei einer 4GB rx470 auch, halt nicht ganz so oft.

Ich wüsste echt nicht, in welch einem Szenario die GTX 1060 empfehlenswert ist?

Aus dem Beweggrund heraus, wieso auch die HD 4870 512mb einer GTX 260 896mb vorgezogen wurde und oft AMD emfpohlen wurde. Preisleistung.
Es gibt von AMD aktuell außer der rx460 keine Karte die eine bessere Preisleistung als Nvidia Gegenstücke aufweißt, das wird mMn die Marktanteile deutlich zugunsten von Nvidia verschieben und AMD kann aufgrund der eh schon im Keller liegenden Margen da nicht mehr mitziehen und muss halt jetzt mit dem Directx12 Zug und der Rebellion punkten, vll klappt das ja auch, ich denke aber nicht.

HOT
2016-09-12, 14:52:35
3GB sind zu wenig, das lässt sich nicht wegdiskutieren, da haben sich schon zig Seiten mit beschäftigt und es ist einfach ein Fakt. Mit 4GB kommt man erheblich besser klar, auch wenn das schon einschränkend wirkt. Für eine normal getaktete 470 oder 460 sind 4GB ok, diese Karten können eh nicht volle Details liefern in leistungszehrenden Spielen. Die 1060 ist aber ein ganz anderer Fall - viel schwerer wiegt jedoch, dass 1GB einfach fehlt.
Es gibt einen guten Vergleich aus der Vergangenheit, ein Präzedenzfall sozusagen und zwar die 6800GT. Asus brachte damals eine sehr günstige 128MB-Variante heraus, die extrem beliebt war. Als diese Karte erschein waren die 128MB schon wenig, aber es reichte in den meisten Fällen gut aus. Schon 1/2 Jahr später stieß man bei sämtlichen neuen Spielen massiv an Grenzen, die nicht zu kompensieren waren. Die 1060 3GB ist EXAKT so ein Fall. Der fehlende GB killt die Zukunftfähigkeit total. 3GB ist für 120€ ok, aber nicht für 240€, das grenzt an Betrug, weil man ein Produkt verkauft, was jetzt grad noch so geht aber schon in 1/2 Jahr einfach Abfall ist.

Dass eine 4870 mit 512MB damals ging ist den alten Konsolen geschuldet. Wir hingen sehr lange Zeit in der 32Bit-Grenze fest und hatten Konsolen, die maximal 256MB VRAM zur Verfügung stellten. Das ist heute kein Problem mehr. Die heutigen Konsolen bieten einen vergleichweise niedrigen Detailgrad an ggü. dem PC und, was noch viel wichtiger ist, sie sind 64Bit und schränken Cross-Plattform-Titel nicht mehr ein.

Schnoesel
2016-09-12, 14:57:09
Das die 3GB zu wenig sind besagen auch alle Tests bisher. Dass Schaffe hier seinen ganz eigene Logik anwendet indem er Stromverbrauch etc. gegenrechnet verwundert mich allerdings keineswegs.

(del)
2016-09-12, 15:09:00
Noch einmal:
Der "ASIC"-Wert wird von einem 3rd-Party Tool ausgeworfen und das Zustandekommen ist nirgends exakt und transparent dokumentiert. Wenn mir jemand exakt und belastbar nachweist, was da eigentlich ausgegeben wird und wie diese Zahl im Tool überhaupt zustande kommt, dann werde ich nach Prüfung der Umstände vielleicht anfangen, das auch für Ernst zu nehmen (oder auch nicht). In der statistischen Erhebung von insgesamt über 100 Maxwell-Karten, die im Laufe der Zeit hier durchs Archiv liefen und sich z.T. auch noch dort befinden, ist die Streuung so groß, dass der Wert alles und nichts aussagt. :D

Dass man bei Pascal noch nichts erhält liegt sicher eher daran, dass eine der Informationen, auf denen diese Schätzung beruht, wohl weggefallen ist. :D

Ich habe bei zwei R&D-Ingenieuren mal nachgefargt, was sie vom ASIC halten. Antwort: nichts. Beide Boardpartner gehen dabei sogar ähnlich vor und selektieren noch einmal hausintern, da der ASIC eben absolut unzuverlässig ist. Das reicht noch nicht einmal für eine Vorauswahl, weil der Raster zu grob sei. Einige Firmen, wie Zotac, nutzen ein einziges PCA für drei (Maxwell, 980 Ti) bzw. zwei (Pascal, 1080) Versionen und entscheiden erst nach fertiger Bestückung über Firmware und Label, je nach echter Übertaktbarkeit. Bei MSI haben die 1080 Gaming X und Z identische Layouts und werden auch erst nach Bestückung getestet. Bei Gigabyte enscheidet das hausinterne Gauntlet-Verfahren, welcher Chip z.B. auf die Xtreme Gaming kommt. Hier wird also vorher entschieden. In keiner der drei Firmen wird über den ASIC überhaupt nachgedacht. Inno3D macht es übrigens auch mit fertigen PCAs.

x-force
2016-09-12, 20:58:10
Der ASIC ist und bleibt das Konstrukt eines einzelnen, übermotivierten (oder beauftragten) Programmierers. Mehr nicht. Hier wurde bisher NICHTS offengelegt und wenn ich ehrlich sein soll, nichts ist verdächtiger als Intransparenz.

nach allen angaben die google findet, wird der wert aber ausgelesen und nicht errechnet.
das heißt nv und amd scoren ihre chips selbst, macht ja auch betriebswirtschaftlich sinn.

das was ich anhand von umfragen und postings dazu ableiten konnte ist, daß ein höherer asic eben häufig mit dem erreichbaren takt bei einer bestimmten spannung korreliert.

das heißt dann aber noch nicht, daß mit extraspannung die skalierung erhalten bleibt.

der asic ist daher vielleicht eher ein indikator für den "werksboost".

wenn du unterschiedliche karten vergleichst spielt da natürlich noch die qualität der komponenten, aufbau, kühlung, ram usw dazu.
um das mal endgültig zu klären müsste man nur ein maxwell modell mit asics von niedrigen 60ern bis in die 80er (50er und 90er hab ich nicht bewusst gesehen) testen und den kühler inkl paste in vergleichbarer form aufbringen.

es wundert mich aber auch etwas, daß man dieses rating nicht für cpus auslesen kann. da bietet sich das ganze ja noch viel mehr an, da ein chip in etlichen taktungen und kastrierungen verkauft wird.
vielleicht bleiben diese daten aber auch nur in einer internen datenbank und werden gar nicht verewigt, um den rubel rollen zu lassen.

maximus_hertus
2016-09-12, 22:04:16
DIe GTX 1060 3GB ist ja je nach Modell sicherlich minimum 10% schneller.
Benötigt gegenüber hochgetaktete rx470 Karten 50 bis 60 Watt weniger Strom, hat die besseren Treiber was konstante Leistung in Spielen angeht.
Fast jedes Modell ist leiser und ist halt einfach auch was Surfen/Video angeht, deutlich sparsamer.

Ich zitiere den CB-Test:

In den ersten Sekunden des Spielens ist bei der GeForce GTX 1060 3 GB alles in Ordnung. Doch dann läuft der Speicher über und die Grafikkarte muss diesen offenbar über den PCIe-Slot auslagern. Das Ergebnis ist, dass nicht nur plötzlich die Framerate abfällt. Zugleich häufen sich Ausreißer bei den Frametimes. In F1 2015 stört das beim Spielen sehr, mit der 6-GB-Version lässt sich der Titel deshalb deutlich besser steuern. Weitere Titel bestätigen dieses Bild, Details folgen.

Also nein, die 3 GiB ist höchstens eines: Unkonstant.



Aus dem Beweggrund heraus, wieso auch die HD 4870 512mb einer GTX 260 896mb vorgezogen wurde und oft AMD emfpohlen wurde. Preisleistung.

Wenn die GTX 1060 3 GiB bei 120-130 Euro liegen würde, würde ich dir recht geben. So ist sie einfach viel zu teuer. Für FHD Gaming nur eingeschränkt geeignet bzw. nur bei nicht ganz so anspruchsvollen Games gut dabei (CS, LoL, Diablo und Co.). Da reicht aber, wie schon geschrieben, eine GTX 950 / RX 460. Die 1060 bietet dort schlicht nichts, was die anderen auch nicht könnten (unter FHD).

Abgesehen davon, dass es bis Juni 2008 quasi keine 1 GiB Karte gab und dementsprechend auch keine Games, die unter den damals üblichen Auflösungen die 512 MiB gestärt hat. Die ursprüngliche HD 4850 hätte gepasst, die hatte nur 256 MiB, wurde aber ja (zum Glück) gecancelt bzw. zur uns bekannten 4850 "aufgewertet". Die 512 vs 896 MiB von Juni 2008 sind mit der 6 vs 8 GiB heute zu vergleichen. Nett, sie zu haben, aber aktuell "irrelevant".


Es gibt von AMD aktuell außer der rx460 keine Karte die eine bessere Preisleistung als Nvidia Gegenstücke aufweißt, das wird mMn die Marktanteile deutlich zugunsten von Nvidia verschieben und AMD kann aufgrund der eh schon im Keller liegenden Margen da nicht mehr mitziehen und muss halt jetzt mit dem Directx12 Zug und der Rebellion punkten, vll klappt das ja auch, ich denke aber nicht.

Hö? Margen der Polariskarten? Woher hast du die Infos?
Abgesehen davon, dass AMD 3 Quartale in Folge bei den Grafikkarten dazugewinnen konnte (von einem sehr niedrigen Marktanteilsniveau), sehe ich nicht, warum nV wieder deutlich dazugewinnen sollte. Mit Polaris ist man wieder in Geräten dabei, die man defakto länger nicht belifern konnte. Dazu ist die NAchfrage nach der RX 470/480 größer als gedacht, bei uns gehen alle AMD Karten binnen 24h raus. Die 1060er stapeln sich jedoch, was aber nicht so überrascht. 299 Euro sind einfach die psychologische Grenze, eigentlich bei vielen sogar 250 Euro. Aber solange die 2 am Anfang steht, kommen die meisten darüber hinweg. 330-350 Euro sind aber deutlich(!) zu viel, vor allem meckern doch überraschend viele Kunden, dass sie 8 GiB haben möchten.

AMDs Hauptproblem ist schlicht die Lieferfähigkeit, speziell im Juli / August. Da wäre viel, viel mehr möglich gewesen.

In rund 6 Wochen sollten dann die Quartalszahlen geben, dann wird man sehen, wie es bei der RTG gelaufen ist.

Hermelinmaster
2016-09-13, 02:03:09
@Format_C Danke, da waren doch mal ein paar Zahlen und Expertisen dabei. Stellt sich mir die Frage wofür? Wenn die AiBs andere Kriterien nehmen und letztlich mit dem Asic nichts anzufangen ist und auch nicht wirklich mehr Kohle dabei raus springt (mehr Geld nur für Gaming-Zeugs, das nach deiner Aussage ja anders ausgewählt wird), warum sollte dann nVidia überhaupt die Daten dazu liefern. Selbst wenn Sie nicht getestet werden sondern das nur nach einigen Standart-Kriterien berechnet wird müssen Diese trotzdem erfasst, dokumentiert und irgendwie in die GPU implantiert werden (alternativ gibt zu dem Batch n Excel-File in dem alles steht, aber auch das kostet Zeit und Ressourcen). Auch die Leute die mehrere Karten bestellen und nur die Beste behalten kosten effektiv Geld. Oder glaubst du GPU-Z würfelt die Zahlen und es gibt eigentlich überhaupt nichts in der Richtung? Dann hätten die Hersteller bestimmt schon lange Stellung dazu bezogen...

Nur nochmal kurz zu den 3GB bisher hatte jedes Spiel das ich probiert hatte mehr als 3GB belegt, meist mehr als 4. Da müssen zwangsweise Stutter auftreten (bei manchen Spielen weniger schlimm als bei anderen). Also MSAA und/oder max Texturen kannst du damit vergessen. Aber ich weiß grad nicht wie viel günstiger die 3GB Variante ist. Für unter 200€ eine Überlegung wert. Ansonsten warte auf die 1050 4GB. Die reicht dann wirklich für CSGO und Mobas.

(del)
2016-09-13, 07:13:27
...warum sollte dann nVidia überhaupt die Daten dazu liefern. Selbst wenn Sie nicht getestet werden sondern das nur nach einigen Standart-Kriterien berechnet wird müssen Diese trotzdem erfasst, dokumentiert und irgendwie in die GPU implantiert werden (alternativ gibt zu dem Batch n Excel-File in dem alles steht, aber auch das kostet Zeit und Ressourcen). Auch die Leute die mehrere Karten bestellen und nur die Beste behalten kosten effektiv Geld. Oder glaubst du GPU-Z würfelt die Zahlen und es gibt eigentlich überhaupt nichts in der Richtung?Bei den CPUs bekommt bereits jeder Chip eines Wafers bei der Belichtung die Kennung, damit man ihn später positionsmäßig wieder zuordnen kann. Das sollte bei den GPUs ähnlich sein, womit sich der Aufwand gegen Null orientiert.

Was GPU-Z macht? Keine Ahnung. Viel mehr als Sensordaten im Loop auslesen kann das Programm auch nicht und es funktioniert auch nur über den jeweiligen Grafiktreiber samt aktivem Protokoll. Ist der nicht installiert, gibt ja GPU-Z schlichtweg nichts zurück. Wäre es eine normale, offizielle Variable, würden es andere Programme und Herstellertools garantiert auch auswerfen. Und warum geht es plötzlich bei Pascal nicht mehr? Mir ist das alles viel zu nebulös und zu intransparent, um daran zu glauben :)

Nachtrag:
Ich habe vorhin mit einem Freund in einer China-Factory telefoniert. Mehrere Hersteller haben Nvidia bereits vor längerer Zeit aufgefordert, TPU diese Ausgabe zu untersagen bzw. darauf einzuwirken, den Menüeintrag schnellstmöglich zu entfernen. Es gab auch bereits einen Riesenaufstand unter den Distris, weil der Sport der Grafikkartenrücksendung und die vielen Mehrfachbestellungen nicht nur teuer und zu Lasten der Händler gingen (und gehen), sondern auch eine spürbare, künstliche Warenverknappung verursachen. Wie es ausschaut, hat Nvidia bei Pascal nun die Reißleine gezogen, jedoch war von NV selbst nicht offizielles zu erfahren. Nur private Kommentare, die in die gleiche Richtung zielten.

Boost setzt übrigens laut dem R&D bei der ganzen Regelung auf reale Sensorwerte (Temperaturen, Ströme usw.), diverse Vorgaben der Firmware (einschl. Overwritings bzw. Protokolleingriffe von Drittanbietersoftware wie z.B. Afterburner), sowie die Treiberinformationen über anstehende Lasten (Power Estimation, Preemption), die der Arbitrator auswertet und nicht auf eine statische Qualitätsvorgabe. Würde man dies tun, wäre die Hälfte der Karten grundlos zu langsam. Somit ist auch der Sinn des ASIC irgendwie obsolet. Das zeigt sich auch daran, dass Karten einer Modellreihe bei gleichem ASIC unterschiedlich boosten können.

x-force
2016-09-13, 16:04:45
Und warum geht es plötzlich bei Pascal nicht mehr? Mir ist das alles viel zu nebulös und zu intransparent, um daran zu glauben :)

Nachtrag:
Ich habe vorhin mit einem Freund in einer China-Factory telefoniert. Mehrere Hersteller haben Nvidia bereits vor längerer Zeit aufgefordert, TPU diese Ausgabe zu untersagen bzw. darauf einzuwirken, den Menüeintrag schnellstmöglich zu entfernen. Es gab auch bereits einen Riesenaufstand unter den Distris, weil der Sport der Grafikkartenrücksendung und die vielen Mehrfachbestellungen nicht nur teuer und zu Lasten der Händler gingen (und gehen), sondern auch eine spürbare, künstliche Warenverknappung verursachen. Wie es ausschaut, hat Nvidia bei Pascal nun die Reißleine gezogen, jedoch war von NV selbst nicht offizielles zu erfahren. Nur private Kommentare, die in die gleiche Richtung zielten.


ich war auch erstaunt, daß es plötzlich nicht mehr ging.

ich denke die antwort hast du dir selbst gegeben :)

ja asic funktionierte mit maxwell, das ist irgendwann bei den kunden angekommen. einige spielen nunmal gerne lotto - warum auch nicht, wenn der hersteller eine lotterie anbietet. das führte dann zu weniger gewinn bei den händlern, die bei den herstellern maulen.
daraufhin werden die werte seitens nv an einer anderen speicheradresse abgelegt und das programm kann nichts mehr auslesen.

imo die beste erklärung.

denn auch wenn die firmware die karte selbst taktet, nv muss ja erstmal wissen, ob es ein vollausbau wird und wie viel die karte leisten kann. mit niedrigerem taktpotential eignet sich ein chip z.b. eher für konservative taktungen wie sie die quattro und co serien haben.

(del)
2016-09-13, 18:41:27
mit niedrigerem taktpotential eignet sich ein chip z.b. eher für konservative taktungen wie sie die quattro und co serien haben.
Grundfalsch. Die Quadros, wie auch die Xeons bei den CPUs, haben stets die besten Chips. Da geht es nicht ums Takten. Meine M6000 frist ca. 18 Watt weniger als die unter Last sogar etwas niedriger boostende alte Titan X, obwohl deren Takt eigentlich höher sein sollte. Ist halt kühler :P

x-force
2016-09-13, 19:16:24
Grundfalsch. Die Quadros, wie auch die Xeons bei den CPUs, haben stets die besten Chips. Da geht es nicht ums Takten. Meine M6000 frist ca. 18 Watt weniger als die unter Last sogar etwas niedriger boostende alte Titan X, obwohl deren Takt eigentlich höher sein sollte. Ist halt kühler :P


das bezweifel ich.

die besten exemplare sollten auf dem i7k mit 4ghz grundtakt zu finden sein.
das ist schließlich das modell mit dem höchsten takt.

was die voltage skalierung betrifft, gehen die besten wohl in die mobile sparte bzw auf die low watt schiene, sprich die ganzen u, s, t, xyz modelle.

der grundtakt und boost der serverviecher ist eigentlich immer niedriger.
der beliebte xeon e3 haswell geht z.b. kein stück besser :)

scully1234
2016-09-13, 20:13:04
Nachtrag:
Ich habe vorhin mit einem Freund in einer China-Factory telefoniert. Mehrere Hersteller haben Nvidia bereits vor längerer Zeit aufgefordert, TPU diese Ausgabe zu untersagen bzw. darauf einzuwirken, den Menüeintrag schnellstmöglich zu entfernen. Es gab auch bereits einen Riesenaufstand unter den Distris, weil der Sport der Grafikkartenrücksendung und die vielen Mehrfachbestellungen nicht nur teuer und zu Lasten der Händler gingen (und gehen), sondern auch eine spürbare, künstliche Warenverknappung verursachen. Wie es ausschaut, hat Nvidia bei Pascal nun die Reißleine gezogen,.


Find ich nur konsequent , das was da in der letzten Zeit ueber die Buehne ging, mit der ganzen Geschichte ,ist fuer alle letztlich ein Nachteil.

Denn Haendler als auch Distris werden die Zusatzkosten irgendwann/ irgendwo weiter geben , wenn das Ueberhand nimmt, mit dieser selektiven Bestellung von Karten.

Denn die wenigsten werden wohl Manns genug sein, und ihre Doppel und Dreifachbestellungen privat zu veraeussern.

Eigentlich ist es schon ein Bißchen erschreckend ,wie assozial sich einige da im Internethandel benehmen, wenn sich da auch nur die geringste Chance ergibt.

Mike
2016-09-13, 21:29:47
Wieso soll eigentlich ein ASIC-Wert zu Mehrkäufen und Rückläufern führen? Wenn man eine gut taktbare Karte möchte und sich schon die Mühe macht, mehrere zu bestellen, dann probiert man die Taktfähigkeit doch lieber gleich direkt aus, anstatt sich auf diesen statistischen Wert zu verlassen!?

(del)
2016-09-13, 21:45:03
Placebo-Effekt. Es gibt genügend Pickelkinder, die den ASIC anbeten. Ersatzreligion für die, die zu dumm für ein differenziertes OC sind. Siehe viele Forenposts auch hier...

Hermelinmaster
2016-09-14, 16:23:35
@Fomat_C Ich hab hier keine Anfeindung gegen dich gelesen oder geschrieben. Dein ausfälliger Ton ist also überflüssig, egal gegen wen. Alles was ich gesagt habe war, das meine 1060 extrem schlecht geht und die Spannung gelockt ist. Ob nun wegen oder trotz Asic ist mir Wurscht. Außerdem hat mich das Thema interessiert und ich habe dich um weitere Infos gebeten, die Du mir freundlicherweise zur Verfügung gestellt hast.
@Mike Es gab viele die sich (nach eigener Aussage in Foren) den besten Asic ausgesucht haben. Warum? Keine Ahnung. Aber wenn man 5 Karten bestellt und alle auf stable OC testet, dann kann das ein paar Wochen dauern. Dabei sagt der Asic (angeblich) nur etwas über den "Kriechstrom" (mir fällt gerade der Begriff dafür nicht ein) aus. Bedeutet ein Chip mit hohem Asic hat eine bessere Effizienz und erreicht bei gleicher Spannung einen höheren Takt und niedrigere Temperaturen. Umgekehrt sollen Chips mit niedrigem Asic wärmer werden, aber bei ausreichender Kühlung stabiler bei hohen Spannungen und hohem Takt laufen. Entsprechend werden die Chips mit hoher Güte als Xeon oder Quadros verkauft (bessere Energieeffizienz) und die "schlechten" Chips als i7/GTX um mit höherer Spannung auf höheren Takt zukommen. Wobei ja weiter unterschieden wird zwischen i7 und i5...
Aber nochmal die Frage: Wurde bei allen Pascals das Asic auslesen/berechnen/würfeln/etc. vom Hersteller verhindert? Wieso schmeißt mir GPU-Z dann einen durchaus plausiblen Wert von 60.7 entgegen?
Und nochmal: Kann man den Lock der Spannung irgendwie aufheben?

(del)
2016-09-14, 19:12:51
@Fomat_C Ich hab hier keine Anfeindung gegen dich gelesen oder geschrieben. Dein ausfälliger Ton ist also überflüssig, egal gegen wen. Wenn Du wüsstest, mit welchem Feedback ich täglich leben muss und welches Klagelied die Distris singen, wäre ein Knüppel oft noch besser, als nur ein paar verbale Gefälligkeiten. Gegen wen auch immer. Aber es reicht schon, allein hier im Forum mal nach ASIC und dem dazugehörigen Gesabber zu suchen ;)

Ich habe gerade wieder so einen Fall, da geht es um die 480 und den Umstand, dass angeblich der Kompatibilitätsmodus mit dem Crimson 16.9.1 nicht mehr ginge. Modden und clocken ohne Verstand und Hirn, Hauptsache die Dinger sterben wie die Fliegen oder man kann wenigstens mal die nächste rote Sau durchs Dorf treiben. Ätzend. Sorry. Geht nicht gegen dich, sondern die Menge der Unbelehrbaren.

BTW:
Du meinst sicher die Leakage, also die Leckströme. Bei gut gekühlten Pascal-Karten kann man das fast schon vernachlässigen, bei AMD war es durchaus ein Thema, wo man mal locker bis zu 30 Watt einsparen konnte, wenn man die Hawaiis unter 50 Grad gedrückt hat. Diese Reserve bliebt dann für die Performance übrig.

gedi
2016-09-14, 23:16:06
WTF is ASIC? :freak:


Ich hab mir im Netz auch mal eine MSI angesehen (wieder 3GB), die scheinen aber noch rar gesäht, weder Reviews noch allzu viele Händler gefunden:

MSI GeForce GTX 1060 3GB 3GT OC (http://geizhals.de/msi-geforce-gtx-1060-3gb-3gt-oc-a1495009.html?hloc=at&hloc=de)

Edit: ich seh da auch nicht so den Unterschied zwischen den Karten, (auch bei den 6GB) ander Kühllösung OK. Aber sonst?
https://www.alternate.de/MSI/GeForce-GTX-1060-6GT-OC-Grafikkarte/html/product/1288964?campaign=Grafikkarte/MSI/1288964
https://www.alternate.de/MSI/GeForce-GTX-1060-ARMOR-6G-OC-Grafikkarte/html/product/1288963?campaign=Grafikkarte/MSI/1288963

3GB? Schlechte Wahl, da schrott: https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/

Fusion_Power
2016-09-15, 00:00:32
3GB? Schlechte Wahl, da schrott: https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/

Hmm, nenn mir ein Spiel dass mit einer GTX1060 3GB schlechter läuft als mit meiner derzeitigen GTX560 1GB... ;)
Wie gesagt, Overwatch, Diablo 3, Minecraft, bissl Retrogaming... was soll da mehr als 3GB VRAM brauchen. Hab auch nicht vor in 4K zu spielen, brauch zwar auch dringend nen neneuen Monitor aber das wird sicher auch kein Ultra HD Dingens in 70 Kilometer Breitbild. :D
Und "Schrott" könnte sich NVidia wohl gar nicht leisten, die sind seit dem GTX970 debakel ja eh schon angezählt und AMD lauert auch schon zähnefletschend hinter der Ecke.

Rubber Duck
2016-09-15, 00:30:45
Hmm, nenn mir ein Spiel dass mit einer GTX1060 3GB schlechter läuft als mit meiner derzeitigen GTX560 1GB... ;)
Wie gesagt, Overwatch, Diablo 3, Minecraft, bissl Retrogaming... was soll da mehr als 3GB VRAM brauchen. Hab auch nicht vor in 4K zu spielen, brauch zwar auch dringend nen neneuen Monitor aber das wird sicher auch kein Ultra HD Dingens in 70 Kilometer Breitbild. :D
Und "Schrott" könnte sich NVidia wohl gar nicht leisten, die sind seit dem GTX970 debakel ja eh schon angezählt und AMD lauert auch schon zähnefletschend hinter der Ecke.
Ach was. nVidia Käufer wird es immer geben. :rolleyes:

x-force
2016-09-15, 01:24:04
nimm die 6gb,
4gb werden schneller pflicht als du vielleicht denkst.
oder willst du keine neuen spiele zukünftig spielen? halte ich für unrealistisch, aber dann sollte die 3gb version passen. ;)

(del)
2016-09-15, 06:40:20
Ein Schelm, der Böses dabei denkt, wenn Gaming Evolved Titel plötzliche alle so viel mehr Speicher brauchen als noch unlängst zu Zeiten der guten alten Fury (X) und trotzdem nicht besser aussehen ;)

Die Speicherorgien mancher Spiele kann ich kaum noch nachvollziehen. Sorry.

Achim_Anders
2016-09-15, 10:45:41
Ich schon: Was da ist, wird genutzt. Keine Ahnung wieso das irgendwas mit AMD/Nvidia zu tun haben sollte...

dildo4u
2016-09-15, 10:56:52
MS näste Konsole soll 12GB haben,möglich das die Games jetzt schon drauf vorbereitet werden,das sie dann in 4k brauchbare Texturen vorzeigen können.

The_Invisible
2016-09-15, 11:05:52
Die Frage ist eher ob es nur als Cache benutzt wird oder wirklich gebraucht wird.

Meine 32gb ram sind unter Linux nach längeren arbeitssessions auch voll wobei der großteil als Dateicache verwendet wird.

Das könnten dann nur die Entwickler oder entsprechende Tools vom Spiel anzeigen.

(del)
2016-09-15, 11:06:16
Mit etwas Sorgfalt und Optimierungen reicht deutlich weniger aus, um riesige, hochaufgelöste Tapeten nutzen zu können. Unter Programmierern gibt es da ein schönes Beispiel, das man auch selbst nachspielen kann.

Man hat zwei Kästen Wasser für eine Gruppe von Leuten für einen Arbeitstag, bei dem auch schon mal einge Wege durchs Office zurückgelegt werden. Meeting inklusive. Wenn man durchsetzt, dass sich jeder von einem oder zwei definierten Ort(en) zu Beginn jeweils eine volle Flasche nimmt und die nächste erst dann öffnet, nachdem er die leere wieder zurückgestellt hat, bleiben zum Schluss mehr ungeöffnete Flaschen zum weiteren Gebrauch, als wenn wahllos geöffnet, halb ausgetrunken und stehengelassen wird. Hier hat man am Ende des Tages sicher eine ähnliche Menge Wasser übrig, nur eben verteilt in lauter angerissenen und halbleeren Flaschen, die so keiner mehr will. Und es wird umso deutlicher, je größer die Flaschen sind, wenn man von einer einheitlichen Gesamtmenge an Wasser ausgeht. Wir haben früher einfach lernen müssen, mit Ressourcen sparsam umzugehen. DOS-Programmierer wissen das noch:)

Sicher, Vorausladen und ein weiteres Vorhalten auf den alleingen Verdacht hin, es könne noch einmal gebraucht werden, kann die Performance eines Spiels steigern. Doch wenn dies die einzige Rettung für spielbare FPS ist, hat man bei der Engine oder dem Code drumherum bereits deutlich versagt. Es gab mal nette Programme, da waren in albernen 64KB minutenlange Sequenzen incl. Sound verpackt. So weit muss man es natürlich nicht treiben, aber bei vielen Spielen stehen Aufwand und Ergebnis in keinem anständigen Verhältnis mehr.

dildo4u
2016-09-15, 11:28:49
Ich würde mich nicht drauf verlassen das die Entwickler in Zukunft effektiver arbeiten,hier die 8GB der PS4Pro schränkt die Texturen bei Tomb Raider schon ein.

http://www.neogaf.com/forum/showthread.php?t=1278475

Iruwen
2016-09-15, 11:36:11
Kommt später in dem Thread noch ein interessantes Statement? Ansonsten würde ich stark bezweifeln, dass das was mit den 8GB der PS4 zu tun hat.

dildo4u
2016-09-15, 11:43:39
Warum?Die 8GB könnnen nich komplett für das Game verwendet werden und PC Karten mit 4GB haben Probleme mit dem Game@Very High Texturen selbst in 1080p.Für Auflösungen über 1080p und Very High Texturen braucht man am PC vermutlich 12GB Ram und 6GB Vram.

https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/2/

Fusion_Power
2016-09-15, 13:41:51
nimm die 6gb,
4gb werden schneller pflicht als du vielleicht denkst.
oder willst du keine neuen spiele zukünftig spielen? halte ich für unrealistisch, aber dann sollte die 3gb version passen. ;)
Zu teuer. Vielleicht sollte ich dann doch auf die GTX050 mit 4GB VRAM warten? Die ist natürlich viel langsamer aber so wie das hier klingt scheint das eine popelige Gigabyte doch mehr auszumachen als pure GPU Power? :rolleyes:

Ich würde mich nicht drauf verlassen das die Entwickler in Zukunft effektiver arbeiten,hier die 8GB der PS4Pro schränkt die Texturen bei Tomb Raider schon ein.

http://www.neogaf.com/forum/showthread.php?t=1278475
Es würde aber so viel bringen wenn die Entwickler mal Abstand von Gigantischen MEga Texturen nehmen täten die eh kaum ein Spieler registriert. Dann wiederholen sich halt mal ein paar Tapeten und sind weniger stark aufgelöst, kann man kaschieren z.B. mit geschickt eingesetzten Detail Texturen die aus der nähe zugeschalten werden. Hat bei Unreal schon 1A funktioniert. Und damals hatte meine GraKa 8 MEGABYTE VRAM. :D

Manchmal denk ich, Devs von heute machen es sichzu einfach, setzen nur noch auf die pure Hardware Power ohne Rücksicht auf Verluste. Optimieren ums effizienter laufen zu lassen tut kaum noch wer.

Schaffe89
2016-09-15, 13:55:28
Ich würde Leistung gegenüber V-ram schon eigentlich vorziehen , die paar Einstellungen sind schnell gemacht, dafür hat man dann halt mehr FPS, jedem das seine.

x-force
2016-09-15, 14:22:33
texturen ziehen keine performance, nur speicher, solange man diesen hat.
bevor ich eine 3gb grafik kaufe, würde ich sogar eine etwas langsamere amd nehmen.

solange speicher und rechenleistung nicht im krassen missverhältnis stehen, würde ich immer den größten speicher kaufen. der aufpreis ist imo locker gerechtfertigt. eigentlich sollte man 8gb in dieser klasse haben.
12gb wären dann unsinnig.

dazu kommt noch, daß die 6gb 1060 mehr shader hat. also nicht nur einfach mehr speicher.

N0Thing
2016-09-15, 15:40:21
Mit etwas Sorgfalt und Optimierungen reicht deutlich weniger aus, um riesige, hochaufgelöste Tapeten nutzen zu können. Unter Programmierern gibt es da ein schönes Beispiel, das man auch selbst nachspielen kann.

Man hat zwei Kästen Wasser für eine Gruppe von Leuten für einen Arbeitstag, bei dem auch schon mal einge Wege durchs Office zurückgelegt werden. Meeting inklusive. Wenn man durchsetzt, dass sich jeder von einem oder zwei definierten Ort(en) zu Beginn jeweils eine volle Flasche nimmt und die nächste erst dann öffnet, nachdem er die leere wieder zurückgestellt hat, bleiben zum Schluss mehr ungeöffnete Flaschen zum weiteren Gebrauch, als wenn wahllos geöffnet, halb ausgetrunken und stehengelassen wird. Hier hat man am Ende des Tages sicher eine ähnliche Menge Wasser übrig, nur eben verteilt in lauter angerissenen und halbleeren Flaschen, die so keiner mehr will. Und es wird umso deutlicher, je größer die Flaschen sind, wenn man von einer einheitlichen Gesamtmenge an Wasser ausgeht. Wir haben früher einfach lernen müssen, mit Ressourcen sparsam umzugehen. DOS-Programmierer wissen das noch:)

Sicher, Vorausladen und ein weiteres Vorhalten auf den alleingen Verdacht hin, es könne noch einmal gebraucht werden, kann die Performance eines Spiels steigern. Doch wenn dies die einzige Rettung für spielbare FPS ist, hat man bei der Engine oder dem Code drumherum bereits deutlich versagt. Es gab mal nette Programme, da waren in albernen 64KB minutenlange Sequenzen incl. Sound verpackt. So weit muss man es natürlich nicht treiben, aber bei vielen Spielen stehen Aufwand und Ergebnis in keinem anständigen Verhältnis mehr.

Auch heute wird genutzt was vorhanden ist und auch optimiert, soweit Zeit und Budget ausreichen. Und auch heute kann man aus Algorithmen berechnete Demos mit Sound in sehr kleinen Paketen erzeugen, die haben nur nichts mit den Blockbustern der heutigen Zeit zu tun. Vergleichbare Techniken kommen aber trotzdem in einigen Spielen vor, wie Elite, NMS, Star Citizen und in eingeschränkter Form auch Oblivion.

Aber ich würde gerne wissen, warum man den VRAM so leer wie möglich halten sollte. Was nicht im VRAM liegt, kann auch nicht von dort aus genutzt werden und muss mit Verzögerungen aus anderen Quellen geholt werden, z.B. aus dem RAM. Oder wird der auch zur Optimierung geleert, damit immer schön was frei ist und wenig Platz verbraucht wird? :D

Man hat über Jahre keinen wirklichen Bedarf an mehr Speicher gehabt, bzw. ist der Bedarf bei den PCs nur in ganz kleinen Schritten von statten gegangen. Mit der aktuellen Konsolengeneration ist der Schritt eben größer ausgefallen und mit 8GB wird man wieder ein paar Jahre über die Runden kommen, bis der nächste große Sprung bei den Konsolen ansteht und wenn man auf Konsolenniveau bleiben will, reichen vermutlich auch 4GB noch eine ganze Weile.

(del)
2016-09-15, 16:24:24
Naja....

Früher hat man Texturtapeten optimiert und redundante Inhalte bewusst vermieden, indem man identische Flächen herausgelassen und separat in gemeinsam genutzen Texturen gespeichert hat. Mittlerweile hat jedes individuelle Mesh seine eigene Textur, egal ob da Inhalte partiell die gleichen sind, wie in anderen Texturen. Es liegt aber auch ein wenig an der Herstellungsweise, weil mittlerweile auch die 3D-Fotografie bei der grafischen Umsetzung hergenommen wird. Da macht sich dann keiner die Mühe, z.B. wiederkehrende Elemente zu extrahieren und extra abzuspeichern. Außerdem wird mittlerweile jeder Propf mit einer Textur belegt, wo es früher auch Materialien getan haben, die man einem Mesh recht einfach zuweisen konnte. Geht schneller und ist somit auch billiger. Massenproduktion eben.

Es geht übrigens nicht darum, den Speicher so leer wier möglich zu halten, sondern möglichst nicht zu fragmentieren. Ich habe seinerzeit z.B. versucht, stets alle Basistexturen einer Szene (also das, was als gemeinsam verwendet abgespeichert wurde oder generell benutzt wird), vorab zu laden und quasi als Block hintereinander abzulegen. Der Rest war dynamisch. Hat man fortlaufende Pointer, ist das Handling deutlich einfacher. Solange man natürlich auf vorgestanzte Engines setzt, hat man eh kaum noch Einfluss darauf. Dann ist es fast Wurst.

Mike
2016-09-15, 22:21:07
Zu teuer. Vielleicht sollte ich dann doch auf die GTX050 mit 4GB VRAM warten? Die ist natürlich viel langsamer aber so wie das hier klingt scheint das eine popelige Gigabyte doch mehr auszumachen als pure GPU Power? :rolleyes:

Es kommt auf das Gesamtpaket (inkl. Preis) an, und da das zumindest theoretisch auch bei der 1050 gut werden könnte, ist warten sicher nicht die schlechteste Idee, auch die 1060er könnten in den 2-4 Wochen noch ein paar Euro im Preis fallen.

Mike
2016-09-15, 22:24:01
Texturen ziehen keine performance, nur speicher, solange man diesen hat. Sollten größere Texturen nicht auch automatisch mehr Speicherbandbreite benötigen, um eine gleiche Performance zu erreichen?

x-force
2016-09-15, 22:46:10
Sollten größere Texturen nicht auch automatisch mehr Speicherbandbreite benötigen, um eine gleiche Performance zu erreichen?
es werden ja nicht zig gb an texturen pro sekunde übertragen, sondern im besten fall einmal beim laden des levels. alternativ streaming, aber das sind mb/s und keine gb, schließlich muss die festplatte ja die daten liefern.
der performanceeinbruch fällt in den bereich messtoleranzen.
selbst wenn es ein gb/s irgendwann sein sollte, wir haben jetzt schon knappe 200gb/s in der 1060 klasse. das wäre dann gerade mal ein halbes prozent der rohleistung, die man abziehen müsste. ein paar mhz mehr ramtakt und das ist komplett ausgeglichen.

Dimon
2016-09-15, 22:47:49
Alter ich seh kaum einen unterschied bei den games zwischen hoch & Ultra, gehts nur mir so oder bin tatsächlich blind? :freak:

x-force
2016-09-15, 22:51:58
kommt ganz aufs game an.
die tendenz ist jedenfalls klar. auch medium texturen brauchen mehr speicher als vor einiger zeit.

edit:
grundsätzlich ist die frage ob 3gb oder 6gb nicht sinnvoll. 6 <-> 8 könnte man sich drüber unterhalten, aber mit 3gb hast du einfach nachladeruckler, wenn du nicht bereit bist zur not auf medium zu spielen und selbst das kann in 2-3 jahren für aaa titel anders aussehen.
nur warum sollte man das tun, wenn man mehr als 200 euro für die karte zahlt?
dazu kommt, daß das 3gb modell zusätzlich abgespeckt ist. man hat also nicht nur weniger speicher, sondern auch weniger leistung.
der leistungsunterschied fällt mit oc dadurch noch größer aus.

Mike
2016-09-16, 00:20:58
es werden ja nicht zig gb an texturen pro sekunde übertragen, sondern im besten fall einmal beim laden des levels. alternativ streaming, aber das sind mb/s und keine gb, schließlich muss die festplatte ja die daten liefern.
Auf dem Weg Festplatte -> VRAM, ja. Aber was ist mit dem Weg VRAM -> GPU?

Hermelinmaster
2016-09-22, 06:28:13
Hat jemand seine Windforce schon geöffnet? Würde mich interessieren ob
a) Spannungsversorgung und RAM gekühlt sind
b) irgendwelche Garantielabel verbaut sind die beim Öffnen zerstört werden
c) welche Dicke die Wärmeleitpads haben ^^

BZ
2016-09-24, 09:19:14
Der Ram wird durch Wärmeleitpads mit der massiven Kühlerplatte verbunden.
Wärmeleitpads haben ungefähr 2mm Stärke.
Alles andere wird mit Luft gekühlt.
http://www.gigabyte.de/KeyFeature/507/img/5.jpg

Die waren sogar da aufgeklebt wo gar kein Ram ist. :smile:
Also wo die beiden Leerrams sind.
Siegel gibts nicht.
Die back plate habe ich entfernt,
die ist völlig sinnlos.
Billige Plastik ohne Kühlfunktion.

Ich rede von dieser Karte.
http://www.gigabyte.de/products/product-page.aspx?pid=5978#kf

Hermelinmaster
2016-09-24, 15:23:51
Perfekt, danke ^^ Danb werde ich mich mal demnächst an einen WLP- und WLPad-Wechsel machen. Ist der Unterschied merklich bei Dir?

BZ
2016-09-24, 15:53:19
WLP hatte ich auch gewechselt,
aber das brachte nicht soooviel denke ich mal.
ARCTIC-MX-4

Im normalen Firestrike bin ich von 6711Punkten GTX9602GB
auf 10500 Punkten GTX1060 gekommen.
Bei gleichen Einstellungen.

Fusion_Power
2016-09-24, 16:48:14
Der Ram wird durch Wärmeleitpads mit der massiven Kühlerplatte verbunden.
Wärmeleitpads haben ungefähr 2mm Stärke.
Alles andere wird mit Luft gekühlt.
http://www.gigabyte.de/KeyFeature/507/img/5.jpg

Die waren sogar da aufgeklebt wo gar kein Ram ist. :smile:
Also wo die beiden Leerrams sind.
Siegel gibts nicht.
Die back plate habe ich entfernt,
die ist völlig sinnlos.
Billige Plastik ohne Kühlfunktion.

Ich rede von dieser Karte.
http://www.gigabyte.de/products/product-page.aspx?pid=5978#kf
Irgend welches Spulenfiepen? Scheint bei den Gigabyte verbreitet zu sein was man so liest. Drum hab ich ehr ein Auge auf eine MSI, die hat auch keine Backplate, wohl leider auch keine direkte Verbindung zwischen Kühlkörper und RAM aber ich würde da auch nix übertakten wollen.
Hab die im Auge, wohl ehr die 3GB Version, mal sehen:
http://geizhals.de/msi-geforce-gtx-1060-6gb-6gt-oc-v809-2205r-a1478879.html

BZ
2016-09-24, 18:01:07
Kein Spulenfiepen,
da ich immer adaptive sync aktiviere. :smile:
Aber auch sonst kein Spulenfiepen.

Fusion_Power
2016-09-24, 22:30:11
Mit adaptive sync hab ich mich noch gar nicht befasst. Das geht gar nicht über DVI, oder?

Hermelinmaster
2016-09-25, 05:17:47
Bei mir auch kein Spulenfiepen. Und das Ding steht (in einem leich gedämmten Gehäuse) direkt aufem Schreibtisch.
Hat jemand mal nen Artikel zur Hand zu den Schmankerln à la adaptive sync und frame-limiter? Das wurde ja in den meisten Launch-Artikeln gar nicht besprochen...

BZ
2016-09-25, 09:16:34
Mit adaptive sync hab ich mich noch gar nicht befasst. Das geht gar nicht über DVI, oder?

Moin,
Adaptive sync hat mit DVI nichts zu tun.

NVIDIA Adaptive Vertical Sync

Nichts ist störender als ruckelnde Frameraten und Tearing. Ruckeln tritt vor allem bei niedrigen Frameraten und Tearing bei hohen Frameraten auf. Adaptive V-Sync ist eine intelligente Technologie zum Rendern von Frames, die bei hohen Frameraten Tearing verhindert und bei niedrigen Frameraten deaktiviert wird, um Ruckeln zu vermeiden. Endlich ungestörtes Gaming-Vergnügen!

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-te.html?start=6

Mit einfachen Worten die Karte läuft nicht immer auf Vollgas,
mir reichen die 60 FPS.

Andi Y
2016-09-26, 09:54:01
Format_C hat im 1070 Thread geschrieben wir man das Spulenfiepen forcieren kann.
"Da gibt es viele Programme, die hörbaren Aklustmüll provozieren. Versuche mal Unigine Heaven in Full-HD mit Ultra-Setting und Tessellation auf normal.
AA kann aus oder max. auf x2. Gerade am Beginn sollte es etwas zirpen, wenn die Karte anfällig dafür ist."
Ich werde das auch mal testen. Meine G1 macht auch die Grille, auch schon bei geringen FPS, kann aber auch an meinem Netzteil von 2008 liegen.

RoNsOn Xs
2016-09-26, 12:05:53
.....

Rampage 2
2016-09-29, 19:19:22
Wie hoch lassen sich eigentlich die Besten der Besten der OC-Versionen der Custom-1060er (also nicht die Fool's Edition) der Custom-Hersteller (ASUS, Gigabyte, EVGA) stabil übertakten? Also "24/365-stabil" - ggf. auch mit Modding...

Sind 2.3 GHz luftgekühlt ab und zu möglich? (das "ab und zu" natürlich nicht zeitbezogen sondern auf die Zahl der zutreffenden Fälle;))

R2

Raff
2016-09-29, 19:26:27
Vergiss es. Mit viel Glück und Wasserkühlung 2,2 GHz, realistisch gesehen bestenfalls 2,1 GHz. Das ist zumindest das, was ich bisher sah.

MfG,
Raff

(del)
2016-09-29, 20:20:54
Richtig. 2,1 GHz unter Luft sind schon gut, wenn das PT und die Kühlung mitspielen. Die 2,2 GHz klappen auch nur bei einigen Karten, wenn die Blubber knapp über 40°C bleibt. Geil: man kann ab 2.1 GHz kaum noch verwertbare Vorteile benchchen (außer Synths). :D

aufkrawall
2016-09-29, 20:58:02
Nvidia hat wohl mal wieder den Prozess so gut im Griff, dass die GPU-Größe kaum eine Rolle für den maximalen Takt spielt.
Das sehen wir jetzt im Grunde seit GK110 B1 so.

Mit meiner 1070 ist am fiesesten für OC übrigens Mirror's Edge: Catalyst. Wenn man gaaanz genau hinschaut, fallen manchmal, insbesondere in dunkleren Bereichen, aufblitzende rote Striche nach etwas Spieldauer auf. Schätze, die meisten merken so was wieder mal gar nicht.

Rampage 2
2016-09-29, 21:56:24
Vergiss es. Mit viel Glück und Wasserkühlung 2,2 GHz, realistisch gesehen bestenfalls 2,1 GHz. Das ist zumindest das, was ich bisher sah.

Okay, dann lohnt es sich nicht, sich ein teures OC-Modell zu kaufen - schaffen denn auch non-OC Custom-Karten dauerhafte 2GHz; dass also der Takt nie oder nur selten 2GHz unterschreitet?

Aber zumindest zu den EVGA-Modellen hätte ich eine Frage: gibt es ein signifikanten Unterschied zwischen den ACX 2.0 und ACX 3.0 Kühlsystemen bzgl. des OC-Potentials für den Chiptakt oder Speichertakt? (oder Beides)

Leider haben bei der 1060 die EVGA Standard-Modelle nur ACX 2.0; für Version 3.0 muss man die SSC (noch gar nicht erschienen!) oder die FTW kaufen - Beides über 300€...

R2

Ex3cut3r
2016-09-29, 22:13:40
Nvidia hat wohl mal wieder den Prozess so gut im Griff, dass die GPU-Größe kaum eine Rolle für den maximalen Takt spielt.
Das sehen wir jetzt im Grunde seit GK110 B1 so.

Mit meiner 1070 ist am fiesesten für OC übrigens Mirror's Edge: Catalyst. Wenn man gaaanz genau hinschaut, fallen manchmal, insbesondere in dunkleren Bereichen, aufblitzende rote Striche nach etwas Spieldauer auf. Schätze, die meisten merken so was wieder mal gar nicht.

Wie übertaktet du denn? Per Curve und angepasster Spannung? Wenn ja mit wie viel Volt? Meine MSI braucht für 2038-2000mhz 1.025V. Leider haut mir der Curve Editor ab-und zu einfach höhere Werte rein, wenn ich auf übernehmen klicke.

aufkrawall
2016-09-29, 22:59:08
Ich hab mit dem Curve-Editor rumprobiert. Habs aber nicht hinbekommen, dass die Spannungen nicht doch mit den Boost-Stufen bei Überschreiten der Temperatur-Schwellwerte dafür abgesenkt werden.
Ist mir aber auch egal, läuft mit 1987Mhz bei 81°C und der Micron-Speicher macht nicht mal +150Mhz dauerhaft stabil mit.
Deshalb übertakte ich ganz schlicht mit dem Inspector, + popelige 80Mhz Core- und +100Mhz Speichertakt.

Rampage 2
2016-10-02, 03:26:47
Aber zumindest zu den EVGA-Modellen hätte ich eine Frage: gibt es ein signifikanten Unterschied zwischen den ACX 2.0 und ACX 3.0 Kühlsystemen bzgl. des OC-Potentials für den Chiptakt oder Speichertakt? (oder Beides)

Leider haben bei der 1060 die EVGA Standard-Modelle nur ACX 2.0; für Version 3.0 muss man die SSC (noch gar nicht erschienen!) oder die FTW kaufen - Beides über 300€...

R2

*bump* .....

R2

TobiWahnKenobi
2016-10-02, 09:36:38
ich stehe zwar nicht auf die kurzen eigendesignkarten der boardpartner, aber im zweitrechner steckt seit ner woche die billigste 1060, die der markt hergibt.. AFAIR habe ich 200€ bezahlt und das teil macht sich absolut gut. eine gebrauchte 200€ karte wäre keine alternative gewesen und hätte wahrscheinlich auch das popelige 400W NT mit seinem einzelnen stützspannungsanschluss überfordert. die 1060 reicht sogar für VR mit der oculus rift oder ne runde highdetail -primal und -battlefront @FHD; spielen ist auf der kiste zwar kein hauptkriterium, aber schön dass es geht; erwartung voll erfüllt.

btw,
interessant, dass die 1060 (sie ist an einem sony hdtv angeschlossen) in den einstellungen FHD @12bit farbtiefe zulässt. die kombination titan x und philips UHD TFT lässt das nicht zu; mein alter 28" UHD bot auch nur 8bit an; obwohl er lt. hersteller und prad-test es eigentlich hätte unterstützen müssen/sollen/whatever.


(..)

mfg
tobi

BlacKi
2016-10-02, 10:17:24
Aber zumindest zu den EVGA-Modellen hätte ich eine Frage: gibt es ein signifikanten Unterschied zwischen den ACX 2.0 und ACX 3.0 Kühlsystemen bzgl. des OC-Potentials für den Chiptakt oder Speichertakt? (oder Beides)

die 1060 ist um ein ganzes stück sparsamer als eine 1070. meine 1070 mit dem acx3 kühler dreht 1100-1200rpm bei 2ghz und 71-73 grad. so schlecht kann der acx2 kühler garnicht sein, das er eine 1060 nicht sehr gut kühlen kann. den speichertakt betrifft das sowieso nicht, und die 1060 ist sehr sparsam.

deine frage stellt sich wohl gar keiner.

scully1234
2016-10-02, 10:28:28
Nvidia hat wohl mal wieder den Prozess so gut im Griff, dass die GPU-Größe kaum eine Rolle für den maximalen Takt spielt.
Das sehen wir jetzt im Grunde seit GK110 B1 so.


liegt wohl zu Teilen an seinem ''Man Cave'' hier und nicht nur am Prozeß selbst

650yVg9smfI pRz_CG3DZb4

Rampage 2
2016-10-03, 00:39:00
So schlecht kann der acx2 kühler garnicht sein, das er eine 1060 nicht sehr gut kühlen kann. den speichertakt betrifft das sowieso nicht, und die 1060 ist sehr sparsam.


Wie hoch taktet denn deine 1060? Kann sie die 2GHz dauerhaft halten? Welcher Vendor und welches Modell ist es denn?

Achja, und wie hoch konntest du den Speichertakt hochprügeln? :)

R2

Andi Y
2016-10-04, 15:01:07
Meine G1 Gaming läuft auf GPU 1650 Mhz ohne Curve-Editor, damit boostet Sie immer Min. auf 2000 Mhz (BF4, Witcher, Schatten von Mordor). RAM läuft auf 4514 Mhz (Macht aber glaube ich so 12-15 Mhz Sprünge beim OC).

dildo4u
2016-10-05, 16:22:25
Bei Gears 4 kommt die 1060 der 980 Ti verdammt nahe,schätze mal mit OC wären 30fps in 4k möglich?

http://abload.de/img/gears-of-war-4-nvidiabvuw4.png

http://www.geforce.com/whats-new/guides/gears-of-war-4-graphics-and-performance-guide?__prclt=E6cisemk

x-force
2016-10-05, 16:25:33
Bei Gears 4 kommt die 1060 der 980 Ti verdammt nahe,schätze mal mit OC wären 30fps in 4k möglich?

http://abload.de/img/gears-of-war-4-nvidiabvuw4.png

http://www.geforce.com/whats-new/guides/gears-of-war-4-graphics-and-performance-guide?__prclt=E6cisemk

das ist ja sehr interessant. nutzen die irgendwelche pascal features?

scheint ja auch kein schreibfehler zu sein, da die 1070 deutlich vor der 980ti ist

Rampage 2
2016-10-07, 04:43:30
Bei Gears 4 kommt die 1060 der 980 Ti verdammt nahe,schätze mal mit OC wären 30fps in 4k möglich?


Hat denn schonmal jemand eine 1060 @ 2GHz gegen eine 980 @ 1.5GHz verglichen? Offiziell hat die 1060 ja 48 ROPs, müsste also eigentlich genauso 96 GPixel/sec. packen wie die 980 @ 1.5GHz (64ROPs x 1.5GHz). Aber "effektiv" hat sie nur 32 ROPs - die 980 hat also effektiv eine 50% höhere Pixelfüllrate als die 1060. Wurden da irgendwelche Unterschiede in der Performance bei bestimmten Spielen oder Szenarien (4K, SSAA oder hohes MSAA, etc.) gemessen?

Ist die Pixelfüllrate entscheidend für die Performance von hohen Schattenauflösungen (hochaufgelöste Schattentexturen) oder spielen da andere Parameter die Hauptrolle?

R2

deLuxX`
2016-10-07, 08:35:16
Aber "effektiv" hat sie nur 32 ROPs
Hast du da einen Link dazu der das näher erklärt? Interessiert mich einfach.

deLuxX`
2016-10-18, 10:46:41
Habe mir die Gigabyte GTX 1060 G1 6GiB zugelegt.
Durch Verkauf der alten GTX 960 effektiv nur 145€ gezahlt.
Ist angenehm leise und knapp doppelt so schnell wie die GTX 960.=)
Habe das PT auf 70% verringert und trotzdem boostet Sie auf 1850 - 1950 Mhz je nach Game/Szene.

edit: Warum habe ich mich für die G1 entschieden? Hauptsächlich weil der Kühler direkten Kontakt zu den SpaWas und Spulen hat
und demnach die Temperaturen dort deutlich niedriger ausfallen als sonst.

Andi Y
2016-10-18, 11:21:25
Laut PCGH hat diese ja auch ein PT von 155 Watt.
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Geforce-GTX-1060-Custom-Designs-Uebersicht-1202039/

Bin mit meiner G1 auch sehr glücklich.

Grüße Andi

deLuxX`
2016-10-18, 11:33:36
Laut PCGH hat diese ja auch ein PT von 155 Watt.
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Geforce-GTX-1060-Custom-Designs-Uebersicht-1202039/
Danke für den Hinweis. Hatte mich etwas gewundert aber das erklärt es ja. Somit ist man bei 70% bei 108,5W.

Weiß jmd. bei welcher Verlustleistung GP106 seine maximale Effizienz hat?

Der_Korken
2016-10-18, 12:12:02
Weiß jmd. bei welcher Verlustleistung GP106 seine maximale Effizienz hat?

Vermutlich da, wo die Spannung nicht mehr weiter runtergeht.

THW hat sowas ähnliches mal getestet:

http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html

Bei 60W PT geht die Karte noch bis 1500Mhz. Viel besser gehts wohl nicht mehr, weil der Speicher auch einen gewissen Fixverbrauch hat und sich nicht undervolten lässt.

FatBot
2016-10-18, 22:31:57
Habe mich für die Inno3d 1060 Compact entschieden. Den Ausschlag gegenüber der 480 hat für mich die Verfügbarkeit von ITX-Formaten, geringere Abwärme und mein Pile of Shame mit älteren noch zu spielenden Titeln gegeben. Dass ich mich jetzt damit auch auf Gsync eingeschossen habe, nervt ein wenig, aber die Angebotsvielfalt auf Gsync-Seite verbessert sich vielleicht noch bis 2017.

Die Inno ist eine der kleinsten Compact-Karten derzeit und damit passend für mich, Reviews habe ich nicht gefunden, aber da der Kühler immerhin zwei Heatpipes hat, habe ich es halt probiert. Bin zufrieden bis jetzt, habe aber noch nicht viel getestet, ist wahrscheinlich auch nicht weiter nötig bei meinen derzeit noch 1680x1050.

Da ich kaum Fotos im Netz gefunden habe, im Anhang ein paar zur Info. Der Kühler mit dem aufgeklipsten Lüfter ist simpel, aber imo ausreichend. Das Lüfterkonstrukt ist 15 mm hoch und lässt sich leicht demontieren. Dadurch kann man auch einfach einen 120 mm Lüfter seiner Wahl auf den Kühlkörper schnallen, der ragt dann 20 mm in der Höhe und 10 mm in der Breite über die Karte. Der Kühlkörper selbst ist ca. 120 mm lang und 90 mm hoch.

Neon3D
2016-10-19, 00:04:00
liegt wohl zu Teilen an seinem ''Man Cave'' hier und nicht nur am Prozeß selbst

http://youtu.be/650yVg9smfI http://youtu.be/pRz_CG3DZb4

Sehr coole videobeiträge !

Sardaukar.nsn
2016-10-20, 07:03:44
Der Vollständigkeit halber ein kurzer Bericht.

Meinen aktuellen PC habe ich mir 2011 zum Start von Battlefield 3 zusammengestellt. Basis i5-2500k mit Thermalright Macho auf 4,5ghz. Zudem eine wirklich große Asus 6970 2GB.

In den letzten fünf Jahren habe ich wirklich nur eine SSD nachgerüstet und jetzt halt eine einfache Gainward GTX 1060 6GB für ~260€. Gestern eingebaut und etwas übertaktet (GPU +200 auf 2050mhz, MEM +500 auf 4500mhz). Temperaturen und Lautstärke bleiben voll im Rahmen. Zum Vergleich mit meiner 6970 habe ich vorher und nachher den Unigine Heaven Benchmark mit gleichen Einstellungen laufen lassen. Vorher 38,7 FPS, jetzt mit der 1060 jetzt auf 132,0 FPS. Ich finde ein schönes Upgrade für meinen in die Jahre gekommenen i5-2500k.

Größenvergleich:
https://abload.de/img/971d16ca-314f-4333-8d6do4z.jpg

Aktuell und wohl auch die nächsten Wochen werde ich noch Witcher 3 (inkl. beider Addons) spielen und siehe da... Settings auf Ultra, konstant 60FPS, Herz was willst du mehr. :smile:

https://abload.de/img/73b1f769-03b3-48f1-895zqkk.jpg

Da ich an diesem PC auch recht viel schreibe bzw. mit Dokumenten arbeite, nutze ich eine Auflösung von 1920x1200.

Viele Grüße

Dimon
2016-10-20, 11:02:49
Der Vollständigkeit halber ein kurzer Bericht.

Meinen aktuellen PC habe ich mir 2011 zum Start von Battlefield 3 zusammengestellt. Basis i5-2500k mit Thermalright Macho auf 4,5ghz. Zudem eine wirklich große Asus 6970 2GB.

In den letzten fünf Jahren habe ich wirklich nur eine SSD nachgerüstet und jetzt halt eine einfache Gainward GTX 1060 6GB für ~260€. Gestern eingebaut und etwas übertaktet (GPU +200 auf 2050mhz, MEM +500 auf 4500mhz). Temperaturen und Lautstärke bleiben voll im Rahmen. Zum Vergleich mit meiner 6970 habe ich vorher und nachher den Unigine Heaven Benchmark mit gleichen Einstellungen laufen lassen. Vorher 38,7 FPS, jetzt mit der 1060 jetzt auf 132,0 FPS. Ich finde ein schönes Upgrade für meinen in die Jahre gekommenen i5-2500k.

Größenvergleich:
https://abload.de/img/971d16ca-314f-4333-8d6do4z.jpg

Aktuell und wohl auch die nächsten Wochen werde ich noch Witcher 3 (inkl. beider Addons) spielen und siehe da... Settings auf Ultra, konstant 60FPS, Herz was willst du mehr. :smile:

https://abload.de/img/73b1f769-03b3-48f1-895zqkk.jpg

Da ich an diesem PC auch recht viel schreibe bzw. mit Dokumenten arbeite, nutze ich eine Auflösung von 1920x1200.

Viele Grüße

Kannst du generell was zu der Lautstärke der Graka sagen? Um wieviel lässt sich das powertarget anheben?

Gruß

Thunder99
2016-10-20, 12:52:27
Hat denn schonmal jemand eine 1060 @ 2GHz gegen eine 980 @ 1.5GHz verglichen? Offiziell hat die 1060 ja 48 ROPs, müsste also eigentlich genauso 96 GPixel/sec. packen wie die 980 @ 1.5GHz (64ROPs x 1.5GHz). Aber "effektiv" hat sie nur 32 ROPs - die 980 hat also effektiv eine 50% höhere Pixelfüllrate als die 1060. Wurden da irgendwelche Unterschiede in der Performance bei bestimmten Spielen oder Szenarien (4K, SSAA oder hohes MSAA, etc.) gemessen?

Ist die Pixelfüllrate entscheidend für die Performance von hohen Schattenauflösungen (hochaufgelöste Schattentexturen) oder spielen da andere Parameter die Hauptrolle?

R2
Erklärung, Beweise? ;)
Es sind effektiv 32 ROPs ("Von den vier Graphics Processor Cluster (GPC) des GP104 sind beim GP106 nur noch zwei übrig geblieben, die GPCs an sich sind hingegen gleich geblieben.")

Sardaukar.nsn
2016-10-20, 15:30:32
Kannst du generell was zu der Lautstärke der Graka sagen? Um wieviel lässt sich das powertarget anheben?

Gruß

Also ich finde die Lautstärke sehr moderat, unter Desktop Bedingungen hört man überhaupt nichts. Nach ein zwei Stunden Witcher 3 muss ich auch erst die Musik und Soundeffekt abstellen damit ich ein leises säuseln höre. Also unter Spiel-Bedingungen nicht geräuschlos aber sehr angenehm.

Das Powertarget lässt sich auf 116% anheben.

TobiWahnKenobi
2016-10-30, 12:34:20
ich habe meine kleine zotac ITX 1060 heute auch mal nackig gemacht. löblich: der passive KK über den spannungswandlern ist ordentlich verschraubt und sitzt wie ne eins.

der eigentliche kühler ist nur ein alu-klumpen, der aber seinen job ausreichend erfüllt.

standard-boost liegt bei 1860MHz; auch nach kurzer einlaufphase zum aufwärmen.

manuelles OC funktioniert augenscheinlich bis etwas über 2100MHz auf der GPU, ich investiere da allerdings keine zeit in irgendwelche versuche. der framegain ist den aufwand nicht wert. spiele ich z.b. mafia oder battlefield/battlefront hebt mich das OC nicht in neue sphären. ;)

https://abload.de/thumb/zotac_gtx1060_6g_mini8wqay.jpg (http://abload.de/image.php?img=zotac_gtx1060_6g_mini8wqay.jpg)


(..)

mfg
tobi

Swissr
2016-11-01, 22:16:13
Was heisst nackig gemacht? Unter Wasser gesetzt oder alles ab und wieder angeschraubt?

TobiWahnKenobi
2016-11-02, 02:07:56
nein, kein wasser. ich wollte mal schauen, ob es eine VRM-kühlung gibt und der passive KK hat mich tatsächlich überrascht.


(..)

mfg
tobi

Rampage 2
2016-11-02, 05:41:51
Erklärung, Beweise? ;)
Es sind effektiv 32 ROPs ("Von den vier Graphics Processor Cluster (GPC) des GP104 sind beim GP106 nur noch zwei übrig geblieben, die GPCs an sich sind hingegen gleich geblieben.")

Die Frage ist halt, wie gross der Unterschied zwischen den beiden GPUs ist - taktbereinigt (beide 96 Gpixel, die GTX 980 mit 64 ROPs x 1.5GHz und die GTX 1060 mit "pseudo-48" ROPs x 2GHz)

Im Grunde genommen hätte ich meine Frage simpler formulieren sollen: Wieviel schneller ist eine GTX 980 @ 1.5GHz versus GTX 1060 @ 2GHz in einem ausgewogenem und umfassendem Sortiment an Spielen? (aktuelle Benchmark-Highlights, ältere Benchmark-Highlights wie z.B. Crysis 1 oder UT3 sowie Füllrate-lastige Spiele zwecks ROP-Vergleich)

Hat denn Keiner von euch beide Karten bei sich rumliegen?

R2

Frosty
2016-11-04, 16:49:04
hab da mal zwei fragen:


-boostet die palit gtx 1060 jetstream (nicht die super!) höher als die gtx 1060 founders edition?

und

-ist die performancedifferenz von der jetstream zur super jetstream spürbar oder lediglich messbar?

deLuxX`
2016-11-04, 17:13:56
-ist die performancedifferenz von der jetstream zur super jetstream spürbar oder lediglich messbar?
Ohne die Karten genau zu kennen - nur messbar.

Odal
2016-11-07, 19:23:48
kann man eigentlich gängige Custom 1060iger undervolten oder geht das nur bei einigen bzw. garkeinen?

Troyan
2016-11-07, 19:51:09
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892

Du kannst bei Pascal Booststeps fixieren und die Taktrate anpassen.

Odal
2016-11-07, 20:17:28
ich vermute mal das heißt ich kann für n-Stufen jeweils die Spannung einstellen bei gleichbleibener default Taktrate der jeweiligen Stufe? Oder kann man nur das Powertarget limitieren was zwar in geringerer Spannung aber auch geringeren Taktraten resultiert?

Troyan
2016-11-07, 20:20:23
Jeder Boost-Step hat eine vordefinierte Spannung.
Du kannst entweder ein Booststep fixieren* und die Taktrate ändern, oder die Kurve so anpassen, dass die Karte nur bis zu diesem Step hochtaktet.

*Ein bis zwei Steps sind schwankbar.

Mr.Miyagi
2016-12-07, 11:24:23
Ich finde ein schönes Upgrade für meinen in die Jahre gekommenen i5-2500k.

Auf jeden Fall. Dann bin ich mal gespannt... Bei mir werkelt die selbe CPU und die GTX1060 löst die GTX470 ab. Das wird einen guten Sprung geben.
Find's aber auch irgendwo krass... Hab so lange schon nix mehr in das Hobby investiert und früher hätte man sich sicher schon nen komplett neuen Rechner zusammenstellen müssen, wenn man nach 4-5 Jahren versucht, aufzurüsten.
Soll mir aber recht sein. ;)

GTX1060@TwinTurboII
2016-12-08, 02:53:03
Hallo hat hier jemand die Gainward Phoenix Golden Sample und könnte das Bios zur Verfügung stellen, wäre sehr nett.
danke

Mr.Miyagi
2016-12-14, 10:11:35
Hallo hat hier jemand die Gainward Phoenix Golden Sample und könnte das Bios zur Verfügung stellen, wäre sehr nett.
danke

Genau die hab ich. Aber leider keinen Plan, wie ich da auf die Schnelle das BIOS auslese. Müsstest du dich bis zu den Feiertagen (oder evtl. schon nächstes WE) gedulden.

Andi Y
2016-12-14, 11:19:32
GPU-Z kann das glaube ich.
Kann irgend jemand die Spannung seiner 1060 verändern?

GTX1060@TwinTurboII
2016-12-15, 00:24:43
Das wäre super danke :smile:
Bei mir hat es mit dem Zotac Firestorm funktioniert das Bios zu extrahieren oder zu flashen.
Das Bios der Gainward ist das mit dem höchsten Takt @ Stock 1620mHz und 6pin.
Boost sollte dann ca 2025mHz ergeben.
Daher mein Interesse:wink:
Ich selber habe die Zotac Mini mit einem TwinTurboII geschmückt und bin sehr zufrieden.
Zusammen mit dem EVGA SC Bios eine gute Kombi.
Bei Interesse kann ich ein paar Bilder posten.
Das Bios der Palit Super Jetstream funktionierte leider nicht.
Die Karte hat damit nicht mehr hochgetaktet, warum weiß ich nicht

@ Andi Y mit dem Afterburner 4.3.0 Beta 14 konnte ich die Spannung erhöhen.

Andi Y
2016-12-19, 11:19:01
@ Andi Y mit dem Afterburner 4.3.0 Beta 14 konnte ich die Spannung erhöhen.
Mist, dann ist wohl meine Gigabunt gelockt.

@Megamember müsste ich heute Abend mal schauen, bin noch auf Arbeit.

Megamember
2016-12-19, 14:06:12
Mist, dann ist wohl meine Gigabunt gelockt.

Afterburner 4.3.0 Final und Spannungsänderung in den optionen freigeschaltet?

Sardaukar.nsn
2016-12-19, 18:13:14
Danke für den Tipp mit dem Afterburner. Ich konnte meine Spannung unter Last von 1.031v auf 1.075v erhöhen. Der Boost geht dann über 2000mhz.

Core Voltage +100
https://abload.de/img/1060_volt_msi_1w0rry.jpg

Core Voltage +0
https://abload.de/img/1060_volt_msi_252ooa.jpg

Wie hoch kommt ihr mit dem Speicher?

Übrigens ich nutze eine günstige Gainward 1060 6GB.

Andi Y
2016-12-19, 18:50:49
OK. Spannung via AB funktioniert auch bei mir.
RAM-OC 2257 (4514)

Sardaukar.nsn
2016-12-24, 06:25:22
Hier auch alles prima. Spiele aktuell Witcher 3 mit adaptiven V-Sync und bleibe eigentlich immer bei 60fps.

Taktraten konstant über 2000mhz (GPU) und 4500mhz (Ram).

Frohe Weihnachten.

Mr.Miyagi
2017-01-03, 20:48:31
Das wäre super danke :smile:

Sodele... Hab tatsächlich dran gedacht. :eek:

Downloadlink (http://www.file-upload.net/download-12216274/N11159.rom.html)

Das sind die Stock-Werte:
https://abload.de/img/experttool2paw4.jpg

GTX1060@TwinTurboII
2017-01-05, 01:40:17
Ich bedanke mich :smile:

Sardaukar.nsn
2017-01-14, 18:19:39
Maximal übertaktete ASUS STRIX 1060 vs. 480 (also mit identischer Kühlung) und Treiber vom Stand Januar 2017.

http://www.hardocp.com/article/2017/01/01/asus_strix_gtx_1060_o6g_gaming_video_card_review/1

Sardaukar.nsn
2017-01-27, 19:08:34
Sodele... Hab tatsächlich dran gedacht. :eek:

Downloadlink (http://www.file-upload.net/download-12216274/N11159.rom.html)

Das sind die Stock-Werte:
https://abload.de/img/experttool2paw4.jpg

Ich wollte mich auch noch mal bedanken. Das Bios läuft auf meiner einfachen Gainward 1060 6GB wunderbar. Unter Windows bzw. Desktop bleiben die Lüfter bis 45°C jetzt auch komplett aus. :cool:

planet1
2017-01-30, 23:57:38
Hallo zusammen,

als Ersatz für meine Zweitkarte haben ich bis vor kurzem eine GTX 1050Ti ins Auge gefasst.

Der Preisunterschied jedoch (siehe amazon.fr) zur nächst-stärkeren grünen Schwester GTX 1060 3GB ist mittlerweile lachhaft geschrumpft.

Deshalb die durchaus provokant-gemeinte Frage:

Sind 60% Mehrleistung für 20 Euro Mehrpreis nicht wirklich ein unwiderstehliches Sirenengeheul?

Raff
2017-01-31, 11:17:24
Die GTX 1060 3GB ist ein klassischer Speicherkrüppel. Wenn du diesen Schwachpunkt gezielt ausschaltest – Texturauflösung in modernen Spielen reduzieren –, ist die Karte klar besser als eine GTX 1050 Ti. Mit einer Radeon RX 470/4G hättest du diese Sorgen nicht, das ist die bessere Karte (braucht aber etwas mehr Energie).

MfG,
Raff

Mr.Miyagi
2017-01-31, 13:32:55
Ich wollte mich auch noch mal bedanken. Das Bios läuft auf meiner einfachen Gainward 1060 6GB wunderbar. Unter Windows bzw. Desktop bleiben die Lüfter bis 45°C jetzt auch komplett aus. :cool:

Kein Ding. Die absolute Stille im Desktopbetrieb ist echt eine Wohltat. :wink:

Sardaukar.nsn
2017-01-31, 16:40:48
Danke, leider habe ich mir letzte Woche einen neuen Monitor gekauft. https://www.youtube.com/watch?v=dydg7Fv-Oy4&t=1s

Die 1060 war noch damals für meinen älteren 1900x1200 24" gedacht, der aber leider nach vielen Jahren letzte Woche den Geist aufgegeben hat. Bis max. 60hz bzw. fps war das Preis/Leistungsverhältnis eigentlich perfekt für die 260€ was die Karte gekostet hat.

Jetzt mit dem neuen Dell 1440p und vor allem G-Sync bis 144hz bin ich schon wieder angefixt und bin schaue mich nach schnelleren Grafikkarten um. Ich bin aber noch total unschlüssig. Meint ihr der Markt wird durch erscheinen der 1080ti bzw. AMD Produkte noch mal spannend? Bzw. die Preise für 1070 oder 1080 sinken?

planet1
2017-01-31, 21:38:21
Die GTX 1060 3GB ist ein klassischer Speicherkrüppel.

Hallo Raff,
nun der "Krüppel" muss nicht weit laufen, da er "nur" Zusatzaufgaben (CUDA/PhysX) übernehmen wird :-/.

Die Entscheidung zwischen GTX 1050Ti und GTX 1060 3GB erinnert mich an das Dilemma zwischen Radeon RX 480 8GB und Radeon R9 Fury.

Der merkliche Unterschied bestand bei AMD jedoch darin, dass die Fury zum Abverkaufspreis verschleudert wurde und eine Generation älter war.

Was NVIDIA mit solche einer verkorksten Preispolitik bezweckt, kann ich mir beim besten Willen nicht zusammenreimen :-|.