PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1060: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 [2] 3 4 5 6 7

fondness
2016-07-19, 20:06:34
Bei BF1 gibt es noch kein DX12 in der Closed Alpha.

Nightspider
2016-07-19, 20:09:04
Bei BF1 gibt es noch kein DX12 in der Closed Alpha.

Trotzdem wird BF1 gut auf der 1060 gehen. ;)

fondness
2016-07-19, 20:09:59
Trotzdem wird BF1 gut auf der 1060 gehen. ;)

Bezweifle ich auch nicht, DICE hat schon immer auf beide Hersteller gut optimiert.

Menace
2016-07-19, 20:11:46
Nein, auch als FE. Die eben abgebildete inno3D nimmt ja auch das Referenz-Design. ich kann nur sagen, dass mir AIB bestätigt haben, dass Container raus sind und nicht nur Paletten für die Frachtflieger. Wann so ein Pott ankommt und wie lange das Zeug im Freihafen liegt - frag den Abendwind oder den Zoll. :)
Ok, dann ist das ja nur noch eine Sache von Tagen.

@gogetta5: Stimmt. Danke, habe ich schon wieder vergessen.

Rancor
2016-07-19, 20:11:48
Bei großen AAA Titeln wird Nvidia die Entwickler immer unterstützen, so dass NV Karten nicht abkacken werden. Dazu hat AMD einfach nicht die finanziellen Mittel.

Karümel
2016-07-19, 20:12:37
Jup und die basiert auf der alten id Engine.




http://www.pcgamer.com/dishonored-2-preview/2/

Ich finde aber nichts zur DX12 Unterstützung:confused:

dildo4u
2016-07-19, 20:13:56
2.2Ghz mit Luftkühler und freiem Powertarget.


https://youtu.be/69gQ-8_RXLE

Ich finde aber nichts zur DX12 Unterstützung:confused:
Wie gesagt das das sich Dargo ausgedacht weil Doom Vulkan support hat das ist aber ne neuere Engine Version.

Jupiter
2016-07-19, 20:16:49
Ich persönlich fand Maxwell spannender als Pascal. Pascal erscheint wie Maxwell 2.0. Mal sehen was Volta zu bieten hat.

Mal sehen wann Ansel in The Division kommt.

StefanV
2016-07-19, 20:16:55
Trotzdem wird BF1 gut auf der 1060 gehen. ;)
Ändert wohl kaum was dran, dass es auf der 480 besser gehen wird...

Doom läuft ja auch ganz gut auf nVidia Hardware, nur deutlich besser auf AMD, mit Vulkan, warum soll das bei anderen Anwendungen anders sein?

Nightspider
2016-07-19, 20:17:59
Was hat denn bitteschön die Engine Version mit der API zu tun?

Andeutungen das Dishonored 2 DX12 oder Vulkan nutzen wird:
https://youtu.be/UIAzBN1-Wq4?t=1114

dildo4u
2016-07-19, 20:18:04
Ändert wohl kaum was dran, dass es auf der 480 besser gehen wird...

Doom läuft ja auch ganz gut auf nVidia Hardware, nur deutlich besser auf AMD, mit Vulkan, warum soll das bei anderen Anwendungen anders sein?
Doom läuft nicht normal auf Pascal dort ist die 1070 nur 45% schneller als die 970 bei anderen Games über 55%.

fondness
2016-07-19, 20:19:32
Bei großen AAA Titeln wird Nvidia die Entwickler immer unterstützen, so dass NV Karten nicht abkacken werden. Dazu hat AMD einfach nicht die finanziellen Mittel.

Doom ist jetzt auch kein so kleiner Titel^^

Nightspider
2016-07-19, 20:19:58
Ändert wohl kaum was dran, dass es auf der 480 besser gehen wird...

Ich glaube du hast die Intention meines Beitrags nicht verstanden.^^
Zudem hast du das "wahrscheinlich" in deinem Beitrag vergessen. ;)

(del)
2016-07-19, 20:20:45
Übrigens:
Wen es interessiert - die inno3D, die ich hier habe, nutzt ein LANGES Referenzdesign mit serienmäßigem 8-Pin direkt auf dem PCB. Nvidia Logo vorn und hinten, also eine Referenzplatine, aber abweichend.
Es sieht fast aus, wie die Referenzplatine der 1070, hat den gleichen Code (PG411), ist aber etwas anders bestückt.

Nachtigall..... Gibts doch noch eine 1060 Ti mit echtem halbiertem GP104 und 256-bit oder hat inno3D einfach nur Resteplatinen verwurstet?

Jupiter
2016-07-19, 20:21:05
Das Team hinter DOOM ist klein im Vergleich zu DICE usw.

Rancor
2016-07-19, 20:25:42
Doom ist jetzt auch kein so kleiner Titel^^

:rolleyes:

Es wurde doch schon mehrfach in diesem Thread gepostet, das AC momentan für NV Karten in Doom noch nicht aktiviert ist und nachgereicht wird in zusammenarbeit mit Nvidia.
Wieso wird dann ständig auf der schlechten DX 12 Performance in Doom rumgeritten? MAn kann Nvidia imho nur vorwerfen das sie bezgl. DX12/Vulkan treibertechnisch schlechter sind, was kaum verwunderlich ist, da AMD viel mehr Erfahrung dank Mantle hat und Nvidia auf Grund Ihrer Arroganz den LL-API-Zug etwas verpennt hat.

Wartet doch mal ab bis AC auch für NV Karten aktiviert und wenn AMD dann immer noch so extrem viel besser ist, dann könnt ihr meinetwegen die Grünen flamen ^^.. aber vorher ist es doch lächerlich.
Ich kann ja verstehen das man als AMD Fanboy dringend mal einen Stich gegen Nvidia sehen will, aber wartet doch bis es gleiche Vorraussetzungen gibt.

Erinnert sich noch wer an T&L ( Transform and Lightning )???. Da sieht ne Karte mit deaktivierten T&L gegen eine mit T&L auch ziemlich schlecht aus.

dargo
2016-07-19, 20:27:42
Woher weißt Du das?

Er denkt es sich aus es nutz nicht mal id tech 6,sondern Version 5.
:rolleyes:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

dildo4u
2016-07-19, 20:35:06
Tolle Bestätigung das ist uralt da hatten sie vermutlich nicht mal ein Überblick wie aufwendig das wird.

Doom hat ein viel größeres Team und Verkaufspotenzial,daher hatten sie die nötigen Ressourcen. Ich hätte an Vulkan Support geglaubt wenn sie id Tech 6 übernehmen,das ist aber nich der Fall

Screemer
2016-07-19, 20:42:33
Wie gesagt das das sich Dargo ausgedacht weil Doom Vulkan support hat das ist aber ne neuere Engine Version.
meine Güte, dass war richtig schwer zu finden: https://youtu.be/UIAzBN1-Wq4?t=636. wenn die vor nem 3/4tel jahr mit dx12/vulkan/mantle in der engine experimentiert haben, dann darf man durchaus annehmen, dass zumindest eines davon es in die finale version schaffen wird.

€dit: eure argumentation stinkt doch zum himmel. wie groß ist das team von croteam? welche api unterstützt talos principle?

dargo
2016-07-19, 20:44:52
Doom hat ein viel größeres Team und Verkaufspotenzial,daher hatten sie die nötigen Ressourcen. Ich hätte an Vulkan Support geglaubt wenn sie id Tech 6 übernehmen,das ist aber nich der Fall
Wie kommst du überhaupt auf Vulkan? Die Rede ist dort von new PC-APIs! Es ist noch völlig offen ob Vulkan oder DX12. Mantle kann man ignorieren.

scully1234
2016-07-19, 20:48:20
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156.html

schoener umfassender Test Igor besonders diese Sweetspot/Frametimes/Effizienzanalyse ist immer wieder was besonderes




Nachtigall..... Gibts doch noch eine 1060 Ti mit echtem halbiertem GP104 und 256-bit oder hat inno3D einfach nur Resteplatinen verwurstet?

Ein Glueckscode ist ja noch nicht eingeloesst ''150'' :P

dildo4u
2016-07-19, 20:53:57
Für Leute die eine Mini Karte brauchen.


https://www.alternate.de/ZOTAC/GeForce-GTX-1060-Grafikkarte/html/product/1287154?campaign=Grafikkarte/ZOTAC/1287154

(del)
2016-07-19, 20:54:58
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156.html
schoener umfassender Test Igor besonders diese Sweetspot/Frametimes/Effizienzanalyse ist immer wieder was besonderes

Da sich Dinge wie Doom fast schon monatlich total verschieben (können), solche Tests aber auch länger Bestand haben (sollten), ist der etwas genauere Blick auf die Hardware oft ergiebiger, als das ganze emotional verkleisterte Balkengeraffel, dessen Halbwertszeit meist dem von Vanilleeis in Dubai mittags um 12 Uhr entspricht. Wir haben intern überlegt, TimeSpy oder Doom mit reinzunehmen, es aber dann doch gelassen, weil man sich dann (a) in ein paar Tagen eh wieder revidieren muss und (b) die ganzen roten und grünen Fanboys nur unnötig in den Herzkasper treibt, der dann alle Steuerzahler gleichermaßen belastet. :)

Screemer
2016-07-19, 20:59:46
aber metro:ll ist ne bessere idee :confused: komische argumentation. nachtests kann es immer geben. ist doch eh alles nur Momentaufnahme.

(del)
2016-07-19, 21:01:45
aber metro:ll ist ne bessere idee :confused:

Ja. Alle Hersteller haben ihre Treiber bis zum Exzess optimiert und gepatcht wird dort auch nicht mehr. Da ändert sich übers jahr nichts mehr, aber repräsentativ ist es immer noch und je nach Preset sogar ziemlich punktgenau. Ich habe mal insgesamt 23 Spiele gebenchmarkt, den prozentualen Mittelwert ermittelt und bin genau bei Metro LL gelandet. :D

AMD zuliebe (haha, besser dem Durchschnitt entgegenkommend) habe ich die Tessellation nur auf normal, PhysX ist aus und SSAO deaktiviert. Dann kommt das eigentlich ganz gut hin, wenn man man auf die Spiele verzichtet, die von beiden Brands eher als hauseigene Techndemo verhätschelt werden.

nachtests kann es immer geben. ist doch eh alles nur Momentaufnahme.
Wer seine eigenen Reviews als Eintagsfliegen betrachtet, mag damit nicht mal falsch liegen. Doom gehört getestet, sicher. Aber in einem separaten Artikel und genau der wird noch kommen. Aber eben nicht als Schnellschuss, nur um der Fanbase Nahrung in den Rachen zu werfen.:D

Lurtz
2016-07-19, 21:06:13
Was ihr euch alle ins Hemd macht. AC ist doch momentan vollkommen un relevant, solange es den DX 11 Pfad gibt, wo NV deutlich besser ist.

Sollte es irgendwann mal eine breite Masse an DX 12 only Titel geben, dann sind die jetzigen Karten ehh zu langsam.
Genau, so wie die HD 7950 ihre 3GB Ram nicht braucht. Ist bis dahin eh längst zu langsam, die Geschichte kennt man ja mittlerweile bei den hart-auf-Kante-Karten von nVidia.

Was hier einige sich wieder aufregen;D

Das Ding ist deutlich schneller als meine GTX 960, kostet etwas mehr als diese gekostet hat (so what, istn hobby und verdiene dieses Jahr eh mehr durch jobwechsel, gucke bei meinen anderen Hobbys auch nicht auf 50€ hin oder her - so ein Käse!) und braucht kaum mehr Strom.
Nächstes Jahr dann das gleiche Spiel wieder wenns was besseres für ~300€ gibt.:)
Die Anschaffungskosten sind egal, aber Stromverbrauch ist dann wieder wichtig?

Screemer
2016-07-19, 21:07:02
@igor: da freu ich mich dann schon drauf. :up:

-/\-CruNcher-/\-
2016-07-19, 21:10:49
@Format_C

Die Radeon RX 480 startet mit einem GPU-Takt von 850 bis 900 MHz im als stabil ermittelten "Power-Save-Mode" (0,85 Volt als Maximum) und endet bei knapp 1300 MHz, die jedoch gegenüber den 1250 MHz der Default-Einstellungen nur kaum merkliche Vorteile mit sich bringen.

Das hätte ich gerne mal in Zukunft in Motion gesehen und mit locked FPS ;)


Wer seine eigenen Reviews als Eintagsfliegen betrachtet, mag damit nicht mal falsch liegen. Doom gehört getestet, sicher. Aber in einem separaten Artikel und genau der wird noch kommen. Aber eben nicht als Schnellschuss, nur um der Fanbase Nahrung in den Rachen zu werfen.:D

Sehr gespannt drauf zumal du Async Compute ja einfach eliminieren und ausschliesen kannst :)

Nur die Instrinsics Optimierungen kannst du eben nicht so einfach ausschliesen, Nvidia AC support ist hier jedenfalls nicht der wirklich ausschlagebende Faktor für einen "fairen" test und du kommst endlich von Metro wech ;)



Freu mich echt schon auf den minimal Power Consumption Render Performance test den du da garantiert durchführen wirst :D


Doom 4 auf 60W fuck yeah Silent Fraging ;)

kuj0n
2016-07-19, 21:12:04
Wann ist denn mit Tests der Custom Karten zu rechnen?

(del)
2016-07-19, 21:19:47
Wann ist denn mit Tests der Custom Karten zu rechnen?
Wenn ichs schaffe, nächsten Dienstag mit drei komplett zerlegten Karten und eben nicht nur das übliche "High-End" der Hersteller. ;)

BTW:
Es fehlt nicht nur der NV-Treiber, sondern auch die vollständige Implementierung im Spiel. ID lässt aktuell Nvidia-Karten nicht vollumfänglich laufen. Ein Schelm und so.... Techdemo ;)

Übrigens ist der GP106 pin-kompatibel zum GP104, läuft also auch bequem auf den großen Platinen. Soweit ich das jetzt angeschaut habe, sind die referenz-Platinen der inno3D schon echt, aber ohne UL-Nummer und einige andere Aufdrucke. Vielleicht arbeitet man ja auch Evaluation-PCBs auf und bestückt sie nur nach eigenem Gutdünken. Wer weiß...
Selbst schuld, wer keine polierten Pressesamples abgreift :P

dildo4u
2016-07-19, 21:39:18
Wann ist denn mit Tests der Custom Karten zu rechnen?
Hier gibt z.b die Super Jetstream:

http://www.guru3d.com/articles-pages/palit-geforce-gtx-1060-super-jetstream-review,1.html

Wolfenstein ist immer noch kaputt auf der 480

http://i.picpar.com/cJVb.png

-/\-CruNcher-/\-
2016-07-19, 21:45:59
Ihr testet einfach nicht mehr richtig Zeitgemäß darum geht es doch ;)

Oder hast du das jetzige CPU deffizit unter DX12 bei Nvidia schon erkannt ;) ?

ihr testet meistens vor allem an der Realität der meisten Systeme vorbei mit euren I7 boliden das man euch relativ einfach manipulieren kann da wo man die balken vor allem haben möchte am ende eines Reviews ;)

Hakim
2016-07-19, 21:51:39
Ich frag mich wie Guru3D auf den berechneten (geschätzten?) Verbrauch von 134W kommt, wenn ich mir die Durchschnittswerte bei HT4U anschaue wäre das im Mittelwert etwa ~112W

Rancor
2016-07-19, 21:53:52
Ihr testet einfach nicht mehr richtig Zeitgemäß darum geht es doch ;)

Oder hast du das jetzige CPU deffizit unter DX12 bei Nvidia schon erkannt ;) ?

ihr testet meistens vor allem an der Realität der meisten Systeme vorbei mit euren I7 boliden das man euch relativ einfach manipulieren kann da wo man euch und die balken vor allem haben möchte ;)

Warum ist denn ein i7 an der Realität vorbei? Erklär das mal bitte? Und von was für einem CPU Defizit redest du bitte?

Es gibt eine Handvoll DX 12 und 1 Vukan Titel ( Doom und hier werden laut Aussage vom Entwickler Nvidia Karten garnicht unter Vulkan vollständig unterstützt ) wo AMD zur Zeit die Performance von Nvdia unter DX 11 erreicht oder leicht besser ist und ihr tut so als ob Nvidias letzte Stunde geschlagen hat.
Das ist absolut lächerlich.

Ich kann überhaupt nicht verstehen wie man so fanatisch für einen Hardwarehersteller sein kann... wirklich absurd.

Fakt ist, das Nvidia bei DX 12/Vulkan einfach ihre Hausaufgaben noch nicht gemacht haben. Ist auch gut möglich das Pascal durch AC garnicht profitieren kann, so wie Maxwell. Die Zeit wirds zeigen.
Fakt ist aber auch, das NV DX 12 garnicht so nötig hat wie AMD..

Gorkon
2016-07-19, 21:58:23
Man muss jetzt nach 1080, 1070 und 1060 einfach mal den Hut vor nV in Sachen Perf/Watt ziehen. Pascal kann abartig effizient sein, wenn alle Stellschrauben ineinander greifen. Für den Großteil der jetzt erhältlichen Spiele (DX11) führt ohne Biased zu werden eigentlich kein Weg an nV vorbei.
Aaaaber...jeder kann sich die Mühe machen und im Review von CBase das finale Performancerating selber anpassen (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_benchmarks_in_1920__1080_und_2560__1440). Macht das mal nur mit DX11 / DX12/Vulkan Titeln.
Da werden aus 7% Vorsprung dann nämlich 4% Rückstand, Referenz vs. Referenz wohlgemerkt. Klar, 4 Next-API Titel sind natürlich nicht so aussagekräftig wie 19x DX11, zeigt aber doch wohin die Reise gehen könnte. Und mehr will der Großteil der roten Fraktion doch eigentlich nicht anerkannt haben. Genauso wie die meisten nV-User ihr wirklich effizientes Gesamtpaket zurecht verteidigen.

Und momentan sieht es imho halt so aus: Pascal für das hier und jetzt, GCNv4+ für die Zukunft. Beides hat seine Vor- und Nachteile. Und jeder sollte für sich am besten entscheiden, was für ihn am wichtigsten ist. Am Ende wollen alle doch nur ihre Sachen vernünftig daddeln.
Für mich herrscht jetzt mit GP106 vs. P10, endlich wieder Konkurrenzkampf. Und das wird dem Markt am Ende endlich mal wieder gut tun...

mfg

Rancor
2016-07-19, 22:01:33
@ Gorkon

Das Problem ist, das Doom von der roten Fraktion hier als Präzedenzfall genommen wird und das obwohl absolut klar ist, das Doom unter Vulkan Nvidiakarten garnicht richtig unterstützt. Siehe Digidi.. Also heisst es erstmal abwarten bis das der Fall ist. Sollte AMD dann immer noch so krass im Vorteil sein, können Sie AMD endlich abfeiern, aber doch bitte nicht vorher.

-/\-CruNcher-/\-
2016-07-19, 22:03:23
Jep und es wird AMD verhelfen weiter optimieren zu können in die Richtung in die sie damals eingeschlagen haben :)
Das sehe ich eben auch als absolut Positiv preise sinken wieder oder man bekommt zumindestens wieder etwas mehr Performance nach den Konsolen war das auch bitter nötig.

MikePayne
2016-07-19, 22:04:12
Aaaaber...jeder kann sich die Mühe machen und im Review von CBase das finale Performancerating selber anpassen (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_benchmarks_in_1920__1080_und_2560__1440). Macht das mal nur mit DX11 / DX12/Vulkan Titeln.
Da werden aus 7% Vorsprung dann nämlich 4% Rückstand, Referenz vs. Referenz wohlgemerkt. Klar, 4 Next-API Titel sind natürlich nicht so aussagekräftig wie 19x DX11, zeigt aber doch wohin die Reise gehen könnte. Und mehr will der Großteil der roten Fraktion doch eigentlich nicht anerkannt haben. Genauso wie die meisten nV-User ihr wirklich effizientes Gesamtpaket zurecht verteidigen.


Schön gesehen und zusammengefasst. :up:


Allgemein:

Die Karte mag (Stand: heute) paar Schwanzmarks mehr rausholen und etwas weniger Strom verbrauchen,
aber mit jedem Tag, der ins Land geht, wird die Karte schneller obsolet als die RX 480.

- weniger Speicher
- Vulkan / DX12 hinter AMD (ergo kommende Games)
- höherer Preis

Btw:

980: 540€ UVP
970: 320€ UVP
960: 200€ UVP

1080: 790€ UVP
1070: 500€ UVP
1060: 320€ UVP

nvidia zockt die Leute ab und es wird dazu geklatscht -.-

Was bleibt ist der bittere Nachgeschmack der nvidia-Preise (mal von den bisherigen 1060er Customs abgesehen), ohne die RX 480 würde das noch übler aussehen...

Rancor
2016-07-19, 22:10:00
Jep und es wird AMD verhelfen weiter optimieren zu können in die Richtung in die sie damals eingeschlagen haben :)
Das sehe ich eben auch als absolut Positiv preise sinken wieder oder man bekommt zumindestens wieder etwas mehr Performance nach den Konsolen war das auch bitter nötig.

Ist auch schön wie du auf Fragen nicht eingehst und es überließt. Top Diskussionsstil..... nicht...

Dural
2016-07-19, 22:14:05
2,2ghz mit luft
https://www.youtube.com/watch?v=69gQ-8_RXLE&feature=youtu.be

dargo
2016-07-19, 22:15:52
Das Problem ist, das Doom von der roten Fraktion hier als Präzedenzfall genommen wird und das obwohl absolut klar ist, das Doom unter Vulkan Nvidiakarten garnicht richtig unterstützt. Siehe Digidi.. Also heisst es erstmal abwarten bis das der Fall ist.
Warum wird immer und immer wieder nur Doom erwähnt? Was ist mit Quantum Break?
https://www.youtube.com/watch?v=zh2svARKcDM

Der Takt der GTX970 entspricht in etwa einer GTX1060 Performance.

Ex3cut3r
2016-07-19, 22:16:56
Weil QB Software Müll ist, wer das ernst nimmt, dem ist auch nicht mehr zu helfen.

scully1234
2016-07-19, 22:20:07
Warum wird immer und immer wieder nur Doom erwähnt? Was ist mit Quantum Break?
https://www.youtube.com/watch?v=zh2svARKcDM

Der Takt der GTX970 entspricht in etwa einer GTX1060 Performance.

Was kommst du hier immer mit der alten Maxwell Architektur um die Ecke geschlichen, und willst dann damit Pascal taktbereinigt aufs selbe Level heben:rolleyes:

dildo4u
2016-07-19, 22:22:08
Warum wird immer und immer wieder nur Doom erwähnt? Was ist mit Quantum Break?
https://www.youtube.com/watch?v=zh2svARKcDM

Der Takt der GTX970 entspricht in etwa einer GTX1060 Performance.

Läuft nicht so schlecht auf der 1060,schätze mal Bandbreite ist ein Problem 480 ist unter der 390.

http://abload.de/img/gtx-1060-review-844zsaq.jpg

Gorkon
2016-07-19, 22:23:16
Das Problem ist, das Doom von der roten Fraktion hier als Präzedenzfall genommen wird und das obwohl absolut klar ist, das Doom unter Vulkan Nvidiakarten garnicht richtig unterstützt. Siehe Digidi.. Also heisst es erstmal abwarten bis das der Fall ist. Sollte AMD dann immer noch so krass im Vorteil sein, können Sie AMD endlich abfeiern, aber doch bitte nicht vorher.
*sigh* Auch nV-User haben in der Vergangenheit, genauso wie AMD-User, Cherry-Picking betrieben. "Wer schuldig ist werfe den ersten Stein" undso ;)
Ich sag nur Anno 2205... (https://www.computerbase.de/2015-11/anno-2205-benchmarks/2/#abschnitt_benchmarks_mit_27_grafikkarten)

Aber das soll hier nicht reingehören. Es ist Sommer, es ist / wird heiss und bei vielen setzt aber 25°C+ einfach der Schwamm im Kopf namens Gehirn aus. Also ab in die Eistonne und abkühlen :) Es ist nur ein Stück Elektronik...nicht die Erwerbsregeln der Ferengi (die auch nur Empfehlungen waren btw. ;D)

dargo
2016-07-19, 22:27:05
Weil QB Software Müll ist, wer das ernst nimmt, dem ist auch nicht mehr zu helfen.
Ah ok... ich merke mir diesen Satz sollte noch ein AAA-Titel mit DX11 kommen und auf NV 50% schneller laufen.

Was kommst du hier immer mit der alten Maxwell Architektur um die Ecke geschlichen, und willst dann damit Pascal taktbereinigt aufs selbe Level heben:rolleyes:
Ist Maxwell bereits tot? Du kannst mir aber auch gerne ein Spiel zeigen wo die GTX1060 50% auf eine GTX970 @1550Mhz drauflegt. Ich bin gespannt.

Ex3cut3r
2016-07-19, 22:31:01
Ach komm, du hast QB selbst mal als Müll bezeichnet...

dargo
2016-07-19, 22:32:51
Du hast aber schon mitbekommen, dass das Game sowie UWP mehrere Updates bekommen haben? Der Start von UWP war sicherlich sehr holprig. Und ist es teilweise immer noch. Bsw. bei Forza 6: APEX.

deLuxX`
2016-07-19, 22:33:11
Die Anschaffungskosten sind egal, aber Stromverbrauch ist dann wieder wichtig?
1. Anschaffungskosten sind nicht egal
2. Stromverbrauch hinsichtlich Kosten ist mit tatsächlich ziemlich egal.

Versteh garnicht warum hier so rumgehackt wird. Offensichtlich sind RX480 und GTX1060 ziemlich nah beieinander. Was daran jetzt aus Konsumsicht so schlecht sein soll muss man mir mal erklären.

Megamember
2016-07-19, 22:37:52
Ohne Scheiß, Peter, aber der Titel, den dein RX480 hatte, war einfach eine Bodenlose Frechheit - hast du wirklich Nötig, Titel auf Axel-Springer Presse Niveau zu machen?!


Wegen dem Satz "hart auf Kante gebaut" gehst du so an die Decke? Ernsthaft?

Ist übrigens auch völlig korrekt gewesen, in jeglicher Hinsicht.

StefanV
2016-07-19, 22:43:40
Oh übrigens, schaut mal hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Achtet mal auf die Leistungsaufnahme aller Karten. Bachtet besonders die MSI.
Und schaut mal, wo die RX480 ist...

Ich lass das einfach mal so stehen.

-/\-CruNcher-/\-
2016-07-19, 22:44:24
Ohne Scheiß, Peter, aber der Titel, den dein RX480 hatte, war einfach eine Bodenlose Frechheit - hast du wirklich Nötig, Titel auf Axel-Springer Presse Niveau zu machen?!
Außerdem solltest du mal an deiner Art und Weise arbeiten.
Es ist OK, anderer Meinung zu sein und das auch deutlich zu sagen.
Es ist nicht OK, den anderen persönlich anzugehen!


Dazu sage ich nur das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623834&postcount=2008

Noch einmal im Klartext:
Da sagt ein Entwickler sehr deutlich, dass bei ihm Objekte verschwinden, nachdem er den Code an nVidia übermittelt hat.

Und einen Treiber so weit zu optimieren, dass man durch eine lower level API keinen Performance Gewinn ziehlen kann, ist schlicht Bullshit...
Du solltest dir mal die Benchmarks in den entsprechenden Threads anschauen. Da haben Leute nämlich das Gegenteil bewiesen, nämlich dass auch bei nVidia der Vorteil durch die neuen low level APIs durchaus vorhanden ist und je nach Situation enorm...
Vielleicht solltet ihr euch nicht immer die dickste CPUs ever in den Rechner schmeißen sondern auch mal gegentests mit älteren/preiswerteren CPUs (=praxisrelevanter) durchführen.
Insbesondere bei DX12/Mantle...
Mit 'nem i5-750 oder sowas in der Gegend ist der Unterschied zwischen DX12/Vulkan und Mantle nämlich auch bei nVidia ziemlich deutlich und vorhanden...

Kurz: bei äußerst starker CPU ist der Gewinn gering, aber er ist z.T. eben doch vorhanden, nämlich immer dann, wenn die CPU stark beansprucht wird...


Und hast du auch alles dran gesetzt, zu überprüfen, dass auch beide wirklich annähernd das gleiche rendern und nicht der eine etwas völlig anderes, was aber ungefähr genau so ausschaut?!
Ich denke nicht...

Und was soll uns dieses Beispiel jetzt sagen?!


Was du hier schreibst, verstehe ich nicht.

Das klingt so, als ob du überhaupt nicht verstanden hast, was die neuen Schnittstellen (=DX12/Mantle) bewirken und was deren Sinn und Zweck ist...

Die persönlichen Anfeindungen kannst du dir sparen, insbesondere nach dem Titel deines RX480 Tests...

So runterspielen sollte man Nvidias Treiber Overhead Bemühungen jetzt aber ganz und garnicht das ist selbst nicht Fair.
Die Prioritäten bei AMD lagen anders kontinuierliche Optimierung war da nicht vorgesehen sie haben eher gleich vom Scratch begonnen und sich auf Mantle konzentriert.
Nvidia hat so gesehen auch und vor allem mit dem OpenGL Treiber einen AZDO approach vorangetrieben und das kontinuierlich.
Und vieles davon zu DX 11 gebracht.

Du kannst es auch so sehen das AMD einfach schon länger hinter verschlossenen türen daran arbeitete, während Nvidia die sachen sofort auf den Tisch legte und ihre Produkte damit vorantrieb egal in welchem Stabilitätsstatus.

Und Microsoft war ja auch daran beteiligt das ganze zieht sich ja über wenn nicht schon jetzt 10 Jahre, jeder war sich doch bewusst das die Hardware und der rest besser werden müssen was Multithreading angeht und AMD eben ganz bessonders durch ihre HSA Bemühungen.

Nvidias auffassung war einfach Effizient zu sein vor allem mit beginn des Mobile Boom (Tegra) AMDs wir kompensieren das schon irgendwie ;)

Tja und dann kamm plötzlich wie aus dem nichts "Intel" die alle schon begraben hatten was GPU angeht ;)

dildo4u
2016-07-19, 22:45:58
Oh übrigens, schaut mal hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Achtet mal auf die Leistungsaufnahme aller Karten. Bachtet besonders die MSI.
Und schaut mal, wo die RX480 ist...

Ich lass das einfach mal so stehen.
Die 480 ist extrem langsam bei dem Game das könnte den geringen Verbrauch erklären.Irgendwas scheint AMD bei dem Game nicht zu schmecken.

http://abload.de/img/annotmzsxt.png

Megamember
2016-07-19, 22:48:43
Oh übrigens, schaut mal hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Achtet mal auf die Leistungsaufnahme aller Karten. Bachtet besonders die MSI.
Und schaut mal, wo die RX480 ist...

Ich lass das einfach mal so stehen.

Uii, 6W mehr, heiligs Blechle. Das du wieder cherries pickst und nicht den Schnitt aller 4 getesteten Spiele zeigst war eh klar....

Gorkon
2016-07-19, 22:49:47
Die 480 ist extrem langsam bei dem Game das könnte den geringen Verbrauch erklären.Irgendwas scheint AMD bei dem Game nicht zu schmecken.

http://abload.de/img/annotmzsxt.png
Ich würde Anno bei CBase gerne mal mit Ultra-High-Shadern sehen. Gebencht wird ja nur mit Very-High wo Maxwell / Pascal noch übelst abgehen. Ab UH rückt das Feld ja wieder auf ein "normales" Niveau zusammen... Vielleicht sind dann ja auch die Stromverbräuche wieder normal :D

https://www.computerbase.de/2015-11/anno-2205-benchmarks/2/#abschnitt_benchmarks_mit_27_grafikkarten

o3
2016-07-19, 22:49:52
wenn man man auf die Spiele verzichtet, die von beiden Brands eher als hauseigene Techndemo verhätschelt werden.


Ok...
Irgendwie lustig. (Naja, eigentlich eher traurig bzw. sehr ernüchternd.)
So einen Satz zu bringen und dabei mit Metro LL eins der Vorzeige-Gameworks-Nvidia-Arschkriecher-Spiele zu nehmen.


Ich hatte mich hier eigentlich angemeldet, weil ich mitbekommen hatte, das hier Tester / Redakteure diverser Publikationen vertreten sind und sich auch mal zu Wort melden.

Die Eindrückte die man hier aber bekommt, zeigen einen ganz klaren Schiefstand bzgl "NEUTRALER Herangehensweise".
So manches, was man als Vorurteil bezeichnen konnte, wird hier leider klar bestätigt.

Ex3cut3r
2016-07-19, 22:50:04
Oh übrigens, schaut mal hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Achtet mal auf die Leistungsaufnahme aller Karten. Bachtet besonders die MSI.
Und schaut mal, wo die RX480 ist...

Ich lass das einfach mal so stehen.


Echt jetzt?

In 3 von 4 Spielen ist die MSi sparsamer. Außerdem kommen die RX 480 customs ja noch, die durften ja nochmal mehr schlucken als die Referenz.

dargo
2016-07-19, 22:54:37
Oh übrigens, schaut mal hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Achtet mal auf die Leistungsaufnahme aller Karten. Bachtet besonders die MSI.
Und schaut mal, wo die RX480 ist...

Ich lass das einfach mal so stehen.
Total merkwürdig, vor allem auch in Relation zur GTX1070 die ja irgendwo bei 145-150W liegt.

Fliwatut
2016-07-19, 22:56:26
Warum testet HT4U nicht mit dem aktuellen Treiber für die RX 480, der mehr Leistung bietet: https://www.computerbase.de/2016-07/radeon-rx-480-crimson-16.7.2-test/ ?

dargo
2016-07-19, 22:58:40
Die 480 ist extrem langsam bei dem Game das könnte den geringen Verbrauch erklären.Irgendwas scheint AMD bei dem Game nicht zu schmecken.

http://abload.de/img/annotmzsxt.png
Die 390 ist dort auch sehr langsam, trotzdem schluckt sie deutlich mehr. Und wie gesagt... die GTX1070 liegt bei ~150W. Das würde bedeuten, dass die MSI GTX1060 Gaming in diesem Spiel um die 155W zieht.

Andi Y
2016-07-19, 22:59:05
@o3
Format_C schrieb aber dazu:

AMD zuliebe (haha, besser dem Durchschnitt entgegenkommend) habe ich die Tessellation nur auf normal, PhysX ist aus und SSAO deaktiviert.
.:D

StefanV
2016-07-19, 23:00:02
Total merkwürdig, vor allem auch in Relation zur GTX1070 die ja irgendwo bei 145-150W liegt.
naja, erst einmal ist es anders und zeigt, dass alles weniger klar und deutlich ist, wie von einigen behauptet.

Diesen Bench kann man also durchaus als Anreiz dafür nehmen, mal über die Messungen der Leistungsaufnahme nachzudenken und auch mal drüber nachzudenken, andere Szenarios mit rein zu nehmen (zum Beispiel einfach eine Standard Szene, in der man einen Gang durchläuft, einmal Karte frei laufen lassen, einmal nicht (=Vsync auf 60 oder 30fps oder ähnlich)...

Oder kann man die Leistungsaufnahme von moderner Hardware gar nicht mehr so ohne weiteres mehr überprüfen, aufgrund der Art und Weise, wie das passiert?

Und insbesondere ist die Frage, wie hoch denn der Fehler der Messung an sich ist bzw sein könnte...

Hakim
2016-07-19, 23:06:31
Schaut doch einfach die Strommessungen bei HT4U, da wird von 10 spielen der Durchschnittsverbrauchswert und der Maximal Wert angegeben. Was will man mehr? Wenn ich mir die ganzen Komplett System angaben anschaue oder noch besser diese Geschätzten werte bei Guru3D.

dargo
2016-07-19, 23:09:09
naja, erst einmal ist es anders und zeigt, dass alles weniger klar und deutlich ist, wie von einigen behauptet.

Ich bin eigentlich schon länger dafür, dass man das gesamte System beim Verbrauch betrachtet und nicht nur die einzelne Komponente an sich. Schließlich braucht man etwas mehr als nur eine dGPU um Frames zu rendern. Ich glaube Igor hatte diesen Ansatz mal mit AotS verfolgt.

Witzig bei deinem Link ist auch, dass das Gesamtsystem mit der MSI Gaming in Anno 19W mehr zieht als mit Palit Super Jetstream. In XCOM 2 es aber wieder völlig anders aussieht. Dort zieht plötzlich das System mit der Palit 20W mehr. :freak:

Edit:
@FrüscheMilsch

Es geht ja nicht nur darum. Schau dir in Anno die Referenz GTX1060 und Referenz RX480. Das Gesamtsystem mit der RX480 verbraucht laut CB 21W mehr. Hier darf man natürlich noch die NT Effizienz nicht aus den Augen verlieren. Ich tippe mal auf 85-90% bei einem sehr guten NT. Wären also 18-19W Unterschied. Wenn die Referenz GTX1060 nun also 120W ziehen soll würde das bedeuten die RX480 würde nur 139W ziehen. Die ganzen Tests bescheinigen aber ~160W. Jetzt könnte man sich fragen wie passt das zusammen? Und wenn die Einzelmessungen der dGPUs Grafikkarten was anders bescheinigen, warum verbraucht der Rest vom System (ist ja alles identisch) bei NV mehr?

MadManniMan
2016-07-19, 23:10:40
(den dem einen Stromverbrauchswert der 480 auf der CB bei Anno)

Du verstehst aber schon, dass Du a) Cherrypicking betreibst und b) FPS und Leistungsaufnahme korrelieren?

(del)
2016-07-19, 23:11:37
Ok...
Irgendwie lustig. (Naja, eigentlich eher traurig bzw. sehr ernüchternd.)
So einen Satz zu bringen und dabei mit Metro LL eins der Vorzeige-Gameworks-Nvidia-Arschkriecher-Spiele zu nehmen.

Ich hatte mich hier eigentlich angemeldet, weil ich mitbekommen hatte, das hier Tester / Redakteure diverser Publikationen vertreten sind und sich auch mal zu Wort melden.

Die Eindrückte die man hier aber bekommt, zeigen einen ganz klaren Schiefstand bzgl "NEUTRALER Herangehensweise".
So manches, was man als Vorurteil bezeichnen konnte, wird hier leider klar bestätigt.

Scherzkeks. Metro war am Ende sogar eher AMD-lastig, weil sie sich wirklich zum Krüppel optimiert haben und es ist definitiv kein NV-Titel mehr. Siehe Hawaii und Fiji. Kaum passt mal wieder was nicht, ist es plötzlich gleich gaaanz schlecht. Schon klar. Und Gameworks in Metro LL? :D
Vom technischen Standpunkt gesehen, ist die ältere 4A Engine eigentlich eine geile und weitgehend neutrale Testumgebung für viele Dinge, weil sie eben nicht der letzte Schrei ist, aber voll ins Kontor schlägt.

Ich bin übrigens privat hier und nicht als "Redakteur". Und meine private Meinung lasse ich mir auch nicht verbieten. Als "Tester / Redakteur" schreibe ich nur im eigenen Forum, bzw. dessen Lokalisierungen.

Im Übrigen:
Den Steckdosenkram, egal nun von wem auch immer, kann man nun wirklich nicht als Beweis aufführen.

Jupiter
2016-07-19, 23:16:48
Das ist eines der Probleme wenn jeder denkt, Ahnung zu haben.

-/\-CruNcher-/\-
2016-07-19, 23:18:29
Weil QB Software Müll ist, wer das ernst nimmt, dem ist auch nicht mehr zu helfen.

Die Aussage disqualifiziert extreme ;)

Gorkon
2016-07-19, 23:36:47
Edit:
@FrüscheMilsch

Es geht ja nicht nur darum. Schau dir in Anno die Referenz GTX1060 und Referenz RX480. Das Gesamtsystem mit der RX480 verbraucht laut CB 21W mehr. Hier darf man natürlich noch die NT Effizienz nicht aus den Augen verlieren. Ich tippe mal auf 85-90% bei einem sehr guten NT. Wären also 18-19W Unterschied. Wenn die Referenz GTX1060 nun also 120W ziehen soll würde das bedeuten die RX480 würde nur 139W ziehen. Die ganzen Tests bescheinigen aber ~160W. Jetzt könnte man sich fragen wie passt das zusammen? Und wenn die Einzelmessungen der dGPUs Grafikkarten was anders bescheinigen, warum verbraucht der Rest vom System (ist ja alles identisch) bei NV mehr?
dargo, sry...aber ich glaube Anno auf CBase ist einfach fürn Arsch. Schau mal bei HWLuxx oder HT4U...da sind die Karten gemäß der vorherrschenden "Norm" so aufgereiht wie man es erwarten würde. Die Benchen sicherlich alle mit UH-Shadern, CBase nur mit VH...das schmeckt AMD nicht, oder nV extrem (oder umgedreht) oder beides oder garnix...ich hab kein Plan :freak:

-/\-CruNcher-/\-
2016-07-19, 23:39:31
keine ahnung worauf ihr hinaus wollt. eine 970 kann mehr strom ziehen als eine 980 und eine 980 mehr als eine 980 ti.

wie könnt ihr eine msi KA 200w pt mit der referenz 1070 vergleichen? die eine läuft im effizienten bereich und die andere bläst alles raus was geht.

braucht ihr eine eine 160w msi 1060 um den hohen stromverbrauch der referenz 480 schön zu reden? geht doch einfach wo anders trollen.

vergleichbar sieht anders aus. mit jedem mhz steigt der stromverbrauch unverhältnissmäßig, sodass man schon fast vom oc ab raten sollte.

das also eine msi 1060 mehr braucht als eine 1070 referenz, ist absolut nachvollziehbar, dazu braucht man nichtmal messwerte.

Bingo frage mich in welchem Default mode die Samples eigentlich fahren oder ob sie im Spezielen "Partner Mode" laufen der ist echt der Hammer ;)

Auch verkennen hier einige einen wesentlichen Effizienzsunterschied zwischen der GTX 1060 und RX480

da gibt es einen Physikalischen unterschied von 8 GB verbrauch gegen 6 GB verbrauch der wird hier mal dezent vollkommen ignoriert das Nvidia sich das durch ihre neue DCC Kompression natürlich wieder mal leisten kann ist auch erwähnenswert ;)

Ich würde mal gerne eine echte 4 GB RX 480 gegen die 6 GB der GTX 1060 sehen :)

Aber das wird dann komplett von allen Reviewern unbeachtet gelassen

Digidi
2016-07-19, 23:41:47
Im Übrigen:
Den Steckdosenkram, egal nun von wem auch immer, kann man nun wirklich nicht als Beweis aufführen.

Wieso soll man das nicht ernst nehmen? Der Stromzähler zählt auch nicht anderster? Das ist was Stromkosten angeht näher dran.

dargo
2016-07-19, 23:41:54
dargo, sry...aber ich glaube Anno auf CBase ist einfach fürn Arsch. Schau mal bei HWLuxx oder HT4U...da sind die Karten gemäß der vorherrschenden "Norm" so aufgereiht wie man es erwarten würde. Die Benchen sicherlich alle mit UH-Shadern, CBase nur mit VH...das schmeckt AMD nicht, oder nV extrem (oder umgedreht) oder beides oder garnix...ich hab kein Plan :freak:
In RotTR ist es auch nicht soo viel anders. Unter Berücksichtigung der NT Effizienz bleiben 24-25W Unterschied.


Im Übrigen:
Den Steckdosenkram, egal nun von wem auch immer, kann man nun wirklich nicht als Beweis aufführen.
Zahlst du bei deiner Stromrechnung nur für die Grafikkarte alleine? :D

Ätznatron
2016-07-19, 23:41:57
Ich bin übrigens privat hier und nicht als "Redakteur". Und meine private Meinung lasse ich mir auch nicht verbieten. Als "Tester / Redakteur" schreibe ich nur im eigenen Forum, bzw. dessen Lokalisierungen.

Möchtest du damit andeuten, dich als "Tester / Redakteur" wirklich um Neutralität zu bemühen?

StefanV
2016-07-19, 23:46:14
keine ahnung worauf ihr hinaus wollt.
Darauf, dass die Leistungsaufnahme nur eine kurze Momentaufnahme ist, gerade wenn das ganze relativ dicht beisammen ist, man das ganze eher als gleichwertig betrachten sollte und den 'Schätzungen' sehr große Toleranzen zugestehen sollte.

Und eben auch dass der Unterschied zwischen 2 (vermeintlich?) gleichen Karten relativ groß sein kann, sei es weil der Chip nicht ganz so gut ist und generell mehr verbraucht oder anderen Dingen.

(del)
2016-07-19, 23:48:57
Möchtest du damit andeuten, dich als "Tester / Redakteur" wirklich um Neutralität zu bemühen?

Was soll diese Andeutung? Gut, Du unterstellst mir als Tester Parteilichkeit, dann wäre das ja geklärt. Und: Du musste es nicht lesen. Nur liws dann bitte auch keine AMD-Artikel mehr, denn es könnte Deinem Weltbild gehörig schaden :D

scully1234
2016-07-19, 23:49:17
Koennt ihr mit euren verdammten Anschuldigungen und Befangenheitsunfug mal endlich aufhoeren, mal ists Raff,mal wird Peter zerpflueckt,mal wird Igor angegriffen, echt erbaermlich das Ganze, und gehoert auch nicht in den Thread hier:(

dargo
2016-07-19, 23:49:40
Auch verkennen hier einige einen wesentlichen Effizienzsunterschied zwischen der GTX 1060 und RX480

da gibt es einen Physikalischen unterschied von 8 GB verbrauch gegen 6 GB verbrauch der wird hier mal dezent vollkommen ignoriert das Nvidia sich das durch ihre neue DCC Kompression natürlich wieder mal leisten kann ist auch erwähnenswert ;)

Ähm... diesen Satz solltest du noch überdenken. ;)

Ex3cut3r
2016-07-19, 23:49:49
Könnt ihr mal das rumtreten auf Igor lassen? Er sagte doch bereits, dass es sein Privat Account ist. Ich möchte einfach nicht, dass er wegen "solchen" Leuten das 3Dcenter wieder verlässt.

dargo
2016-07-19, 23:52:13
Ich greife niemanden an, ich hinterfrage. Mich verwundert es halt sehr, dass Igor plötzlich das Gesamtsystem unwichtig ist. Das klang bei seinen Tests zu AotS noch ganz anders.

Digidi
2016-07-19, 23:54:19
Könnt ihr mal das rumtreten auf Igor lassen? Er sagte doch bereits, dass es sein Privat Account ist. Ich möchte einfach nicht, dass er wegen "solchen" Leuten das 3Dcenter wieder verlässt.

Ach er darf aber austeilen wie er will oder was? Tolle Auffassung von Gerechtigkeit!

Er wirbt immer mit seiner Leistungsmessung, die ist nur gut wenn es um Spec Verletzungen geht. Für alles andere tut es auch die Strommessung per Stromzähler und selbst da kann man abschätzen ob die Karte bald abraucht!

Ex3cut3r
2016-07-19, 23:54:47
Ich greife niemanden an, ich hinterfrage. Mich verwundert es halt sehr, dass Igor plötzlich das Gesamtsystem unwichtig ist. Das klangt bei seinen Tests zu AotS noch ganz anders.

Dich meinte ich auch gar nicht. Da kamen zu viele Posts dazwischen.

Ach er darf aber austeilen wie er will oder was? Tolle Auffassung von Gerechtigkeit!

Er wirbt immer mit seiner Leistungsmessung, die ist nur gut wenn es um Spec Verletzungen geht. Für alles andere tut es auch die Strommessung per Stromzähler und selbst da kann man abschätzen ob die Karte bald abraucht!

Geh dich bei Psychiater beschweren :rolleyes: , ist mir zu blöd. Ist eh alles OT

(del)
2016-07-19, 23:56:17
In RotTR ist es auch nicht soo viel anders. Unter Berücksichtigung der NT Effizienz bleiben 24-25W Unterschied.
Zahlst du bei deiner Stromrechnung nur für die Grafikkarte alleine? :D

Beim RAM sind es vielleicht 6 Watt Unterschied bei den Modulen, mehr nicht. Der Rest sind Chip und PCA.

Tja und was das Gesamtsystem betrifft, je nach CPU und Grafikkarte differiert allein die CPU-Leistungsaufnahme um mehr als 10 Watt, wenn man Pech hat. Dazu noch Lüfter und Gedöns, die auch anders laufen - je nach CPU-Last. Steckdose machte nur Sinn, wenn man dann für jede Grafikkarte mit jeder CPU einen Vergleichstest machen würde. Mit und ohne CPU-Limit usw.

Wozu dieser grob gerechnete Kram führt, sieht man bei Guru3D, da die 134 Watt bei der Referenz @Stock auch theoretsich nicht möglich sind, aber in den Foren für nette Beweisklimmzüge sorgen.

Hakim
2016-07-19, 23:57:08
Weiß auch nicht warum man hier ständig aufeinander losgeht. Erst in den Polaris Threads und jetzt hier. Weiß nicht ob das bei der letzten Graka Generationen ähnlich war, aber habe das früher viel Sachlicher und freundlicher in Erinnerung.

Ätznatron
2016-07-19, 23:57:12
Was soll diese Andeutung? Gut, Du unterstellst mir als Tester Parteilichkeit, dann wäre das ja geklärt. Und: Du musste es nicht lesen. Nur liws dann bitte auch keine AMD-Artikel mehr, denn es könnte Deinem Weltbild gehörig schaden :D

Ich bewundere, wie du Privates und Job glaubst trennen zu können.

Und du hast recht: Lesen muss ich es nicht. Tue ich aber trotzdem und erlaube mir dazu auch eine Meinung, so ganz privat hier im Forum.

kuj0n
2016-07-20, 00:00:54
Da ich mich überhaupt nicht entscheiden kann, was würdet ihr an meiner Stelle kaufen?

i3 3,3Ghz, 1680x1050 Auflösung

- Custom 1060 (momentan verfügbar ist die Palit)
- Custom 480 (wenn verfügbar)

So leise wie möglich soll sie sein. Overkill ist die Karte in der Auflösung sowieso, aber drei Jahre muss sie halten und den Wechsel auf 1444p mit machen.

(del)
2016-07-20, 00:02:14
Ich bewundere, wie du Privates und Job glaubst trennen zu können.
Und du hast recht: Lesen muss ich es nicht. Tue ich aber trotzdem und erlaube mir dazu auch eine Meinung, so ganz privat hier im Forum.

Ich kann es, denn Freizeit ist Freizeit. Du würdest übrigens staunen, wenn Du wüsstest für wen ich alles arbeite - das öffentliche Testen ist nur eine Facette davon. Und zu diesem Business gehört auch, dass man alle Jobs voneinander trennen kann und muss. Dazu gehört auch, selbst Dinge, die einem persönlich nicht zusagen, so objektiv wie möglich zu bewerten. Tut man das nicht, ist man in wenigen Wochen raus aus dem Geschäft.

Gleiches gilt auch für private Einsätze. Ab einem gewissen Alter ist man unabhängig genug, sich diesen Luxus leisten zu können. Ich bin kein Gehaltsempfänger, kein Befehlsempfänger und am Ende nur mir selbst (und meiner Familie) verpflichtet. Und ich habe schon lange aufgehört, über Hardware zu sabbern. :)

Raff
2016-07-20, 00:03:07
Da ich mich überhaupt nicht entscheiden kann, was würdet ihr an meiner Stelle kaufen?

i3 3,3Ghz, 1680x1050 Auflösung

- Custom 1060 (momentan verfügbar ist die Palit)
- Custom 480 (wenn verfügbar)

So leise wie möglich soll sie sein. Overkill ist die Karte in der Auflösung sowieso, aber drei Jahre muss sie halten und den Wechsel auf 1444p mit machen.

So leise wie möglich klingt nach GTX 1060, drei Jahre Mindesthaltbarkeit eher nach RX 480/8G.

[x] Nochmal zwei Wochen warten :ugly:

MfG,
Raff

-/\-CruNcher-/\-
2016-07-20, 00:03:10
@Format_C

Auf was für eine FPS kammst du @60W bei Metro 1080p (1500 Mhz) mit dem High Preset und wie sahen die Frametimes aus ?

Und bist du dir immernoch sicher das es zwischen Optimal/Maximal Power Setting (Optimal Pascal Default) keinen relevant erfassbaren unterschied bei 3D gibt mit Pascal Designs ?

scully1234
2016-07-20, 00:05:16
Und ich habe schon lange aufgehört, über Hardware zu sabbern. :)

Warte noch ein paar Jahre dann kommt das Sabbern auf biologischem Wege von selbst wieder:P

kuj0n
2016-07-20, 00:06:11
So leise wie möglich klingt nach GTX 1060, drei Jahre Mindesthaltbarkeit eher nach RX 480/8G.

[x] Nochmal zwei Wochen warten :ugly:

MfG,
Raff
Warum wusste ich vorher das diese Antwort kommt? :biggrin: Ich danke trotzdem.

Digidi
2016-07-20, 00:06:11
Beim RAM sind es vielleicht 6 Watt Unterschied bei den Modulen, mehr nicht. Der Rest sind Chip und PCA.

Tja und was das Gesamtsystem betrifft, je nach CPU und Grafikkarte differiert allein die CPU-Leistungsaufnahme um mehr als 10 Watt, wenn man Pech hat. Dazu noch Lüfter und Gedöns, die auch anders laufen - je nach CPU-Last. Steckdose machte nur Sinn, wenn man dann für jede Grafikkarte mit jeder CPU einen Vergleichstest machen würde. Mit und ohne CPU-Limit usw.

Wozu dieser grob gerechnete Kram führt, sieht man bei Guru3D, da die 134 Watt bei der Referenz @Stock auch theoretsich nicht möglich sind, aber in den Foren für nette Beweisklimmzüge sorgen.

Dann könnte man auch argumentieren das du den Cpu Overhead wegläßt den die Grafikkart verursacht wenn du nur die Gpu misst! Man muss immer das Gesamtsystem betrachten!

Wenn Gpu A 100 Watt braucht und die Cpu bei 30 Watt laufen lasst ist es das gleiche als wenn Gpu B 80 Watt braucht dafür aber die Cpu mit 50 Watt belastet!

Gerade Nvidia mit ihrem wahrscheinlich auf die Cpu ausgelagerten Async Compute sollte man das beachten!!!!

(del)
2016-07-20, 00:06:44
@Format_C
Auf was für eine FPS kammst du @60W bei Metro 1080p (1500 Mhz) mit dem High Preset und wie sahen die Frametimes aus ?

Steht doch im Artikel, inkl. Frametimes. Und dass ich mindestens auf 90 Watt setzen würde, wenn man es nur über Boost macht. Sicher hätte man auch den Takt noch manuell runterdrücken können, aber das wird nicht wirklich besser.
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html

Ich gehe jetzt ins Bett, 18 Stunden reichen. Morgen bin ich den ganzen Tag für was anderes gebucht - mal einen Tag ohne Grafikkarten, was für ein Luxus :D

Und was Steckdosenmessungen betrifft:
Das Conrad Energy Logger 4000 Dingens liegt im direkten Test aber sowas von daneben, da geht mein digitaler Zähler im Keller genauer.

Digidi
2016-07-20, 00:16:25
Jap und den Zähler im Keller ist das was am Ende interessier;D
Ich wusste nicht das der Man vom E-Werk mit einem Oszi vorbeikommt!

Gorkon
2016-07-20, 00:17:01
Warum wusste ich vorher das diese Antwort kommt? :biggrin: Ich danke trotzdem.
Ich mach das selbe. Mich juckts auch in den Fingern. Kopf sagt warte, Bauch sagt nao, aber ich will nicht den Fehler machen, was falsches gekauft zu haben.

Crappy GF104 tuts noch zur Not nen Monat für D3 oder EMUs, aber man möchte ja auch mal was "neues" Spielen ;)

-/\-CruNcher-/\-
2016-07-20, 00:18:01
Nimmt man nun die horizontalen Hilfslinien als optische Orientierung, dann sieht man, dass die GeForce GTX 1060 beispielsweise in Full-HD (1080p) für die 130 FPS ganze 61 Watt an Leistung aufnimmt, während die Radeon RX 480 dafür trotz angepasster Spannung bereits ca. 139 Watt benötigt.

Hast du die tesselation mal zusätzlich mit AMDs Treiber enforcement gelocked und dir das verhältniss noch einmal angeschaut oder mal sogar komplett disabled ?

Auf jedenfall ist das 2x so Effizient ohne Performance Vorteil in Relation zum Verbrauch das kann man drehen wie man will bin echt auf Doom Vulkan results gespannt das sind mal richtig gute tests von dir auch wenn ich Metro als Kern test skeptisch gegenüber stehe :)

Auch würde ich gern sachen wissen wie stabil verhält sich VPX während dem Video Recording so gedrosselt aber das sind alles sehr speziele sachen ;)

Und vor allem wie meinst du sieht die Chance aus die Gesammte Karte in dem 60W State zu passivieren bzw wie leise ist sie momentan bei diesem Verbrauch ?

Hoffe du ziehst auch mal Graphen und oder Tabellen in betracht die alles gleichzeitig abbilden, traum wäre ja deine High Resolution Leistungsdaten in Realtime mit dem eigentlichen Output Ergebnis :)

o3
2016-07-20, 00:34:56
@ Format_C

Wo finde ich bei euren Tests, wie die jeweiligen Grafikkarten liefen (MHz-Angaben)
Mir ist gerade ein Post von nem US-Redakteur (Chris) über den Weg gelaufen, welches besagt, das bei 480 Test OC-Nvidiakarten verwendet worden.

Lord Wotan
2016-07-20, 00:39:33
Wie schneidet der Chip 1060 bei echten DX12 ab? Wer ist da schneller?

Fliwatut
2016-07-20, 00:41:06
...aber drei Jahre muss sie halten und den Wechsel auf 1444p mit machen.
Dann wohl eher die RX 480, alleine wegen mehr RAM und DX12/Vulkan.

Gorkon
2016-07-20, 00:41:31
@Woti

Wie wärs mit der 3DC-Hauptseite :confused: Massig Tests. Viel Spaß beim Lesen ;)

Lord Wotan
2016-07-20, 00:47:06
Also ist die Karte nichts für die Zukünft mit DX12/Vulkan.

Verstehe nicht warum bei jeder neuen DX Version NVidia immer verkackt.

Digidi
2016-07-20, 00:49:50
Also ist die Karte nichts für die Zukünft mit DX12/Vulkan.

Verstehe nicht warum bei jeder neuen DX Version NVidia immer verkackt.
Nvidia hat ein Problem mit Async Compute. Sie können es zum Teil auf Pascal, aber nur auf eine sehr holprige Art! (Stichwort: Preemption)

Hinzu kommen noch die fehlende Rohleistung! Alle Dx 12 Spiele (mit Ausnahme der Gimpworkstitel) skalieren super mit den Gflops Werten der Karten! Nvidia könnte aufgrund ihrer Architektur unter dx11 die Gflops schon gut ausnutzen da wird nicht mehr viel kommen bei Nvidia!

Man könnte auch sagen das Nvidia sich auf dx11 Konzentriert hat während AMD schon auf dx12 geschielt hat! Mantle kahm ja nicht umsonst raus!

MadManniMan
2016-07-20, 00:51:16
Also ist die Karte nichts für die Zukünft mit DX12/Vulkan.

Welches Instrument legst Du an, um zu diesem Schluss zu kommen?

-/\-CruNcher-/\-
2016-07-20, 00:55:52
Nvidia hat ein Problem mit Async Compute. Sie können es zum Teil auf Pascal, aber nur auf eine sehr holprige Art! (Stichwort: Preemption)

Hinzu kommen noch die fehlende Rohleistung! Alle Dx 12 Spiele (mit Ausnahme der Gimpworkstitel) skalieren super mit den Gflops Werten der Karten! Nvidia könnte aufgrund ihrer Architektur unter dx11 die Gflops schon gut ausnutzen da wird nicht mehr viel kommen bei Nvidia!

Man könnte auch sagen das Nvidia sich auf dx11 Kö zentriert hat während AMD schon auf dx12 geschielt hat! Mantle kahm ja nicht umsonst raus!

Naja Preemption war ja auch mal (2006) das Ziel in der WDDM Roadmap so schlecht isses ja nicht aber AMD hat eher schon True Preemption erreicht ;)

Digidi
2016-07-20, 00:56:48
Naja Preemption war ja auch mal das Ziel so schlecht isses ja nicht ;)
Das neue Ziel heißt quick response queu :)

Doch es is schlecht! Stats den Kram gleich logisch anzuordnen das alles fein durchleuft versucht es Nvidia mit der Brechstange und hält die gpu an um was wichtiges zwischen rein zu schieben! Sowas erhöhte Latenzen und senkt die Leistung!

Bei dem hohen Takt den Nvidia fährt ist das aber machbar! ;D

Lord Wotan
2016-07-20, 00:58:14
Welches Instrument legst Du an, um zu diesem Schluss zu kommen?
Die Benchmarks in Vergleich zu AMD bei DX12/Vulkan. Und scheinbar können die nur sehr schlecht Async Compute. Werben aber mit DX12.1 in Hardware beim Chip 1060. Für mich riecht das mal wieder nach Kunden Verarschung. Somit sind die 10xx Chips keine vollwertigen bzw echten DX12 Chips. Da hat dann wohl ganz klar AMD die Nase in der Zukuft vorne. Somit nutzen mir Vergleichs Test zu DX 11 gar nichts. Zumal NVidia diesen 1060 als vollwertigen DX 12.1 Chip bewirbt.

scully1234
2016-07-20, 01:00:09
Jay hat die erste EVGA Mini in der Mangel


no_NBTivfgY

-/\-CruNcher-/\-
2016-07-20, 01:04:36
Das neue Ziel heißt quick response queu :)

Doch es is schlecht! Stats den Kram gleich logisch anzuordnen das alles fein durchleuft versucht es Nvidia mit der Brechstange und hält die gpu an um was wichtiges zwischen rein zu schieben! Sowas erhöhte Latenzen und senkt die Leistung!

Bei dem hohen Takt den Nvidia fährt ist das aber machbar! ;D

Ja vor allem für VR ist es eine Katastrophe ganz klar da bin ich bei dir aber dieser Verbrauchsunterschied darauf achten alle mit Argusaugen vor allem die Reviewer die es Hochauflösend können.

Es gibt nur wenige die sagen wow da stecken 110W Leistung in 14nm vor allem nicht wenn sie nicht sichtbar werden ;)

Oder eben 60W zu 140W bei den selben 130 FPS bei 16nm vs 14nm

Noch schlimmer wär es wenn Format_C die FPS locken würde und der Verbrauch bleibt konstant bei den 140W bei so einem simplen Workload :(

StefanV
2016-07-20, 02:31:50
Für alles andere tut es auch die Strommessung per Stromzähler und selbst da kann man abschätzen ob die Karte bald abraucht!
Also je mehr ich drüber nachdenke, desto mehr komme ich zu dem Schluss, dass kein Weg an der Messung per 'Stromzähler' vorbei kommt und alles andere in diesen Tagen schlicht völliger Bullshit ist.

Eben auch Aufgrund der Dinge, die bei der aktuellen Generation erwähnt wurde: Clockgating bei Shadern und ähnlichem Zeugs...

Frank1974
2016-07-20, 02:35:33
Das ist ja alles sehr ernüchternd, ich hatte bis Anfang 2012 immer Highend GPUs(7970 für weit über dem Preis einer GTX1060 oder RX480), dann habe ich es aber schleifen lassen, immer wieder auf die nächsten Karten verschoben, so geht das schon seit über 2 Jahren bei mir, bei dem neuen CB Test finde ich diese neue Funktion gut, wo man nur die Games auswählt die man hat oder wofür man sich interessiert, sonst musste ich immer jedes Game durchgehen, mache ich aber trotzdem noch:smile:, aber für einen guten Überblick ist es erst mal gut.

So sieht das ganze bei mir aus.
https://abload.de/thumb/performancerating_192dbu9z.png (http://abload.de/image.php?img=performancerating_192dbu9z.png)

Natürlich habe ich viel mehr Spiele, wahrscheinlich mehr als ich je spielen kann, besonders da immer neue dazu kommen, und man die älteren so weit verschiebt bis man sie vergisst.

Aber nach dem Ergebniss kann ich alles unter einer GTX1070 vergessen, weil nach 4 1/2 Jahren Durststrecke sollen es wenigstens +100% sein, die ist mir aber zu teuer, sie bringt zwar jetzt die Leistung, aber ich würde gerne wieder lange Ruhe haben, und bei der ganzen DX12/Vulkan Sache, bin ich mir nicht sicher ob die Karte eine gute Investition ist, ich würde ja auch wieder gerne eine AMD Karte kaufen, aber in dem Thread über die neusten AMD Karten geht man wohl erst von Anfang 2017 aus, und so gut die HD7970 war, es ist nur noch eine Qual mit der Karte zu spielen, ich bin keiner der Leute die alles auf low Spielen können und dann noch sagen gute Grafik.

Für mich sieht es daher sehr schlecht im Moment aus, weil der PC ist das wichtigste in meinem Leben, es ist zwar traurig aber war, ich bin körperlich in sehr schlechter Verfassung, so das ich vom Sommer leider nichts habe.

mfg
Frank

medi
2016-07-20, 06:29:56
...ich hab kein Plan :freak:

Siehste. Geht mir genauso!
Der Unterschied ist: Ich behalts für mich und les nur im Stillen mit. ;)

Arcanoxer
2016-07-20, 07:15:11
Wie schneidet der Chip 1060 bei echten DX12 ab? Wer ist da schneller?

Also ist die Karte nichts für die Zukünft mit DX12/Vulkan.

Verstehe nicht warum bei jeder neuen DX Version NVidia immer verkackt.
http://fs5.directupload.net/images/160720/srp32z8q.png (http://www.directupload.net)

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/2/

Korvaun
2016-07-20, 07:19:54
Das ist ja alles sehr ernüchternd, ich hatte bis Anfang 2012 immer Highend GPUs(7970 für weit über dem Preis einer GTX1060 oder RX480), dann habe ich es aber schleifen lassen, immer wieder auf die nächsten Karten verschoben, so geht das schon seit über 2 Jahren bei mir, bei dem neuen CB Test finde ich diese neue Funktion gut, wo man nur die Games auswählt die man hat oder wofür man sich interessiert, sonst musste ich immer jedes Game durchgehen, mache ich aber trotzdem noch:smile:, aber für einen guten Überblick ist es erst mal gut.

So sieht das ganze bei mir aus.
https://abload.de/thumb/performancerating_192dbu9z.png (http://abload.de/image.php?img=performancerating_192dbu9z.png)

Natürlich habe ich viel mehr Spiele, wahrscheinlich mehr als ich je spielen kann, besonders da immer neue dazu kommen, und man die älteren so weit verschiebt bis man sie vergisst.

Aber nach dem Ergebniss kann ich alles unter einer GTX1070 vergessen, weil nach 4 1/2 Jahren Durststrecke sollen es wenigstens +100% sein, die ist mir aber zu teuer, sie bringt zwar jetzt die Leistung, aber ich würde gerne wieder lange Ruhe haben, und bei der ganzen DX12/Vulkan Sache, bin ich mir nicht sicher ob die Karte eine gute Investition ist, ich würde ja auch wieder gerne eine AMD Karte kaufen, aber in dem Thread über die neusten AMD Karten geht man wohl erst von Anfang 2017 aus, und so gut die HD7970 war, es ist nur noch eine Qual mit der Karte zu spielen, ich bin keiner der Leute die alles auf low Spielen können und dann noch sagen gute Grafik.

Für mich sieht es daher sehr schlecht im Moment aus, weil der PC ist das wichtigste in meinem Leben, es ist zwar traurig aber war, ich bin körperlich in sehr schlechter Verfassung, so das ich vom Sommer leider nichts habe.

mfg
Frank

Es gibt für dich eine ganz einfache Lösung. Kauf dir ne Konsole. Die Spiele die du ausgewählt hast gibts auch alle? auf Konsole, solange du nicht auf 60Hz bestehst ist die Bildqualität auch sehr ordentlich. Und der dauernde schlimme Stress mit dem Aufrüsten fällt komplett weg ;)

MadManniMan
2016-07-20, 07:24:56
Also je mehr ich drüber nachdenke (...)

So lange Du nicht auf die ganzen Entgegnungen antwortest und auch nur kleine Fehleinschätzungen zugeben musst, glaube ich Dir das nicht mehr.

(del)
2016-07-20, 08:35:16
Zuerst sollte man mal Vulkan und DX12 nicht in einem Aufwasch abfeiern. Das sind und bleiben bitte schön zwei Paar Schuhe.

Wenn es denn nach nunmehr einem Jahr DX12 immer noch keine echten DX12-Titel gibt, die diesen Namen wirklich verdienen (QB ist doch am Ende auch nur so eine lieblose Kompromissgeburt), dann frage ich mich ernsthaft, WANN denn der große Run nun endlich losgehen soll. Bisher ist fast alles nur Patchwork, im wahrsten Sinne des Wortes. Aber wenn es denn mal was wirklich sinnvolles zum Testen gibt, wäre ich der Letzte, der nicht auch die CPU-Skalierung mit testen würde und beide Leistungsaufnahmekurven (GPU und CPU) in real-time protokollieren und als Gesamtübersicht auswerten würde. Nur lohnt es aktuell den Aufwand nicht, noch einen dritten Oszi anzuschließen. Das, was aktuell als DX12 verkauft wird, ist doch nur wildes Draufgepatche und das zusammenwürfeln von Features ohne wirklichen echten Ehrgeiz. :)

Ich melde mich dann mal für heute ab, bis später. Es gibt auch noch Dinge neben den Grafikkarten, die aber irgendwie trotzdem indirekt damit zusammenhängen. Ich sage nur Netzteile<->Grafikkarten<->Spulenfiepen und die möglichen Unterschiede, je nach Setup. Der Rest bleibt erst mal Verschlusssache :)

mustrum
2016-07-20, 08:37:40
http://fs5.directupload.net/images/160720/srp32z8q.png (http://www.directupload.net)

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/2/
Du ziehst jetzt den Spieletitel aus der Tüte, bei dem die Entwickler selbst gesagt haben, die DX12 Unterstützing nicht besonders ist?

Tomb Raider gehört eigentlich aus jedem Benchmark gestrichen. Ist doch ein Witz etwas zu benchen, dass nur einen DX12 Sticker draufgepappt bekommen hat.

MadPenguin
2016-07-20, 08:43:16
http://fs5.directupload.net/images/160720/srp32z8q.png (http://www.directupload.net)

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/2/

Du bist mir ja ein schöner Zipfl. Den ei zigen DX12 Test verlinken, wo die 1060 besser dasteht...

Raff
2016-07-20, 08:43:35
Wenn ROTTR "echtes DX12" ist, dann sollten wir die API schnell wieder begraben. ;)

Nee, nee. Bei dem Spiel ist nach wie vor einiges kaputt. Da sehe ich eher noch Hitman als "echtes DX12", denn das wird auf modernen GPUs wenigstens nicht langsamer als unter DX11. Oder Ashes.

MfG,
Raff

M4xw0lf
2016-07-20, 08:45:16
Vulkan ist das echte echte DX12. :freak:

mkh79
2016-07-20, 08:54:35
Arcanoxer hat doch Lord Wotans Frage gut beantwortet: es gibt aktuell nur einen einzigen Titel, in dem die nv GTX1060 besser dasteht als ihre Konkurrenz. Passt doch.

Insgesamt finde ich die Karte ganz gut, ungefähr gleichwertig mit der Konkurrenz, was aktuelle Titel anbelangt, keine wirkliche Schwäche momentan (für den Leistungsbereich) was Leistung, Verbrauch, Lautstärke anbelangt.
Was DX12/ Vulkan Titel betrifft, muss man glaube ich noch ein bisschen abwarten, ob sich die Situation noch verbessert oder so bleibt.

ilibilly
2016-07-20, 08:57:09
Hmm mein fazit für neukäufer wäre,980ti bei angeboten von 350-400€ abgreifen und in nem jahr wenn vega oder volta einschlägt wechseln :)
Da kriegt man zwar nur "6gb" aber fürn jahr isses imho ausreichend und preisleistung ist es momentan wohl die beste karte.
Bei amd ist leider nix vorhanden in der leistungsklasse,auch wenn gp102 bald kommt glaub ich kaum das eine 1070 oder 1080 viel günstiger werden mangels konkurrenz.

Disco_STFU
2016-07-20, 09:08:41
Gibts irgendwo Dota 2 Vulkan Benches?

Rancor
2016-07-20, 09:17:02
https://www.youtube.com/watch?v=VS49pIQeiqE

Also hier sieht das alles nicht so sehr tragisch aus. Selbst die 780Ti ( vermutlich DX 11? ) ist in AoS, gleichschnell wie ne RX 480. Nur die 970 kackt ab. Die 1070 sieht auch ganz gut aus, zwar fast immer langsamer als die Fury X, aber immerhin.

So etwas mit einer 1060 wäre noch intressant.

y33H@
2016-07-20, 09:46:27
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

M4xw0lf
2016-07-20, 09:54:16
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html
Gutes Test-Thema, aber die vielen integrierten Benches schwächen die Ergebnislage. Besonders ROTTR, in-game ist DX12 da einfach nur schlecht.

Spasstiger
2016-07-20, 09:59:11
Erst im Vergleich der Custom-Karten lässt sich ein Sieger küren. Bei NV ist die Referenz zu teuer, bei AMD technisch suboptimal.

fondness
2016-07-20, 10:00:28
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Danke für den Test, die RX480 liegt erwartungsgemäß sehr gut. Einzig in Tomb Raider fällt sie zurück, sonst überall mehr oder weniger deutlich die Nase vorn.

Ätznatron
2016-07-20, 10:01:58
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Prima, dass es endlich eine Übersicht über den Status Quo mit D3D12/Vulkan gibt.

Wie erwartet Kopf-an-Kopf mit Vorteilen für die RX 480.

MadPenguin
2016-07-20, 10:02:41
Erst im Vergleich der Custom-Karten lässt sich ein Sieger küren. Bei NV ist die Referenz zu teuer, bei AMD technisch suboptimal.

Gute Zusammenfassung dieses Threads und des gesamten RX480 Threads :D +1

@y33H@
Danke

Dural
2016-07-20, 10:14:27
Die 1060 scheint unter OC anders zu reagieren als noch die 1070/1080. Gibt es da irgend wo mehr Infos?

Undertaker
2016-07-20, 10:18:01
Erst im Vergleich der Custom-Karten lässt sich ein Sieger küren. Bei NV ist die Referenz zu teuer, bei AMD technisch suboptimal.

Gibt es eigentlich schon irgendwo Tests der ganzen preiswerten 279€ Customs? Wichtig wäre imo vor allem der Zero Fan Modus und eine niedrige Anlaufdrehzahl der Lüfter. Unter Last sollte ja selbst ein schwacher Kühler keine Probleme haben, die Karten bei standardmäßigem oder leicht abgesenktem PT leise bis lautlos zu kühlen.

100W PT sollten wohl im Schnitt noch etwa RX 480 Niveau entsprechen, das würde mir schon reichen.

Gorkon
2016-07-20, 10:22:57
Siehste. Geht mir genauso!
Der Unterschied ist: Ich behalts für mich und les nur im Stillen mit. ;)
Mit fast 5x soviel Aktivität kannst mir nicht mit still kommen...

Und btw. ich liebe Quotes die einfach mal aus dem Kontext gerissen sind...nicht :uclap:

Ätznatron
2016-07-20, 10:23:48
Dazu noch integrierter Bench bei AotS wo sich Nvidia wahrscheinlich einen von der Palme optimiert hat um ja nicht blöd dazustehen...

So sieht's aus.

Na ja, immerhin taugt die GTX 1060 etwas besser für DX11 und älter...das muss man doch auch mal loben.

y33H@
2016-07-20, 10:30:23
Gutes Test-Thema, aber die vielen integrierten Benches schwächen die Ergebnislage. Besonders ROTTR, in-game ist DX12 da einfach nur schlecht.Deswegen steht extra dabei, dass in den Glacial Caverns und im Geothermal Valley (sprich: ingame) das gleiche miese Resultat raus kommt. War leider keine Zeit komplett mit PresentMon alles anzufertigen, die Stichproben zeigten aber, dass ingame vs Bench vom prozentualen Abstand her wenig ausmacht ... wobei man sicher immer Szenen finden wird ;-)

mkh79
2016-07-20, 10:32:04
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html
Sehr cool, interessanter Test (y)

Loeschzwerg
2016-07-20, 10:34:29
Prima, dass es endlich eine Übersicht über den Status Quo mit D3D12/Vulkan gibt.

Wie erwartet Kopf-an-Kopf mit Vorteilen für die RX 480.

Jup. ~10€ Mehrkosten bei der GTX 1060, aber auch weniger Leistungsaufnahme.

Hier entscheiden ganz klar die Vorlieben, einen eindeutigen Sieger sehe ich nicht.

---

Bin gespannt ob sich mit den Customs an der Situation großartig etwas ändert. Bessere Taktbarkeit sehe ich bei der GTX 1060, da kann evtl. unter DX12/Vulkan vollständig aufgeschlossen werden.

gnomi
2016-07-20, 10:36:22
DX 12 und Vulkan spielen aktuell immer noch keine große Rolle und sollten nur als Bonus mitgetestet und bedacht werden.
Das meiste ist und bleibt erst mal alles DX11.
480 und 1060 sind nichts besonderes und in etwa so schnell wie die letzte Generation, nur eben mit etwas mehr VRam und energiesparender.
WQHD Auflösung wird mit solchen Karten nun eben erschwinglicher.
Alles in allem sind wir gerade etwas im Umbruch.
4k & DX 12 sind noch nicht so interessant wie erhofft. Vielleicht bei nvidia in knapp 2 Jahren oder mit der nächsten High End Entwicklung von AMD.
Pascal ist ein optimierter Maxwell, der nochmal die Finanzen gut aufbessert und AMD hat nach oben ohnehin nicht die Performance und muss jetzt hoffen, dass die 1060 nicht auch die Verkäufe der 480 torpediert.

fondness
2016-07-20, 10:40:46
Bessere Taktbarkeit sehe ich bei der GTX 1060

Wie kommst du darauf? Die customs takten kaum höher als Referenz. Die MSI bsw. mit 1936Mhz statt ~1850Mhz: https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_taktraten_der_founders_edition_und_msi_gaming

Das sind gerade einmal 4,6% mehr Takt.

Loeschzwerg
2016-07-20, 10:48:35
Meine Vermutung: Man kauft sich z.B. eine kleine "EVGA GeForce GTX 1060 Gaming", zieht den Powerregler nach Rechts und hat dann fast den Takt einer MSI Gaming X 6G. Leistungsaufnahme und Abwärme halten sich dann immer noch in Grenzen.

So etwas sehe ich bei der RX 480 nicht mal ansatzweise, auch mit den Customs nicht.

Gorkon
2016-07-20, 10:53:45
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html
Vielen Dank für den zusätzlichen Test Marc :up:

Disco_STFU
2016-07-20, 10:56:14
Geht undervolten bei Nvidia eigentlich grundsätzlich nicht oder muss man da mit nem Bios Editior rumwursteln?

fondness
2016-07-20, 10:56:48
Meine Vermutung: Man kauft sich z.B. eine kleine "EVGA GeForce GTX 1060 Gaming", zieht den Powerregler nach Rechts und hat dann fast den Takt einer MSI Gaming X 6G. Leistungsaufnahme und Abwärme halten sich dann immer noch in Grenzen.

So etwas sehe ich bei der RX 480 nicht mal ansatzweise, auch mit den Customs nicht.

Wie schon gesagt, der Takt einer MSI Gaming X 6G sind 4,6% mehr als Referenz, das schafft jede RX480 spielend wenn du den PT-Regler etwas nach rechts schiebst. Oder alternativ wenn du eine Referenz RX480 nur etwas undervoltest, hast du bereits mehr Leistungsgewinn^^

dargo
2016-07-20, 10:57:21
Tja und was das Gesamtsystem betrifft, je nach CPU und Grafikkarte differiert allein die CPU-Leistungsaufnahme um mehr als 10 Watt, wenn man Pech hat. Dazu noch Lüfter und Gedöns, die auch anders laufen - je nach CPU-Last. Steckdose machte nur Sinn, wenn man dann für jede Grafikkarte mit jeder CPU einen Vergleichstest machen würde. Mit und ohne CPU-Limit usw.

Naja... man muss es mit den Lüftern jetzt nicht auf die Spitze treiben. Ansonsten bitte noch einzelne Verbrauchstests vom Gesamtsystem mit Grafikarten @1Lüfter, 2 Lüfter und 3 Lüfter. X-D Spaß bei Seite... im Endeffekt bezahlt man aber wirklich für das gesamte System. Es kommen ja immer wieder irgendwelche Schlaumeier mit Karte X kostet 5€ beim Strom mehr als Karte Y. Dabei finde ich diese Vergleiche immer besonders toll ohne zu wissen wie oft Gamer X im Schnitt am daddeln ist. Ich warte nur noch darauf bis sich hier einzelne Personen den Kopf einschlagen weil Karte X 5-10W mehr verbraucht als Karte Y. :ulol: Diese Personen sollten mal lieber den Haushalt absuchen was da wirklich an Strom frisst. Ich sag nur uralte Kühlschränke, Waschmaschienen, Geschirrspüler. Und wer richtig sparen will empfehle ich den Stromanbieter jedes Jahr zu wechseln, es sind nur wenige Klicks.

gnomi
2016-07-20, 10:58:29
Die Performance ist trotzdem auf jeden Fall mal in der selben Leistungsklasse.
Problematisch ist es wegen der unterschiedlichen Stärken.
nvidia ist aktuell im Vorteil wegen DX 11, höherer Effizienz und mehr PC fokussiertem Marketing sowie Gameworks.
Bei AMD könnten DX 12 und Vulkan den erhofften Vorteil bringen. Auch 8 GB Ram sind top.
Allerdings geht das nur über entsprechende Spiele. Also nicht nachgeschoben, wenn man ein Spiel schon durch hat oder über erst zig Patches fehlerfrei.
Wenn die Karte 2 Jahre später 5% schneller ist und 2 Dutzend DX 12 Titel darauf leicht besser laufen, ist das nicht so der riesen Erfolg.
Man muss da mal ehrlich sein. nvidia vermarktet sein Karten klar besser und die Games und Features laufen imho fehlerfreier bei denen.
Das geht ja mittlerweile soweit, dass die meisten keine Karten von AMD kaufen, obwohl ähnlich gut und nvidia unverschämt teuer ist...

dargo
2016-07-20, 11:07:08
Da ich mich überhaupt nicht entscheiden kann, was würdet ihr an meiner Stelle kaufen?

i3 3,3Ghz, 1680x1050 Auflösung

- Custom 1060 (momentan verfügbar ist die Palit)
- Custom 480 (wenn verfügbar)

So leise wie möglich soll sie sein. Overkill ist die Karte in der Auflösung sowieso, aber drei Jahre muss sie halten und den Wechsel auf 1444p mit machen.
Schwierig.

Wenn VRR absolut keine Rolle spielt spricht der geringere Treiberoverhead bei DX11 für NV. Die high-level Spiele werden zwar langsam immer weniger, aber es wird die hier da noch vereinzelt geben. Der Umstieg auf low level ist ein schleichender Prozess. Wobei ich davon ausgehe, dass es schneller als üblich gehen wird. Die Vorraussetzungen sind einfach blendend. Windows 10 ist bei Steam extrem beliebt und mit Vulkan gibts selbst keine Hürden mit neuem Windows. Auf 3 Jahre gerechnet sprechen wieder die 8GB Vram der RX480 für diese. Und natürlich das Potential in AC. Wirf ne Münze. :freak:

PS: wenn du 3 Jahre richtig Spaß mit den Karten haben willst würde ich dir empfehlen auf 1080p zu gehen.

Loeschzwerg
2016-07-20, 11:11:05
Wie schon gesagt, der Takt einer MSI Gaming X 6G sind 4,6% mehr als Referenz, das schafft jede RX480 spielend wenn du den PT-Regler etwas nach rechts schiebst. Oder alternativ wenn du eine Referenz RX480 nur etwas undervoltest, hast du bereits mehr Leistungsgewinn^^

Mit "Taktbarkeit" meine ich auch nicht nur den Takt, sondern auch Leistungsaufnahme/Abwärme und das Handling.

http://www.legitreviews.com/nvidia-evga-geforce-gtx-1060-video-card-review_184301

Die EVGA SC boostet schon @ Stock auf ~2GHz und die FE schafft das ebenfalls. Das ist OC für absolute DAUs.

Wird klar auf was ich hinaus will? So einfach bekommst du bei der RX 480 die Mehrleistung nicht.

Schaffe89
2016-07-20, 11:12:48
Was? Bestimmte User müllen seit Monaten jeden Thread zu von wegen NV taugt unter DX12 nichts, wenn ich die Benchmarks da oben anschaue ist das einfach nur noch lächerlich und dummes gelabber

Also ich rechne jetzt mal den Schnitt der Directx12 Spiele aus die Marc da getestet hat:

Ich bin auf 3% Vorteil der rx480 insgesamt gekommen, in Full HD, alle Benchmarks berücksichtigt.
Wenn man bedenkt dass Nvidia sich bei Vulkan @ Doom noch verbessern wird, sieht das für mich genau nach dem prophezeiten Geichstand aus, genauso wie es eigentlich viele erwartet haben, das ist sicherlich der Grund, warum Nvidia ihre Karte eigentlich zum gleichen preis anbietet.

Die Gainward


Die Gainward GTX 1060 ist grade vom Postmann bei mir eingetrudelt, fühlt sich sogar relativ hochwertig an, deutlich hochwertiger als der rx480 Referenzkühler.

Undertaker
2016-07-20, 11:13:24
Wie schon gesagt, der Takt einer MSI Gaming X 6G sind 4,6% mehr als Referenz, das schafft jede RX480 spielend wenn du den PT-Regler etwas nach rechts schiebst. Oder alternativ wenn du eine Referenz RX480 nur etwas undervoltest, hast du bereits mehr Leistungsgewinn^^

Die MSI lässt sich natürlich ebenfalls weiter hochtakten, bei CB bis auf 2,1 GHz Spieletakt. Das sind dann schon gut 14% mehr als die Basis und entspricht einer RX 480 mit ~1350 MHz (für gleichen prozentualen OC-Gewinn) bzw. ~1430 MHz (für gleiche Performance ausgehend von 6% Leistungsunterschied im CB-Rating).

fondness
2016-07-20, 11:15:42
Mit "Taktbarkeit" meine ich auch nicht nur den Takt, sondern auch Leistungsaufnahme/Abwärme und das Handling.

http://www.legitreviews.com/nvidia-evga-geforce-gtx-1060-video-card-review_184301

Die EVGA SC boostet schon @ Stock auf ~2GHz und die FE schafft das ebenfalls. Das ist OC für absolute DAUs.

Wird klar auf was ich hinaus will? So einfach bekommst du bei der RX 480 die Mehrleistung nicht.


Ich sehe den Unterschied nicht, sorry. Du musst auch bei AMD den PT-Regler einfach nur nach rechts schieben, du kannst sogar noch zusätzlich einfach undervolten. Aber egal.

Wie dann die Leistungsaufnahme/Abwärme skaliert müssen Tests klären.

Die MSI lässt sich natürlich ebenfalls weiter hochtakten, bei CB bis auf 2,1 GHz Spieletakt. Das sind dann schon gut 14% mehr als die Basis und entspricht einer RX 480 mit ~1350 MHz (für gleichen prozentualen OC-Gewinn) bzw. ~1430 MHz (für gleiche Performance ausgehend von 6% Leistungsunterschied im CB-Rating).

Es wird RX 480 customs geben, die bereits default mehr als 1350Mhz haben werden. Mir ging es jetzt nicht um den max. Takt an der Kotzgrenze, sondern den Takt der customs default.

dargo
2016-07-20, 11:20:53
Zuerst sollte man mal Vulkan und DX12 nicht in einem Aufwasch abfeiern. Das sind und bleiben bitte schön zwei Paar Schuhe.

Wenn es denn nach nunmehr einem Jahr DX12 immer noch keine echten DX12-Titel gibt, die diesen Namen wirklich verdienen (QB ist doch am Ende auch nur so eine lieblose Kompromissgeburt), dann frage ich mich ernsthaft, WANN denn der große Run nun endlich losgehen soll. Bisher ist fast alles nur Patchwork, im wahrsten Sinne des Wortes. Aber wenn es denn mal was wirklich sinnvolles zum Testen gibt, wäre ich der Letzte, der nicht auch die CPU-Skalierung mit testen würde und beide Leistungsaufnahmekurven (GPU und CPU) in real-time protokollieren und als Gesamtübersicht auswerten würde. Nur lohnt es aktuell den Aufwand nicht, noch einen dritten Oszi anzuschließen. Das, was aktuell als DX12 verkauft wird, ist doch nur wildes Draufgepatche und das zusammenwürfeln von Features ohne wirklichen echten Ehrgeiz. :)

Naja... selbst bei diesem "Patchwork" ist es schon verdammt erstaunlich was man da so rausholt. Oder hast du schon mal +150% auf einer Nvidia unter low level vor Doom gesehen? Ich noch nicht. Da kannst du mal wieder sehen wie Grütze die Treiber sowohl von NV als auch AMD unter OpenGL sind. Bzw. wie hinderlich high level ansich ist. Was meinst du wie das erst in vollkommen nativen low level Spielen aussehen wird? Da wird man dermaßen mit Drawcalls etc. um sich schmeißen, dass diese Spiele unter DX11/OpenGL gar nicht mehr lauffähig wären.

AtTheDriveIn
2016-07-20, 11:22:40
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Danke. Das ist etwas das den Spieler jetzt wirklich interessieren sollte, abseits des akademischen Effizienzgeschreibsels, das wirklich überhand genommen hat in den letzten Jahren.

Zum Verbrauchs/Effizienzthema.
Es scheint Bildqualitätsmessungen komplett abgelöst zu haben. Einige Redakteure wären wohl doch lieber Vollblut-Messtechniker geworden, anders kann ich mir diese Ekstase nicht mehr erklären. Wir reden inzwischen von lediglich 40 Watt mehr bei Vollast. Das sind bei 20h/Woche nur Mehrkosten von einer Pizza im Jahr. :freak: Dennoch ist es in manchen Reviews das dominierende Thema. Dem Endkunden wird doch diesen starken Fokus suggeriert, es wäre in "echtes" Problem. Lest euch mal die Kommentare auf einschlägigen Seiten durch, die Kiddies springen drauf an, dabei zahlen sie den Strom nicht mal.

[x] Weniger Fokus auf Effizienz, wieder mehr auf Bildqualität

Undertaker
2016-07-20, 11:23:14
Es wird RX 480 customs geben, die bereits default mehr als 1350Mhz haben werden. Mir ging es jetzt nicht um den max. Takt an der Kotzgrenze, sondern den Takt der customs default.

Es wird auch GTX 1060 Customs oberhalb der MSI bei CB geben, z.B. die ASUS ROG Strix. Warum gehst du bei der RX 480 von noch nicht einmal gelisteten Modellen aus und nimmst bei der GTX 1060 nicht einmal die schnellste aktuell bei Geizhals zu findene Version? :confused:

Schaffe89
2016-07-20, 11:23:22
Es wird RX 480 customs geben, die bereits default mehr als 1350Mhz haben werden. Mir ging es jetzt nicht um den max. Takt an der Kotzgrenze, sondern den Takt der customs default.

Ich würde nicht davon ausgehen, dass es so sein wird.
Die erste XFX die Raff in dne Händen hielt, schaffte gerade mal 1260 mhz als stabilen Takt in den Games, ich würde bei den besten Varianten von ~1300mhz ausgehen.
Mehr ergibt doch auch überhaupt keinen Sinn, oder will man die Karte dann mit 200 Watt betreiben um auf die GTX 1060 aufzuschließen? Das geht den in die Regionen von Hawai.

Die Diskussion um die letzten paar Megahertz ist sowieso ziemlich uninteressant, wenn dann übertaktet man selbst, ich bin gespannt wieviel die Gainward letzten endes stabil mit halbwegs moderatem Stromverbrauchsanstieg schaffen wird.

Da kannst du mal wieder sehen wie Grütze die Treiber sowohl von NV als auch AMD unter OpenGL sind.

Grütze sind definitiv eher die AMD Treiber unter Diretx11 und Open GL sowie unter Linux, Nvidia hat da eine sehr gute Arbeit geleistet und irgendwie habe ich das Gefühl das manche Nvidia da doch ein bisschen unterschätzen was die Diretx12 Leistung der GTX 1060 angeht.

Wir reden inzwischen von lediglich 40 Watt mehr bei Vollast. Das sind bei 20h/Woche nur Mehrkosten von einer Pizza im Jahr.

Wenn der Multimonitorverbrauch bei untersch. Displays und der Videoverbrauch nicht so derbe sucken würde, könnte ich dir zustimmen.
Und wann kommt eigentlich der Idle Treiber der die Idle Leistungsaufnahme von 17 watt auf 11 Watt reduzieren soll?

Undertaker
2016-07-20, 11:29:03
Antworte Dir mal selbst, Du scheint Dich gerne selbst zu lesen:

Fondness, nicht ich, sprach von händischen Modifikationen abseits des Auslieferungszustandes:

das schafft jede RX480 spielend wenn du den PT-Regler etwas nach rechts schiebst. Oder alternativ wenn du eine Referenz RX480 nur etwas undervoltest, hast du bereits mehr Leistungsgewinn

Also entweder wir vergleichen OC vs. OC oder Auslieferungszustand vs. Auslieferungszustand. Aber nicht kreuzweise. :)

fondness
2016-07-20, 11:30:52
Es wird auch GTX 1060 Customs oberhalb der MSI bei CB geben, z.B. die ASUS ROG Strix. Warum gehst du bei der RX 480 von noch nicht einmal gelisteten Modellen aus und nimmst bei der GTX 1060 nicht einmal die schnellste aktuell bei Geizhals zu findene Version? :confused:

Wie hoch taktet denn die ROG STIX default?

Fondness, nicht ich, sprach von händischen Modifikationen abseits des Auslieferungszustandes:



Also entweder wir vergleichen OC vs. OC oder Auslieferungszustand vs. Auslieferungszustand. Aber nicht kreuzweise. :)

Das war eine Antwort auf Löschzwerg, der dasselbe mit dem PT-regler bei Nvidia ansprach. Keine Ahnung warum du das jetzt aus dem Kontext reißen musst.

-/\-CruNcher-/\-
2016-07-20, 11:30:54
D3D12/Vulkan vs D3D11/OGL Benches von Ashes of the Singularity, Doom, Forza Motorsport 6 Apex, Gears Of War Ultimate Edition, Hitman, Quantum Break, Rise of the Tomb Raider und Total War Warhammer:

http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

368.64

ist das der Review treiber ?

PCGH hat ja interesanterweise mal den normalen Release treiber gemoded und genutzt :)

Bei Quantumbrake erdrückt das Workload sehr eindeutig die GTX 1060 momentan

Vergleich mit der GTX 970 vermisse ich hier das muss Katastrophal aussehen auch bei euch nach den bisherigen Daten


Habt ihr mal getestet wie weit ihr übertakten müsst um auf stabile 60/30 FPS zu kommen ?


Auch vermisse ich noch Interne Nvidia Daten zur VXGI Performance ;)

dargo
2016-07-20, 11:33:59
DX 12 und Vulkan spielen aktuell immer noch keine große Rolle und sollten nur als Bonus mitgetestet und bedacht werden.

Sorry, aber das ist absoluter Humbug. Man sollte immer neue Games testen und keine alten Schinken wie zb. Crysis 3 und Konsorten. Da gibt es in manchen Parcours noch viel schlimmere "Unfälle".

Die Performance ist trotzdem auf jeden Fall mal in der selben Leistungsklasse.
Problematisch ist es wegen der unterschiedlichen Stärken.
nvidia ist aktuell im Vorteil wegen DX 11, höherer Effizienz und mehr PC fokussiertem Marketing sowie Gameworks.
Bei AMD könnten DX 12 und Vulkan den erhofften Vorteil bringen. Auch 8 GB Ram sind top.
Allerdings geht das nur über entsprechende Spiele. Also nicht nachgeschoben, wenn man ein Spiel schon durch hat oder über erst zig Patches fehlerfrei.
Wenn die Karte 2 Jahre später 5% schneller ist und 2 Dutzend DX 12 Titel darauf leicht besser laufen, ist das nicht so der riesen Erfolg.
Man muss da mal ehrlich sein. nvidia vermarktet sein Karten klar besser und die Games und Features laufen imho fehlerfreier bei denen.
Das geht ja mittlerweile soweit, dass die meisten keine Karten von AMD kaufen, obwohl ähnlich gut und nvidia unverschämt teuer ist...
Komisch nur, dass AMD in letzter Zeit bei dGPUs die Marktanteile wieder anheben konnte. Und da war Polaris noch nicht mal da. ;)

denjudge
2016-07-20, 11:35:20
Danke. Das ist etwas das den Spieler jetzt wirklich interessieren sollte, abseits des akademischen Effizienzgeschreibsels, das wirklich überhand genommen hat in den letzten Jahren.

Zum Verbrauchs/Effizienzthema.
Es scheint Bildqualitätsmessungen komplett abgelöst zu haben. Einige Redakteure wären wohl doch lieber Vollblut-Messtechniker geworden, anders kann ich mir diese Ekstase nicht mehr erklären. Wir reden inzwischen von lediglich 40 Watt mehr bei Vollast. Das sind bei 20h/Woche nur Mehrkosten von einer Pizza im Jahr. :freak: Dennoch ist es in manchen Reviews das dominierende Thema. Dem Endkunden wird doch diesen starken Fokus suggeriert, es wäre in "echtes" Problem. Lest euch mal die Kommentare auf einschlägigen Seiten durch, die Kiddies springen drauf an, dabei zahlen sie den Strom nicht mal.

[x] Weniger Fokus auf Effizienz, wieder mehr auf Bildqualität

Es gibt ihn noch, den lesenswerten Beitrag. Alles 10 Seiten taucht einer auf. @ATDI das sehe ich genauso!

Loeschzwerg
2016-07-20, 11:38:22
Ich sehe den Unterschied nicht, sorry. Du musst auch bei AMD den PT-Regler einfach nur nach rechts schieben, du kannst sogar noch zusätzlich einfach undervolten. Aber egal.

Wie dann die Leistungsaufnahme/Abwärme skaliert müssen Tests klären.


Dann habe ich im Falle der Ref. RX 480 gerade mal 1266. Gib da noch ~90-100MHz dazu und P10 ist schon mehr oder weniger am Limit.

Das OC bei der GTX 1060 ist wesentlich einfacher, weil man eigentlich nicht an den Spannung herumschrauben muss (außer man will die "Kotzgrenze"). GP106 scheint hier einfachst die 2GHz zu knacken.

fondness
2016-07-20, 11:39:46
Dann habe ich im Falle der Ref. RX 480 gerade mal 1266. Gib da noch ~90-100MHz dazu und P10 ist schon mehr oder weniger am Limit.

Das OC bei der GTX 1060 ist wesentlich einfacher, weil man eigentlich nicht an den Spannung herumschrauben muss (außer man will die "Kotzgrenze"). GP106 scheint hier einfachst die 2GHz zu knacken.

Wenn du 2Ghz erreichst sind das trotzdem keine 10% mehr. Aber okay ist auch egal, ich hoffe du weißt auf was ich hinaus will. 100Mhz bei der GTX1060 sind ungleich 100Mhz bei einer RX 480.

Undertaker
2016-07-20, 11:40:36
Wie hoch taktet denn die ROG STIX default?

Die Hersteller-Taktraten ROG Strix findest du genau wie die Werte der von dir angesprochenen RX 480 Customs im Netz. Welche Taktraten dann real anliegen und gehalten werden, müssen wir beiderseits abwarten, oder kennst du bereits Zahlen?


Das war eine Antwort auf Löschzwerg, der dasselbe mit dem PT-regler bei Nvidia ansprach. Keine Ahnung warum du das jetzt aus dem Kontext reißen musst.

Es war der Beitrag, den ich zitiert und kommentiert habe und auf den du wiederum geantwortet hast. Aber um jetzt die Missverständnisse auszuräumen: Was genau möchtest du vergleichen?

Default vs. Default
OC-Modell vs. OC-Modell
händisches OC vs. händisches OC

Im Moment ist das alles nur ein wilder Mischmasch, den wir für eine sinnvolle Diskussion bereinigen sollten. :)

scully1234
2016-07-20, 11:43:40
Dann habe ich im Falle der Ref. RX 480 gerade mal 1266. Gib da noch ~90-100MHz dazu und P10 ist schon mehr oder weniger am Limit.

Das OC bei der GTX 1060 ist wesentlich einfacher, weil man eigentlich nicht an den Spannung herumschrauben muss (außer man will die "Kotzgrenze"). GP106 scheint hier einfachst die 2GHz zu knacken.

http://media.bestofmicro.com/E/Q/595394/original/Power-Consumption-vs.-Clock-Rate.png

fondness
2016-07-20, 11:43:49
Die Hersteller-Taktraten ROG Strix findest du genau wie die Werte der von dir angesprochenen RX 480 Customs im Netz. Welche Taktraten dann real anliegen und gehalten werden, müssen wir beiderseits abwarten, oder kennst du bereits Zahlen?

Ich kenne Zahlen von der MSI, deshalb habe ich die auch genommen. :)
Du hast geschrieben die ROG STRIX liegt oberhalb der MSI, deshalb dachte ich du hast Zahlen^^. Bei der ROG STRIX finde ich nur die Angabe 1873 Mhz Boost.


Es war der Beitrag, den ich zitiert und kommentiert habe und auf den du wiederum geantwortet hast. Aber um jetzt die Missverständnisse auszuräumen: Was genau möchtest du vergleichen?

Default vs. Default
OC-Modell vs. OC-Modell
händisches OC vs. händisches OC

Im Moment ist das alles nur ein wilder Mischmasch, den wir für eine sinnvolle Diskussion bereinigen sollten. :)

Wie schon hinten geschrieben, default custom.

dargo
2016-07-20, 11:45:15
Grütze sind definitiv eher die AMD Treiber unter Diretx11 und Open GL sowie unter Linux, Nvidia hat da eine sehr gute Arbeit geleistet und irgendwie habe ich das Gefühl das manche Nvidia da doch ein bisschen unterschätzen was die Diretx12 Leistung der GTX 1060 angeht.

Junge... informiere dich erstmal vernünftig bevor du hier wieder Humbug verbreitest.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272

Ganz tolle Arbeit von NV in OpenGL. :uclap:

Loeschzwerg
2016-07-20, 11:45:42
Wenn es Dir um reine MHz-Zahlen (Pentium 4 ahoi) geht, dann nimm die 1060, wobei bei 2 GHz+ ist die dann auch nicht mehr effizient ;)

Und zukunftssicher wg 3/6 GB schon gar nicht, aber irgendwie blenden das alle aus -.-

Ich hab doch schon eine RX 480 und Nano :)

Klar nimmt die Effizienz ab, aber der GP106 lässt sich im Vergleich zum P10 trotzdem besser handhaben. Man muss sich weit weniger (bis keine) Gedanken um Abwärme/Temperatur o.ä. machen.

6Gb reichen für die Leistungsklasse völlig aus.

Edit:
Ja @ fondness, dir geht es um Prozent, mir geht es um das OC Handling ^^

Megamember
2016-07-20, 11:47:06
Ich kenne Zahlen von der MSI, deshalb habe ich die auch genommen. :)
Du hast geschrieben die ROG STRIX liegt oberhalb der MSI, deshalb dachte ich du hast Zahlen^^. Bei der ROG STRIX finde ich nur die Angabe 1873 Mhz Boost.




Das sind aber immer die garantierten Werte. Real liegen sie höher.

Ätznatron
2016-07-20, 11:48:54
6Gb reichen für die Leistungsklasse völlig aus.

Woher nimmst du die Gewissheit?

Auch in der Leistungsklasse können 2GB mehr Speicher den Unterschied zwischen spielbar und unspielbar ausmachen.

Undertaker
2016-07-20, 11:50:03
Ich kenne Zahlen von der MSI, deshalb habe ich die auch genommen. :)
Du hast geschrieben die ROG STRIX liegt oberhalb der MSI, deshalb dachte ich du hast Zahlen^^. Bei der ROG STRIX finde ich nur die Angabe 1873 Mhz Boost.

Die Strix hat den mächtigeren Kühler, höhere Hersteller-Taktangaben und sehr wahrscheinlich auch real die höheren Taktraten – die MSI wird also nicht die schnellste Custom auf dem Markt sein, auch wenn dazu noch praktische Tests fehlen.

Gleiches gilt auch für die RX 480 Customs: Wir kennen die (hohen) Herstellerangaben, wissen aber noch nicht, wo die einzelnen Karten letztlich landen werden.

-/\-CruNcher-/\-
2016-07-20, 11:50:21
Danke. Das ist etwas das den Spieler jetzt wirklich interessieren sollte, abseits des akademischen Effizienzgeschreibsels, das wirklich überhand genommen hat in den letzten Jahren.

Zum Verbrauchs/Effizienzthema.
Es scheint Bildqualitätsmessungen komplett abgelöst zu haben. Einige Redakteure wären wohl doch lieber Vollblut-Messtechniker geworden, anders kann ich mir diese Ekstase nicht mehr erklären. Wir reden inzwischen von lediglich 40 Watt mehr bei Vollast. Das sind bei 20h/Woche nur Mehrkosten von einer Pizza im Jahr. :freak: Dennoch ist es in manchen Reviews das dominierende Thema. Dem Endkunden wird doch diesen starken Fokus suggeriert, es wäre in "echtes" Problem. Lest euch mal die Kommentare auf einschlägigen Seiten durch, die Kiddies springen drauf an, dabei zahlen sie den Strom nicht mal.

[x] Weniger Fokus auf Effizienz, wieder mehr auf Bildqualität

Ja seh ich auch so es ist nicht mehr so Katastrophal und die Balance wird mit Vega sicher etwas besser :)

Und für Mobile wo es wirklich interessant wird haben wir noch überhaupt keine Balance Daten.

http://media.bestofmicro.com/E/Q/595394/original/Power-Consumption-vs.-Clock-Rate.png

Ich hätte hier gerne noch DOOM, Hitman, Quantum Brake, ROTTR, AOTs gesehen nicht nur auf Metro fixiert das ganze.

Disco_STFU
2016-07-20, 11:52:26
Ob es ASUS diesmal wieder schafft die Direct-Touch-Heatpipes zu verkacken? :freak: Der Küher hat ne Menge Potential aber mir schwant wieder übles...:P

Thunder99
2016-07-20, 11:54:47
je kleiner der Chip desto höher ist die Wahrscheinlichkeit :freak:

Loeschzwerg
2016-07-20, 11:55:49
Woher nimmst du die Gewissheit?

Auch in der Leistungsklasse können 2GB mehr Speicher den Unterschied zwischen spielbar und unspielbar ausmachen.

Das sind selten Ausnahmefälle durch Mods oder wo dann statt Ultra nur High geht. Im Regelfall reicht der Speicher vollkommen aus.

Woher soll der dramatische Speicheranstieg in naher Zukunft auch kommen? Und wenn es dann soweit ist, dann reicht die Rohleistung doch eh schon nicht mehr.

Pirx
2016-07-20, 12:11:01
...
Woher soll der dramatische Speicheranstieg in naher Zukunft auch kommen? Und wenn es dann soweit ist, dann reicht die Rohleistung doch eh schon nicht mehr.
Kann nicht dein Ernst sein nach den letzen Jahren.

dargo
2016-07-20, 12:13:24
Woher soll der dramatische Speicheranstieg in naher Zukunft auch kommen? Und wenn es dann soweit ist, dann reicht die Rohleistung doch eh schon nicht mehr.
Ende 2017 kommt Scorpio. Bisherige Leaks sehen nach 12GB Speicher aus. Reicht das nicht? Den Rest kannst du dir zusammen reimen. :)

Ätznatron
2016-07-20, 12:16:31
Das sind selten Ausnahmefälle durch Mods oder wo dann statt Ultra nur High geht. Im Regelfall reicht der Speicher vollkommen aus.

Woher soll der dramatische Speicheranstieg in naher Zukunft auch kommen? Und wenn es dann soweit ist, dann reicht die Rohleistung doch eh schon nicht mehr.

Hm, also ich suche mir die Speicherbestückung einer Grafikkarten nicht nach dem Regelfall aus, sondern exakt wegen der Ausnahmefälle.

Und wenn ich die Wahl habe zwischen zwei preislich (und da wäre ich sogar bereit, gut draufzulegen) und leistungsmäßig nahezu identischen Modellen, greife ich grundsätzlich zu dem mit mehr Speicher.

Texturen kosten übrigens keine Leistung, aber möglicherweise viel Speicher.

Man weiss ja spätestens seit der GTX 680 2GB vs 4GB Geschichte, wie das Rennen ausgehen wird.

Loeschzwerg
2016-07-20, 12:20:59
Dann gibt es ab ~Q3/Q4 2018 entsprechende Spiele? Bis dahin ist die GTX 1060 und RX 480 absolutes Alteisen, zumindest für mich. Das sind dann 2 - 2,5 Jahre, reicht doch ^^

Ätznatron
2016-07-20, 12:29:28
Dann gibt es ab ~Q3/Q4 2018 entsprechende Spiele? Bis dahin ist die GTX 1060 und RX 480 absolutes Alteisen, zumindest für mich. Das sind dann 2 - 2,5 Jahre, reicht doch ^^

Die Spiele gibt's jetzt schon, empfehlenswert dazu der VRAM-Thread auf CB.

Du wirst vielleicht lachen, aber ich werde jetzt von einer 6GB-Karte auf eine mit 8GB umsteigen: Mein X-Plane dürstet nach mehr Speicher, wobei von der Leistung her meine CPU mit der jetzigen GPU recht gut harmoniert. Eine schnellere GPU brauch ich eigentlich nicht, ich brauche nur mehr Grafikspeicher.

Ich bin mir nur noch nicht sicher, welche Grafikkarte es wird:

die vielleicht (http://geizhals.de/inno3d-geforce-gtx-1070-twin-x2-n1070-1sdn-p5dn-a1457088.html?hloc=at&hloc=de)

oder die (http://geizhals.de/palit-geforce-gtx-1070-gamerock-premium-ne51070h15p2g-a1456802.html?hloc=at&hloc=de)

vielleicht aber auch die (http://geizhals.de/msi-geforce-gtx-1070-gaming-x-8g-v330-001r-a1456552.html?hloc=at&hloc=de)

dildo4u
2016-07-20, 12:32:25
Mindfactory hat jetzt ca 500 verkauft und es sind noch welche auf Lager hat jemand vergleiche mit der 480 nach 24 Stunden?

Der_Korken
2016-07-20, 12:45:44
http://media.bestofmicro.com/E/Q/595394/original/Power-Consumption-vs.-Clock-Rate.png

Ich finde bei diesen "Takt vs Verbrauch"-Diagrammen bei der GTX1060 irgendwie eigenartig wie wenig sie bei niedrigem Takt verbrauchen soll. Wenn man im Diagramm mal beide Kurven linear verlängert, sieht es für mich auch so aus, als würde die 1060 unter dem Ursprung herlaufen, die 480 aber darüber - jedenfalls treffen sie sich nicht dort.

In einem der Spekulationsthreads ging es mal um einen Verbrauchsvergleich zwischen unterschiedlichen Speichertechnologien. Dazu gab es eine Grafik von Nvidia, bei der für GDDR5 ca. 50W bei 256GB/s veranschlagt wurde - für VRAM und MC zusammen. Das entspräche der 480. Die GTX1060 hat genau 3/4 davon, also wären das ca. 37,5W.

In dem Diagramm rutscht die 1060@1,5Ghz auf 62W ab, was etwa 25W für die GPU selbst übrig ließe. Rechnet man jetzt vielleicht noch ein, dass durch die langsamere GPU auch weniger Speicherbandbreite gebraucht wird, könnte man die 37,5W noch auf 37,5*(1,5/1,85) ~ 30W drücken und landet bei 32W für die GPU. In meinen Augen immer noch viel zu wenig im Vergleich zur 480, die mit der gleichen Rechnung locker das 2,5-fache für die GPU übrig hätte. Kann natürlich totaler Unsinn, den ich mir hier zusammenspinne, aber ich wollte das trotzdem mal in die Runde werfen.

dargo
2016-07-20, 12:54:39
@Der_Korken

Mir kommt diese Messung von igor auch sehr merkwürdig vor. Bei 19% weniger Takt (ausgehend von 1850Mhz im avg. Boost) nur noch ~62W? Man sieht bei dieser Messung aber auch sehr schön, dass es bei 1,85Ghz max. ca. 95W sind. Das deckt sich aber nicht mit neuen Spielen wo die Karte ~120W verbraucht. Vielleicht sollte igor die Messungen mit so einem alten Spiel etwas überdenken.

Mancko
2016-07-20, 12:55:40
Komisch nur, dass AMD in letzter Zeit bei dGPUs die Marktanteile wieder anheben konnte. Und da war Polaris noch nicht mal da. ;)

Jap bei weiter konstant gebliebenen Verlusten. Du darfst Dich also hier gern wieder melden, wenn AMD steigende Marktanteile und steigende Gewinne vorweisen kann wie Nvidia. Bis dahin ist das auch weiter erkaufen von Marktanteilen ohne Knete zu machen. Wie gesagt irgendwann müssen sie Knete machen sonst ist das einzig fairer Ergebnis bei dem Schuldenstand und der dauerhaft miesen finanziellen Performance die Schließung von AMD. Alles andere ist Wettbewerbsverzerrung. Auf jeden Fall soll und darf denen keinen mehr Geld leihen. Entweder selber hinbekommen oder schließen. So ist es nun mal.

Mancko
2016-07-20, 12:58:07
Mindfactory hat jetzt ca 500 verkauft und es sind noch welche auf Lager hat jemand vergleiche mit der 480 nach 24 Stunden?

Nein. Ich halte davon aber auch nichts. Einfach in die Bilanzen schauen. Wir werden spätestens Ende des 3. Quartals sehen wie es bei AMD in Sachen GPUs aussieht. Deswegen jucken mich die Marktanteilsgewinne auch nicht. Die sind nur solange stabil bis sich Nvidia irgendwann sagt, dass sie einfach im Preis runtergehen und dann geht es in Windeseile in die andere Richtung. Daher achte ich sehr darauf wie finanziell erfolgreich das jeweilige Unternehmen ist. Und das werden wir ja nach den großen Ankündigungen einiger hier spätestens Ende Q3 sehen. Da müsste ja durch Polaris Tonnenweise Geld überbleiben. Ich bin gespannt ob das eintritt.

Undertaker
2016-07-20, 14:23:52
Durchgewischt. Für die Konsolen gibt es extra Threads...

kruemelmonster
2016-07-20, 14:26:26
Woher soll der dramatische Speicheranstieg in naher Zukunft auch kommen? Und wenn es dann soweit ist, dann reicht die Rohleistung doch eh schon nicht mehr.

Diesen gedanklichen Fehler hab ich schonmal bei der GTX 670 mit 2 GB gemacht, mit einer 7950 3 GB wär ich heute besser dran.

Unter 8 GB kaufe und empfehle ich nichts mehr wenns zwei Jahre aufwärts halten soll.

Thowe
2016-07-20, 14:35:51
Die meiste Asche im Notebook Segment hat Nvidia mit Karten in der Klasse von GP106, 104 und höher gemacht mit Kepler und Maxwell, völlig analog zum Desktop. Anders wären solche extrem hohen Margen nicht möglich gewesen. Das sagen die sogar selber.

Was nicht im Widerspruch zu meiner Aussage steht und nichts über Verkaufszahlen des jeweiligen Segmentes aussagt, noch kompensiert, dass der Notebook-Markt stark rückläufig ist. Des Weiteren kann AMD sehr wohl interessante Notebooks-Chips generieren, wenn sie es wollen. Alleine anhand der Fury Nano sieht man schon, wie massiv das Design an Energie-Effizienz gewinnt, wenn man nur ein wenig vom Maximum abrückt. Preislich müssen sie sich halt finden.

Das größte Problem bleibt eher, dass Kunden sehr unreflektiert zu NVIDIA greifen und AMD gar nicht erst haben wollen. Aber persönlich kenne ich keinen Menschen mehr, der ein echtes Gaming-Notebook hat, die, die eins hatten, wollen so oder so keines mehr. Technisch betrachtet finde ich Gaming-Notebooks sind so oder so der Horror, geringe Lebenserwartung, hoher Preis, weniger Leistung, schlechteres Bild und eine Vielzahl von Kompromissen. Da kann man besser seinen PC aufs Notebook streamen und über den Umweg spielen, da klappt es auch mit der Akku-Laufzeit gleich deutlich besser.

Undertaker
2016-07-20, 14:37:46
Diesen gedanklichen Fehler hab ich schonmal bei der GTX 670 mit 2 GB gemacht, mit einer 7950 3 GB wär ich heute besser dran.

Unter 8 GB kaufe und empfehle ich nichts mehr wenns zwei Jahre aufwärts halten soll.

Für maximale Settings in 3K/4K ist das sicherlich richtig; nur wird eine GTX 1060 diese schon heute kaum durchgängig flüssig schaffen. Die GTX 1060 6 GB hat doppelt so viel Speicher wie eine alte 780 TI mit höherer Rechenleistung, das sollte es dickes Polster für die Zukunft langen. Man darf nicht vergessen, dass man eh jedes Jahr mit den Einstellungen nach unten gehen muss, wenn die fps spielbar bleiben sollen.

Derzeit kommen sogar vergleichbare 4 GB Modelle wie GTX 980 oder Fury Nano ganz gut mit ihrer Speichermenge klar.

Aber persönlich kenne ich keinen Menschen mehr, der ein echtes Gaming-Notebook hat, die, die eins hatten, wollen so oder so keines mehr. Technisch betrachtet finde ich Gaming-Notebooks sind so oder so der Horror, geringe Lebenserwartung, hoher Preis, weniger Leistung, schlechteres Bild und eine Vielzahl von Kompromissen. Da kann man besser seinen PC aufs Notebook streamen und über den Umweg spielen, da klappt es auch mit der Akku-Laufzeit gleich deutlich besser.

Unabhängig davon verkaufen sich die Kisten ziemlich gut; der Marktanteil ist ggü. dem Desktop-Segment in den letzten Jahren sogar kräftig gewachsen.

kuj0n
2016-07-20, 14:50:01
Galax bringt die 1060 mit dem Hammerkühler der KFA² GeForce GTX 960 Gamer OC Mini Black für 249$. Entweder Sapphire kommt vorher mit der Nitro oder das wird meine Neue.

http://www.galax.com/media/wysiwyg/corpsite/products/1060OC/1060OCweb_03G.jpg
http://www.galax.com/en/graphics-card/galax-geforce-gtx-1060-ex-oc-6gb-152.html
http://wccftech.com/nvidia-geforce-gtx-1060-custom-model-round-up/

Pirx
2016-07-20, 14:57:04
.. Die GTX 1060 6 GB hat doppelt so viel Speicher wie eine alte 780 TI mit höherer Rechenleistung,...
Das ist jetzt schon Selbstreferenzierung auf nVs Politik des kleinen VRAMs und das soll man dann noch toll finden.:lol:

Undertaker
2016-07-20, 15:05:53
Das ist jetzt schon Selbsreferenzierung auf nVs Politik des kleinen VRAMs und das soll man dann noch toll finden.:lol:

Was hat das mit einer Nvidia zu tun? Was ist mit einer 4 GB RX 470, RX 480, R9 Nano, Fury und Fury X? Komisch, dass immer wieder die gleichen Leute genau diese Modelle dann mit keinem Wort erwähnen. :freak: Es gibt aktuell genügend Modelle in der Leistungsklasse der GTX 1060 (+-20%), die mit 1/3 weniger Speicher auskommen müssen und dies auch ganz gut tun. Über eine etwaige 3 GB Version darf man sicher geteilter Meinung sein, bei 6 GB gibt es schlicht keinen objektiven Grund. Mit sinnvollen Detailreduktionen, die in dieser Leistungsklasse sowieso notwendig sind, dürften sogar 3-4 GB noch eine ganze Weile gut langen. Selbst 5% Mehrleistung bringen praktisch mehr Vorteile als 1/3 Mehrspeicher ausgehend von 6 GB.

Monsta
2016-07-20, 15:11:35
Ich finde man kann nicht genug Vram haben. Und weniger besser finden ist mal total sinnlos.
Sobald eine kritische Masse 8gb haben. Werden die Spiele das auch nutzen.
Höher aufgelöste Texturen die den Videospeicher vollknallen funktionieren auch auf Grafikarten der Leistungsklasse der 1060.
Eine Gtx980 mit 8gb und 970 mit 7Gb hätte dem Nutzer nicht geschadet, und würde die Grafikkarten heute noch aktuell halten.

Mortalvision
2016-07-20, 15:12:16
Naja, bei der Fury kannst du den gesamten VRAM im Idealfall hundert mal pro Sekunde neu laden ;) Das ist nicht sooooo schlimm (noch nicht!)

Und die rx 480 ist quasi ideal für PowerGamer: Texturen runter, kaum FXAA und 4 GB sind gut und billig für viel FPS!

Jupiter
2016-07-20, 15:31:35
Wichtiger als der Speichergröße ist die Geschwindigkeit. Lieber mehr Leistung und dafür weniger Speicher. 6GB reichen problemlos für FullHD. Für 1440p in 60fps wird die Leistung der Karte eh nicht reichen. Es sei denn es werden mittlere Details präferiert.

3GB sind natürlich gerade im Hinblick auf die Zukunft zu wenig.

Ätznatron
2016-07-20, 15:33:03
Ich finde man kann nicht genug Vram haben. Und weniger besser finden ist mal total sinnlos.
Sobald eine kritische Masse 8gb haben. Werden die Spiele das auch nutzen.
Höher aufgelöste Texturen die den Videospeicher vollknallen funktionieren auch auf Grafikarten der Leistungsklasse der 1060.
Eine Gtx980 mit 8gb und 970 mit 7Gb hätte dem Nutzer nicht geschadet, und würde die Grafikkarten heute noch aktuell halten.

Völlig richtig.

Meine 6GB GTX 780 ist heute noch ganz gut dabei (~GTX 970 -10%), nach der 3GB-Karte kräht heute kein Hahn mehr.

3GB sind natürlich gerade im Hinblick auf die Zukunft zu wenig.

Im Hinblick auf die Zukunft sind auch 6Gb bereits knapp auf Kante genäht. Mir reichen sie nicht mehr.

Schaffe89
2016-07-20, 15:44:18
Mindfactory hat jetzt ca 500 verkauft und es sind noch welche auf Lager hat jemand vergleiche mit der 480 nach 24 Stunden?

Ich kann mich noch recht gut erinnern, aktuell sind 590 Bei Mindfatory verkauft und bei der rx480 waren es am ersten Tag etwas weniger.

Dural
2016-07-20, 15:45:28
Wenn dir jetzt schon 6GB zuwenig sind, müssten 8GB ja auch schon zu wenig sein, in Zukunft so wie so :rolleyes:

Da frage ich mich wie so du nicht schon längst eine Titan X mit 12GB hast?

Jupiter
2016-07-20, 15:45:39
Im Hinblick auf die Zukunft sind auch 6Gb bereits knapp auf Kante genäht. Mir reichen sie nicht mehr.

Es wird eher an Rechenleistung fehlen.

Schaffe89
2016-07-20, 15:49:19
Das ist jetzt schon Selbstreferenzierung auf nVs Politik des kleinen VRAMs und das soll man dann noch toll finden.:lol:

Die Politik des kleinen V-rams hat AMD mit seiner Fury Serie erst perfektioniert.:freak:

dargo
2016-07-20, 15:51:42
Für 1440p in 60fps wird die Leistung der Karte eh nicht reichen. Es sei denn es werden mittlere Details präferiert.

Kein Einwand... aber ihr solltet euch langsam als Gamer von der Steinzeit Vsync-Limitierung trennen. ;) Auch bsw. 50-59fps sind mit VRR noch verdammt flüssig.


Da frage ich mich wie so du nicht schon längst eine Titan X mit 12GB hast?
Dürfte an den völlig bescheuerten 1000€ scheitern. ;)

Ätznatron
2016-07-20, 15:52:15
Wenn dir jetzt schon 6GB zuwenig sind, müssten 8GB ja auch schon zu wenig sein, in Zukunft so wie so :rolleyes:

Da frage ich mich wie so du nicht schon längst eine Titan X mit 12GB hast?

8 GB reichen derzeit für meine Settings, und sicher, auch die werden irgendwann zu knapp, 6GB sind dagegen jetzt schon nicht mehr zufriedenstellend.

Was die Titan X angeht: Ja, ich hätte gleich bei deren Erscheinen zuschlagen sollen, aber da war die Not noch nicht so groß. Und jetzt ist die Titan X irgendwie bereits obsolet.

Es wird eher an Rechenleistung fehlen.

Nö, die hat sie genug für meine Zwecke. Allerdings bin ich auch niemand, der so versessen ist, unbedingt mit min. 60 FPS zocken zu müssen. Mir reichen schon 40 für ein sehr gutes Spielerlebnis.

Linmoum
2016-07-20, 16:03:49
Ich kann mich noch recht gut erinnern, aktuell sind 590 Bei Mindfatory verkauft und bei der rx480 waren es am ersten Tag etwas weniger.
Bei MF lag die 480 am ersten Tag bei rund 600-650 verkauften Exemplaren.
Ist aber auch egal, die obligatorischen ...vergleiche bringen niemandem was.

Nvidia und die AIBs sollten lieber mal zusehen, dass die Verfügbarkeit deutlich besser wird, auch am zweiten Tag ist das ziemlich mies.

Mindfactory hat nur noch 3 Customs auf Lager und bei Caseking sind es ebenfalls nur noch 3.
Alternate hat für <299€ nur noch die ZOTAC "Mini" auf Lager und ansonsten die 300€+ Customs. Kann ich aber nachvollziehen, wenn die nicht so recht weggehen, da würde ich auch lieber warten. :tongue:

Edit: Bevor jetzt jemand damit ankommt, auch bei AMD sollte das bei den Customs deutlich besser aussehen und keinem Paper Launch gleichen.

Fliwatut
2016-07-20, 16:08:08
Die MSI lässt sich natürlich ebenfalls weiter hochtakten, bei CB bis auf 2,1 GHz Spieletakt.
Und wie viel mehr fps kommen da im Endeffekt im Vergleich zur EVGA 1060 SC raus?

Fliwatut
2016-07-20, 16:13:08
Warum gehst du bei der RX 480 von noch nicht einmal gelisteten Modellen aus und nimmst bei der GTX 1060 nicht einmal die schnellste aktuell bei Geizhals zu findene Version? :confused:
Die MSI Gaming 6G ist 26% teurer als die RX480, bringt aber la. Computerbase nur 10% (1440p) bzw. 13% (1080p) mehr Leistung als die RX480 ohne jegliche Übertaktung.

Jupiter
2016-07-20, 16:15:04
Kein Einwand... aber ihr solltet euch langsam als Gamer von der Steinzeit Vsync-Limitierung trennen. ;) Auch bsw. 50-59fps sind mit VRR noch verdammt flüssig.

Mein Ziel sind fast immer konstante 60fps. Es gibt leider kein Freesync an Fernsehgeräten. Und ich spiele wegen des gewünschten nativen Kontrastverhältnisses ausschließlich darauf.

Freesync konnte ich bisher nicht testen. Ich nehme jedoch stark an, dass 50fps hiermit noch sehr gut spielbar sind. Anders als ohne Freesync.

Nö, die hat sie genug für meine Zwecke. Allerdings bin ich auch niemand, der so versessen ist, unbedingt mit min. 60 FPS zocken zu müssen. Mir reichen schon 40 für ein sehr gutes Spielerlebnis.

40fps finde ich meist bereits aus verschiedenen Gesichtspunkten zu gering. Ach ohne Vsync.

6 GB werden auch genug für die Zwecke der Meisten sein, welche sich in dieser Preisklasse aufhalten.

dargo
2016-07-20, 16:17:38
Freesync konnte ich bisher nicht testen. Ich nehme jedoch stark an, dass 50fps hiermit noch sehr gut spielbar sind. Anders als ohne Freesync.

So ist es. Im Blindtest (ohne Framecounter) behaupte ich mal frech wirst du keinen Unterschied mit Prerenderlimit 1 feststellen.

Jupiter
2016-07-20, 16:18:42
Mit Freesync? Das kann ich mir vorstellen. Weit unter 50fps sollte es aber nicht fallen.

dargo
2016-07-20, 16:20:46
50fps mit VRR vs. 60fps gesynct. Beim letzteren wirst du natürlich den erhöhten Input-Lag merken, den du mit VRR nicht hast. Es geht mir dabei ausschließlich um die Fluffigkeit der Bildausgabe.

Weit unter 50fps sollte es aber nicht fallen.
Ja... sehe ich auch so. Meine persönliche Grenze liegt bei ca. 45-48fps, je nach Engine.

Loeschzwerg
2016-07-20, 16:25:12
Für maximale Settings in 3K/4K ist das sicherlich richtig; nur wird eine GTX 1060 diese schon heute kaum durchgängig flüssig schaffen. Die GTX 1060 6 GB hat doppelt so viel Speicher wie eine alte 780 TI mit höherer Rechenleistung, das sollte es dickes Polster für die Zukunft langen. Man darf nicht vergessen, dass man eh jedes Jahr mit den Einstellungen nach unten gehen muss, wenn die fps spielbar bleiben sollen.


Jup, so sehe ich das auch.

Den Vergleich mit einer GTX 670/680 finde ich auch nicht ganz richtig, denn es ist/war ein anderes Markt-/Leistungssegment, wie auch bei der 780 Ti.

Rancor
2016-07-20, 16:25:27
In 3 - 4 Jahren gewinnt man weder mit der RX 480 noch mit der GTX 1080 keinen Blumentopf mehr, es sei denn man reduziert Details oder Auflösung und wer will das schon :D

Meine 1070 habe ich für 2 Jahre gekauft, danach fliegt sie entweder gegen Vega oder Volta wieder raus. Die 780 war mir schon zu langsam unter Full HD und dabei waren die 3GB nicht mal das Problem.

Jupiter
2016-07-20, 16:27:44
50fps mit VRR vs. 60fps gesynct. Beim letzteren wirst du natürlich den erhöhten Input-Lag merken, den du mit VRR nicht hast. Es geht mir dabei ausschließlich um die Fluffigkeit der Bildausgabe.


Ja... sehe ich auch so. Meine persönliche Grenze liegt bei ca. 45-48fps, je nach Engine.

Wenn ich einen Monitor nutzen würde wäre das beim Kauf auf jeden Fall eine Priorität. Mich wundert es das vergleichsweise wenig Monitore mit dieser Fähigkeit gekauft werden. Teilweise sind die Vorteile weit größer als durch eine neue Grafikkarte.

Das Hauptproblem ist, dass der Käufer bei einen Hersteller hängt. So wie ich das sehe wechseln die Meisten aber gar nicht die Lager und bleiben bei Nvidia.

aber in 2-3 jahren hängt es gerade bei den kleinen karten an der leistung, was bringen dir 8gb wenn man leistungsmäßig bei 30fps hängt? wenn bei einer 1080, die fast doppelt so schnell ist 8gb reichen und sogar manche von einem gesunden polster sprechen, dann ist das aufregen über 6gb bei einer 1060 einfach nur das fanboy gezetere der amd fraktion.

die 6gb variante ist doch bereits die verdoppelung des speichers! in der tat, in 3-4 jahren bist du mit der 480 besser drann, aber nicht jeder ist auf die 4 jahre angewiesen.

Wie gesagt. Die 6Gb sind m.E. optimal.
Was sollen für Prozesse kommen, welche so viel Speicher benötigen? Meistens sind es doch die Texturen und hier gibt es immer neue Komprimierungsverfahren und Streaming-Methoden. In drei Jahren wird es mehr Probleme mit der Rechenleistung als mit den Speicher geben.

Die GTX 980Ti hat doch 6GB. Leistungstechnisch ist die GTX 1060 weit darunter.

Linmoum
2016-07-20, 16:28:29
Meine 1070 habe ich für 2 Jahre gekauft, danach fliegt sie entweder gegen Vega oder Volta wieder raus. Die 780 war mir schon zu langsam unter Full HD und dabei waren die 3GB nicht mal das Problem.
Also ich würde ja dann lieber Navi statt Vega überlegen, wenn die 1070 in 2 Jahren raus soll. :tongue:

Undertaker
2016-07-20, 16:33:35
Die MSI Gaming 6G ist 26% teurer als die RX480, bringt aber la. Computerbase nur 10% (1440p) bzw. 13% (1080p) mehr Leistung als die RX480 ohne jegliche Übertaktung.

Seit wann kauft man eine High-End OC-Custom, weil das Perf/€-Verhältnis besser als als bei den Einstiegsmodellen ist? Wenn es dir nur darum geht, solltest du so etwas nehmen:

http://geizhals.de/msi-geforce-gtx-1060-6gt-oc-v809-2205r-a1478879.html?hloc=de

Billigster Preis und trotzdem ein gewisser Mehrtakt. Der Kühler dürfte ordentlich sein, sicher aber nicht auf dem Niveau der 300€++-Modelle.

dargo
2016-07-20, 16:47:49
Wenn ich einen Monitor nutzen würde wäre das beim Kauf auf jeden Fall eine Priorität. Mich wundert es das vergleichsweise wenig Monitore mit dieser Fähigkeit gekauft werden. Teilweise sind die Vorteile weit größer als durch eine neue Grafikkarte.

Da bin ich voll bei dir. Der Mensch ist ein Gewohnheitstier. Er denkt wohl nur weil es jahrzehnte lang geruckelt hat (Vsync Off) muss es einfach immer so sein. :tongue:

Fliwatut
2016-07-20, 16:50:07
Seit wann kauft man eine High-End OC-Custom, weil das Perf/€-Verhältnis besser als als bei den Einstiegsmodellen ist
Weswegen kauft man denn sonst ein deutlich teureres OC-Monster, wenn nicht wegen deutlich mehr Leistung? Die EVGA 1060 SC liegt im Takt nicht so sehr zurück, bleibt auch kühl und leise. Wo ist da der 50€ Mehrwert?

Undertaker
2016-07-20, 16:56:00
Weswegen kauft man denn sonst ein deutlich teureres OC-Monster, wenn nicht wegen deutlich mehr Leistung? Die EVGA 1060 SC liegt im Takt nicht so sehr zurück, bleibt auch kühl und leise. Wo ist da der 50€ Mehrwert?

Mehr Leistung ist etwas anderes als ein besseres P/L. Dass ein besseres Produkt im Hardware-Bereich fast immer überproportional mehr kostet, ist doch für dich nun wirklich nichts neues, oder?

Falls doch: Ja, für 5-10% Mehrleistung zahlt man eben prozentual mal schnell den doppelten Aufpreis. Dafür bekommt man dann idR aber halt auch einen besseren Kühler, ggf. auch mehr Zubehör. Wer all das nicht braucht, kann natürlich auch die günstigeren Modelle nehmen.

Fliwatut
2016-07-20, 16:56:54
Come on, wir reden hier von einer 1060, da sind wir nicht an der Spitze der Nahrungskette...

user77
2016-07-20, 16:59:23
ich kaufe Custom nur wegen einem besserem Kühlerdesign oder besserer Stromversorgung.
Takt ist mir relativ egal, kann man ja selbst machen...

VooDoo7mx
2016-07-20, 17:11:26
Wer eben der Meinung ist das er unbedingt 8 GiB braucht, kauft die RX480 und fertig. Wo ist da jetzt das Problem?

Und diese ganze V-RAM, Diskussion ist doch einfach nur absolut lächerlich. Ich hab Anfang 2012 eine GTX 680 mit 2 GiB gekauft und dann fast 2 1/2 Jahre bis zum nächsten Upgrade.
In diesen Zeitraum hat in keinster Weise auch nur irgendwie ein wenig der V-RAM der Karte limitiert und sie hat mir viel Spaß gebraucht in der Zeit.
Die Karte werkelt jetzt nach über 4 Jahren immer noch in einen PC von einen Kumpel der Dark Souls 3 was ein AAA Spiel von 2016 mit ein paar Abstrichen in Full HD mit 60 fps spielt.

Aktuell hab ich eine 980Ti mit 6GiB und meine Gaming auflösung ist ausschlißlich UHD sowohl per HDMI am TV und per DP am Monitor.
Und ich sehe jetzt absolut nichts wieso in nächsten Jahren die 6GiB nicht reichen sollten oder was das verursachen soll, dass es nicht mehr reicht.

Das Konsolenargument zielt nicht, da es kompletter Unsinn ist. Die PS4 Neo die noch nicht mal erschienen ist hat auch nur Weiterhin 8GiB kombinierten Speicher wovon im Neo Mode 5,5GiB fürs Spiel genutzt werden dürfen und diese 5,5 GiB sind nicht nur exklusiv V-RAM, da müssen auch die normalen RAM Sachen mit rein.
Da die neuen alten Konsolen weiterhin vorwärtskompatibel sind, wird auch weiterhin als Basis der Urpsung von Ende 2013 verwendet werden, um die Kopatibilität nicht zu gefährden

Ich wpiele gerade Witcher 3, eines der aktuell am ebsten aussehenden Spiele am PC udn selbst das kommt in UHD locker mit 4GiB V-Ram klar. Für niedrigere Auflösungen reicht auch deutlich weniger.

Selbst die "nur" 4GiB der Fury X werden der Karte in keinen Titel zum Verhängnis.

Und selbst wenn, dann schaltet man eben die Texturen eine Stufe zurück. Meistens bringen doch nicht mal Ultra oder Hyper Texturen irgendeinen Vorteil an Bildqualität. Meist werden da sogar die Texturen da nur in ihrer unkomprimierten Form geladen. V Ram ist dann voll, jo. Bildqualitätsgewinn ist dann 0.
Und die 1 oder 2 Titel wo das Streaming nicht richtig funktioniert, würde ich nicht als Referenz nehmen.

Außerdem ist es absolut verlogen von den roten Boys das immer als Aurgument zu nehmen. Ich hab von denen keinen einzigen gesehen, der im Fury Thread seitenweise gegen die 4GiB V-RAM Stunk macht.
Eigentlich müssten die ja auch alle ne Titan X im Rechner haben, denn V-Ram ist ja schließlich King.
Auch müssten die AMD Boys bei der nächsten Titan Karte ja absolut durchdrehen. Die kommt sogar mit 24 GiB V-Ram. Ich hoffe ihr fangt alle schon mal an euer Taschengeld zu sparen. Aber dann ist das natürlich kein Thema. :rolleyes:

Aber das 6 GiB nicht für eine Mittelklasse Karte nicht reichen, wenn aktuelle High End Boliden damit spielend in UHD zu recht kommen und auch in Zukunft absolut nichts absehbar ist was den Bedarf steigen lässt, ist sowas von ausgemachter spekulativer Schwachsinn.

Und wenn man immer entegegen jeglicher Faktenlage der Meinung ist, man braucht unbedingt mehr V-RAM in der Preisklasse, dann geht man in einen PC Laden, oder zu Hause auf einen online Shop und bestellt oder kauft sich eine RX480 und hat Spaß damit. Fertig.
Da ist es überhaupt nicht notwendig seitenweise irgendwelche Threads in Foren mit Nonsens voll zu kleistern und versuchen wie geisteskranke Fanatiker Leute mit der eigenen wirren Meinung zu missionieren.

Sven77
2016-07-20, 17:13:59
Gutes Beispiel ist da R6:Siege mit dem Ultra-HD Texture Pack.. sichtbarer Unterschied: Fehlanzeige

Undertaker
2016-07-20, 17:16:30
Come on, wir reden hier von einer 1060, da sind wir nicht an der Spitze der Nahrungskette...

Das hat auch nichts mit der Preisklasse zu tun. Und noch einmal: Keiner zwingt dich, die "besseren" Modelle zu kaufen, wenn dir Leistung und Kühler der kleineren Varianten genügen. Und was das jetzt alles speziell mit der GTX 1060 zu tun hat, wo dieser Grundsatz doch für absolut jede GPU gilt, verstehe ich noch weniger. :confused:

Fliwatut
2016-07-20, 17:21:33
Das hat auch nichts mit der Preisklasse zu tun.
Finde ich schon, denn je nach Aufpreis ist es nicht mehr weit zur nächsthöheren Klasse. Es geht hier auch nicht um mich, mir fällt nur kein Grund ein, warum man eine prinzipiell günstigere Mittelklassekarte kauft, dann aber ein teures Modell wählt, das deutlich mehr kostet, aber nur etwas mehr Leistung bietet und auch nicht signifikant leiser ist. Mir fehlt die Logik dahinter.

Ätznatron
2016-07-20, 17:31:19
40fps finde ich meist bereits aus verschiedenen Gesichtspunkten zu gering. Ach ohne Vsync.



Die 40 FPS sind doch nicht in Stein gemeisselt, die sollen doch nur auf eine nicht mehr der Höhe der Zeit entsprechende Rohleistung der GTX 780 in manchen sehr aktuellen Spielen hindeuten (es gibt natürlich mittlerweile Grafikkarten, die es viel besser können), mit der ich aber leben kann.

40 FPS ohne sind halt besser als 40 FPS mit sehr störenden Nachladerucklern.

Eventuell bieten nämlich die 2GB genau das Polster, das man zum angenehmeren Spielen braucht.

Wenn ich mich zwischen der GTX 1060 und der RX 480 unter dem Aspekt der Speichermenge zu entscheiden hätte, wäre meine Entscheidung ziemlich klar.

Undertaker
2016-07-20, 17:37:00
Finde ich schon, denn je nach Aufpreis ist es nicht mehr weit zur nächsthöheren Klasse. Es geht hier auch nicht um mich, mir fällt nur kein Grund ein, warum man eine prinzipiell günstigere Mittelklassekarte kauft, dann aber ein teures Modell wählt, das deutlich mehr kostet, aber nur etwas mehr Leistung bietet und auch nicht signifikant leiser ist. Mir fehlt die Logik dahinter.

Es ging darum, dass es dieses Phänomen in jeder Preisklasse gibt. Und das schon seit Jahren. Die teuersten R9 390 kosten fast soviel wie die günstigsten 390X, die teuersten GTX 970 fast soviel wie die billigsten 980 und so weiter. Daran ist nun wirklich absolut nichts neu bei der GTX 1060.

Hakim
2016-07-20, 17:39:27
Endlich tut sich was bei den 1070 preisen (Ab 439€), hat sicherlich was mit dem 1060 launch zu tun.

Bezüglich 8gb vs 6gb kann ich nur sagen das mMn für eine Mittelklasse Karte 6gb vernünftig ist. Falls es mal knapp werden sollte in der Zukunft, wird man bestimmt die Textureinstellung nach links schieben müssen wo sich alle anderen Einstellungen schon befinden damit das Spiel vernünftig läuft.

In meiner Tabelle 480vs1060vs1070 habe ich zwar auch Vram als Kriterium mit drin, aber ehrlich gesagt bewerte ich es nicht hoch. Anders würde es für neue Highend Karten aussehen.

Screemer
2016-07-20, 17:55:26
warum musst du das eigentlich in allen threads kund tun. <5% nennst du bewegung? hängt aber sicher mit dem 1060 launch zusammen.

Ex3cut3r
2016-07-20, 17:56:28
Ist vlt. OT, aber wieso gibts diesmal kein Game Bunlde für RX 480, GTX 1060/1070/1080?

Fliwatut
2016-07-20, 17:57:43
Daran ist nun wirklich absolut nichts neu bei der GTX 1060.
Ich habe ja auch nicht gesagt, dass es ein neues Phänomen wäre, ich halte solches Verhalten nur nicht für logisch. Irgendwas müsste doch da sein, was 60€ Mehrwert zu einer EVGA 1060 ausmacht. Lassen wir es aber gut sein, es führt zu nichts.

Fliwatut
2016-07-20, 17:58:22
Ist vlt. OT, aber wieso gibts diesmal kein Game Bunlde für RX 480, GTX 1060/1070/1080?
Weil die Nachfrage auch ohne Bundle hoch genug ist.

dildo4u
2016-07-20, 17:58:40
Ist vlt. OT, aber wieso gibts diesmal kein Game Bunlde für RX 480, GTX 1060/1070/1080?
Warum sollte man das zum Launch machen wenn man eh nicht genug Chips liefern kann?Solche Promotion's nutzt man wenn es schleppend läuft.

Ex3cut3r
2016-07-20, 17:59:30
Das ist aber blöd. Hatte damit nie Glück, bei der 770er von vor 3 Jahren gabs auch nix für mich.

Hakim
2016-07-20, 18:21:56
warum musst du das eigentlich in allen threads kund tun. <5% nennst du bewegung? hängt aber sicher mit dem 1060 launch zusammen.

Sicher das du mich meinst? Über die 6gb hatte ich vor Wochen im 1060 speku was geschrieben und jetzt nach dem launch das erste Mal hier im Thread.

anddill
2016-07-20, 18:31:46
Mal zum VRAM allgemein: Man muss das ja auch immer im Zusammenhang mit der Speicherbandbreite sehen. Mal eine Milchmädchenrechnung dazu:
Eine Karte die zB. 192GB/s transferieren kann könnte mit zB. 12GB nicht viel anfangen. Wenn der wirklich voll genutzt würde, dann könnte die Karte den RAM nur noch ca. 16x pro Sekunde komplett durcharbeiten. Bei 6GB sind es immerhin 32x pro Sekunde, was zumindest noch grob in einem sinnvollen Bereich liegt.

dargo
2016-07-20, 18:47:40
Ist vlt. OT, aber wieso gibts diesmal kein Game Bunlde für RX 480, GTX 1060/1070/1080?
Wofür wenn sie sich gut verkaufen?

Hakim
2016-07-20, 18:49:41
Auf irgendeiner Koreanischen Seite war was von einem Overwatch bundle mit 1060 zu sehen, auf videocards gesehen, aber wie schon geschrieben bestimmt später

dargo
2016-07-20, 19:13:55
Dishonored 2 und Watch Dogs 2 nicht vergessen. Letzteres ist für Ende 2016 anvisiert. Es könnte natürlich durchaus hier und da Verschiebungen geben.
Da fällt mir gerade ein Gears of War 4 kann man auch in die Liste aufnehmen.

uweskw
2016-07-20, 19:17:29
Die MSI lässt sich natürlich ebenfalls weiter hochtakten, bei CB bis auf 2,1 GHz Spieletakt. Das sind dann schon gut 14% mehr als die Basis und entspricht einer RX 480 mit ~1350 MHz (für gleichen prozentualen OC-Gewinn) bzw. ~1430 MHz (für gleiche Performance ausgehend von 6% Leistungsunterschied im CB-Rating).


Wieso hier ein Mod in jedem 2ten Posting erklären muss, dass NV doch besser ist, verstehe ich nicht wirklich. Vor allem nicht nur im NV Faden sondern auch in AMD threads.

greetz
US

Dural
2016-07-20, 19:24:32
Er sagt nur was fakt ist... über die wirklichen infos über die 1060 wird ja nicht diskutiert. Aber anders ist man es ja gar nicht gewohnt.

Hier ist die g1 lieferbar, leider gibt es im netz keine info zu der karte?!?

Mike
2016-07-20, 19:27:49
Wieso hier ein Mod in jedem 2ten Posting erklären muss, dass NV doch besser ist, verstehe ich nicht wirklich. Vor allem nicht nur im NV Faden sondern auch in AMD threads.

greetz
US

Stimmt, ist mir auch völlig unbegreiflich. Das sollte doch jedem auch ohne Erklärung sofort ins Auge stechen. ;)

StefanV
2016-07-20, 20:01:36
Mal zum VRAM allgemein: Man muss das ja auch immer im Zusammenhang mit der Speicherbandbreite sehen. Mal eine Milchmädchenrechnung dazu:
Eine Karte die zB. 192GB/s transferieren kann könnte mit zB. 12GB nicht viel anfangen. Wenn der wirklich voll genutzt würde, dann könnte die Karte den RAM nur noch ca. 16x pro Sekunde komplett durcharbeiten. Bei 6GB sind es immerhin 32x pro Sekunde, was zumindest noch grob in einem sinnvollen Bereich liegt.
Jein, denn du brauchst ja nicht immer alles, was im VRAM liegt.

Den nutzt ja z.T: genau so wie den normalen Arbeitsspeicher und legst schlicht die Dinge rein, die du z.B. für den Level brauchst...

Daher hat die Bandbreite jetzt nicht unbedingt viel mit der Größe zu tun.

Ätznatron
2016-07-20, 20:06:54
@anddill

Zusätzlich sparst du zeitintensive Zugriffe über den Bus. Was im Speicher liegt, muss nicht nachgeladen werden.

VooDoo7mx
2016-07-20, 20:12:34
Wieso hier ein Mod in jedem 2ten Posting erklären muss, dass NV doch besser ist, verstehe ich nicht wirklich. Vor allem nicht nur im NV Faden sondern auch in AMD threads.

greetz
US

Naja nVidia kauft ja nicht nur Spieleentwickler, Redakteure und Benchmark Entwickler sondern auch Foren Moderatoren. Sie sind praktisch überall. :upara:

Pirx
2016-07-20, 20:52:15
Die nur 6 GB sind ein Nachteil, das kann man drehen und wenden wie man will. Vielleicht jetzt noch nicht (siehe GTX670/680 2GB) aber später sicher. Vielleicht ist es nicht ganz so ausgeprägt wie bei 2 GB der GTX 670/680 vs 3GB bei 7950/7970, aber es lässt es sich nicht wegdiskutieren.

RoughNeck
2016-07-20, 21:00:37
Sehe ich nicht so.
Ob jetzt 6 oder 8GB ist doch vollkommen latte. Beide Karten richten sich an eine Zielgruppe die selten was in Games einstellt, geschweige denn 1440p Monitore einsetzt.
Beim 192BIT Interface sind die 6GB vollkommen ausreichend, klar sind bei Games wo viele Mods zum Einsatz kommen die 8GB von Vorteil, man muss dann aber wieder schauen ob die Karte dann noch spielbare FPS zustande bekommt.

BK-Morpheus
2016-07-20, 21:01:16
Erinnert mich an früher...da gab es oft zwei versch. Speicherausführungen von den Karten. Eine mit weniger, aber schnellerem Speicher und eine mit mehr, aber langsameren Speicher.
In 95% der Fälle war die Karte mit weniger und schnellerem Speicher die bessere Wahl.
Klar, ist die Speichergeschw. aktuell bei den Karten identisch, aber bis eine Karte der Klasse 1060 / 480 ernsthafte Einbußen durch zu wenig VRAM hat, ist die Karte ohnehin outdated und ersetzt.

Ist zumindest meine Meinung. Ich tendiere zwar noch zur RX480 Custom, aber sicher nicht, wegen 6 vs 8 GB VRAM :-)

Pirx
2016-07-20, 21:05:09
Ist die 7950 outdated und ersetzt? oder die GTX 680 4 GB?

scully1234
2016-07-20, 21:07:10
Die nur 6 GB sind ein Nachteil, das kann man drehen und wenden wie man will. .

Hast du das so konsequent auch bei der Fury X erzaehlt die beileibe mehr Rechenleistung hat wie diese 1060/ RX480

Dreimal darfst du raten bei welcher Karte es wohl eher klemmt wenn es denn klemmt,:rolleyes:

Man koennte wohl hier die Reihe umhin gehen,und die die jetzt hier so ne Panik schieben, wegen 6 GB bei ner Midrangekarte, bei der Fury X sich ueberhaupt nicht angaschiert haben bei dem Thema Vram

Ätznatron
2016-07-20, 21:09:12
Hast du das so konsequent auch bei der Fury X erzaehlt die beileibe mehr Rechenleistung hat wie diese 1060/ RX480

Dreimal darfst du raten bei welcher Karte es wohl eher klemmt wenn es denn klemmt,:rolleyes:

Wenn es klemmt, klemmt es am ehesten bei der 6GB-Karte.

scully1234
2016-07-20, 21:13:26
Solche Aussagen im Technikthread:upicard:

Ätznatron
2016-07-20, 21:16:46
Du bist anderer Meinung?

Megamember
2016-07-20, 21:18:30
Du bist anderer Meinung?

Ja, denn die 6 GB werden nie ein Problem sein, vorher hast du ganz andere Probleme und die sitzen in der Mitte des PCBs. Aber wieso red ich hier überhaupt mir Trollen.

Pirx
2016-07-20, 21:18:38
Hast du das so konsequent auch bei der Fury X erzaehlt die beileibe mehr Rechenleistung hat wie diese 1060/ RX480

Dreimal darfst du raten bei welcher Karte es wohl eher klemmt wenn es denn klemmt,:rolleyes:

Man koennte wohl hier die Reihe umhin gehen,und die die jetzt hier so ne Panik schieben, wegen 6 GB bei ner Midrangekarte, bei der Fury X sich ueberhaupt nicht angaschiert haben bei dem Thema Vram
Wieso konsequent, es ist ein Nachteil, nicht mehr und nicht weniger. Dieses Runtergespiele hat schon immer genervt. Die Fury ist ein Sonderfall als erste Karte mit HBM, da war einfach nicht mehr möglich und natürlich sind auch hier die 4 GB ein Problem, dessen sich die meisten Käufer sicher auch bewusst waren.


Ja, denn die 6 GB werden nie ein Problem sein, vorher hast du ganz andere Probleme und die sitzen in der Mitte des PCBs.
Wie oft, bei wie vielen Karten habe ich diese Aussage schon gehört. Später hat sich mehr VRAM IMMER ausgezahlt.

Rancor
2016-07-20, 21:19:32
Ist die 7950 outdated und ersetzt? oder die GTX 680 4 GB?
Ehhm beide? Weder mit der einen noch mit der anderen kannste heute noch was anfangen, es sei denn du hälts mittlere Details für ausreichend.. Dann sind aber auch 3 oder 4 GB Vram egal.