PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1060: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 [4] 5 6 7

memakr
2016-07-29, 11:17:15
Es ist doch eigentlich ein Unding, wie die Online-Händler mit den Verfügbarkeitsangaben umgehen.
Der potentielle Käufer wird immer mit fiktiven Termin "erwartet an XY" bei der Stange gehalten und am Stichtag ändert sich dann plötzlich der Status.
Verfügbarkeit der 1060er Karten scheint grad echt mies zu sein!:mad:

Neosix
2016-07-29, 11:24:56
Ja ich warte immer noch auf meine Palit Superjet von Mindfactory. Leider immer noch "ohne Liefertermin"... Die erste Charge war wohl schnell weg, und auf die nächste muss man wohl noch ne Weile warten. Ich würde ja stornieren und mir eine andere OC Karte suchen, aber entweder würde ich dann draufzahlen oder sie sind auch nicht Lieferbar...

Hakim
2016-07-29, 11:53:41
Ist echt etwas schade das pailt/GW nicht den selben Kühler wie bei den größeren Brüdern verwendet und hier spart. OC und Leistung scheint aber bei allen Partnern sehr ähnlich zu sein

dildo4u
2016-07-29, 12:22:15
Hier gibt's ein Test mit der billigsten Gainward.


http://www.hardware.fr/focus/118/rx-480-sapphire-nitro-vs-gtx-1060-gainward-match-280.html

kuj0n
2016-07-29, 12:38:41
Es ist doch eigentlich ein Unding, wie die Online-Händler mit den Verfügbarkeitsangaben umgehen.
Der potentielle Käufer wird immer mit fiktiven Termin "erwartet an XY" bei der Stange gehalten und am Stichtag ändert sich dann plötzlich der Status.
Verfügbarkeit der 1060er Karten scheint grad echt mies zu sein!:mad:
Da werden die Vorbesteller bedient und wer am Stichtag kaufen möchte guckt in die Röhre.

deLuxX`
2016-07-29, 15:12:36
Vergleich von mehreren Customs:
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-gp106-grafikkarten-roundup,testberichte-242152.html

IMHO einer der besseren Tests (weil Geschwindigkeit eh fast gleich untereinander)

Hakim
2016-07-29, 15:40:04
Irgendwie tendiere ich bei den 1060 jetzt so langsam zu ichill X3 (vorher Pailt/GW phoenix/jetstr), bisher gibt es leider nur ein Review bei Luxx.

(del)
2016-07-29, 15:41:39
Die MSI ist am leistesten, quasi unhörbar - da ist der Kühler der 1080 drauf :)

Hakim
2016-07-29, 15:47:50
Die MSI ist am leistesten, quasi unhörbar - da ist der Kühler der 1080 drauf :)

Ja aber 340 ocken, dann lieber 110 drauf und pailt jetstream 1070, zumindest aus meiner Sicht :)

Downhill
2016-07-29, 16:50:44
Ja aber 340 ocken, dann lieber 110 drauf und pailt jetstream 1070, zumindest aus meiner Sicht :)
Das ist der Witz, Stand heute hat die 1070 fast ein besseres P/L-Verhältnis als die 1060. Letztere ist einfach noch nicht wirklich gut lieferbar und die paar wenigen guten Customs kosten dann halt.
Bei der 1070 sind quasi alle Varianten lieferbar und die erste Preisbewegung nach unten hat schon stattgefunden.

(del)
2016-07-29, 17:46:51
Die 1060 wird nachgeben - wenn die 480er als Customs flächendeckend abgesetzt werden. Ich denke mal, vielen ist die Effizienz am Ende sogar Wurst und sie werden mit dem Geldbeutel abstimmen. Gut für alle.

Wirklich paradox, dass sich Nvidia-Fans nun darauf verlassen müssen, dass endlich mal massenweise 480er angeschwemmt werden. Aber so funktioniert halt der Markt und gewinnen werden beide. Wobei die RX 470 genau das werden wird, was die GTX 1070er jetzt schon ist. Teildeaktivierte Chips gibt es en masse und genau diese Karten werden auch ordentlich abgesetzt. Schaun wir mal.

AMD kann man es nur wünschen, denn die Karten unter 200 Euro sind dann, wenn wirklich in Stückzahlen verkauft, die wahren Goldesel. Und keine Angst - Grün wird wohl noch was nachschieben. Hoffentlich vor meinem Urlaub :D

Dann ist endlich mal wieder Schluss mit diesem Pixel-Porno und die Gang-Bang-Parties Roundups werden wieder humaner in der Schlagzahl.

scully1234
2016-07-29, 17:55:28
. Hoffentlich vor meinem Urlaub :D

.

Wurde der nicht gestrichen wegen kontinuierlicher Grafikkartenschwemme?

Hakim
2016-07-29, 17:58:02
Weißt du vielleicht zufällig ob die ichill X3 1060 den selben Kühler wie die 70/80er hat? Sieht zumindest auf den Bildern genauso aus.

(del)
2016-07-29, 17:58:32
Wurde der nicht gestrichen wegen kontinuierlicher Grafikkartenschwämme?
Mittlerweile schon zweimal verschoben. Das zweite Mal leider sogar kostenflichtig (Umbuchungsgebühr). Wenn sich Launchtermine innerhalb von wenigen Wochen mehrfach ändern, dann fällt mir dazu auch nichts mehr ein.

Weißt du vielleicht zufällig ob die ichill X3 1060 den selben Kühler wie die 70/80er hat? Sieht zumindest auf den Bildern genauso aus.
Keine Ahnung, ob da nicht doch gespart wurde. Vergleich einfach mal das Gewicht. Wenn es nur um ca. 50 Gramm differiert, ist es der gleiche Kühler.

Lowkey
2016-07-29, 18:02:36
Fragt den Igor:

Kommt es mir so vor oder sind die Kühler der aktuellen, neuen Karten allesamt größer? Wieso braucht eine 1060 quasi einen ähnlich langen Kühler wie eine 1080? Die ersten Bilder der 470 und 460 deuten auch auf relative Monsterkarten hin?

Hakim
2016-07-29, 18:03:24
Ok Danke

scully1234
2016-07-29, 18:06:18
Fragt den Igor:

Kommt es mir so vor oder sind die Kühler der aktuellen, neuen Karten allesamt größer? Wieso braucht eine 1060 quasi einen ähnlich langen Kühler wie eine 1080? Die ersten Bilder der 470 und 460 deuten auch auf relative Monsterkarten hin?


Ist vielleicht am Ende günstiger als zwei/drei oder noch mehr Designs aufzulegen:wink:

Eine Grossbestellung beim Zulieferer anstatt 20 kleinere ....

Rampage 2
2016-07-29, 18:06:23
Möglich... die Frage dabei ist bloß warum die Kompression bei Polaris nicht so gut greift? Kann man das über den Treiber noch optimieren? Mich verwundert auch die etwas schwache Performance von P10 in Far Cry: Primal. Gerade dort performen Furys und Grenadas sehr gut. Keine Ahnung was da bei Polaris noch klemmt. Aber dafür ist es der falsche Thread merke ich gerade. :freak:

PS: bei 4xMSAA limitieren eventuell die 32 ROPs.

Ähhh... 32 ROPs sind mehr als genug für 4xMSAA in einem Pass. Ich hatte früher vor Jahren mal irgendwo hier im 3DC gelesen, dass sogar nur 16 ROPs für 4xMSAA Single-Pass erforderlich sind - Ailuros behauptete aber im Jahr 2013, dass doch 32 ROPs für Single-Pass 4xMSAA nötig sind (bzgl. meiner Fragen zum Launch der GTX 760).

Dass bedeutet also im Umkehrschluss, dass die GTX 980 mit ihren vollen 64 ROPs sogar 8xMSAA in einem Pass schafft? :freak:

R2

Rampage 2
2016-07-29, 18:15:08
Ach ja, ähnliche Frage bzgl. der GTX 1060:

Angeblich soll sie ja nur 32 von ihren 48 ROPs nutzen können - bei 2GHz Boosttakt wären das dann nur 64 GPixel/sec. Füllrate!

Wie sieht die Sache aber aus, wenn mindestens 4xMSAA dazugeschaltet wird? Kann die 1060 wenigstens dann ihre volle Füllrate (96 GPixel/sec. bei 48 ROPs @ 2GHz) erreichen? Können auch SSAA- und OGSSAA-Modi von den zusätzlichen ROPs profitieren - also alle 48 ROPs ausnutzen?

Auf Antworten auf diese Fragen freue ich mich sehr:)

R2

(del)
2016-07-29, 18:34:39
Ist vielleicht am Ende günstiger als zwei/drei oder noch mehr Designs aufzulegen:wink:
Eine Grossbestellung beim Zulieferer anstatt 20 kleinere ....

Fragmentierung kostet zwar Geld, aber Tooling auch. Wenn man wie z.B. Gigabyte den defakto gleichen Kühler, jedoch mit anderen (und weniger) Heatpipes bringt, ist die Kostenersparnis sicher höher als mögliche Rabattierungen bei größeren Stückzahlen. Vor allem die Kompositpipes kosten, da lohnt es sich eher nicht.

Die MSI ist mit dem großen Kühler genial aber eben auch deutlich teurer als der Rest. So ein Kühler wie der der MSI 1080 Gaming X/Z kostet locker schon mal 30 bis 40 USD beim OEM, wenn man den einfachen der Gigabyte 1060 G1 Gaming für vielleicht 15 bsi 20 USD bekommt, ist das schon mal eine Ansage, die man bis zum Endkundenpreis durchgesteckt bekommt. Warum wohl hat Gainward die Heapipes hinten anpunkten lassen? Toolingkosten für den zweiteiligen Heatsink gespart, die Basisplatte kommt ultabillig einfach aus der Stanze.

Hermelinmaster
2016-07-29, 18:57:12
Bei den Artikel (bin mir nicht gabz sicher, aber könnte golem gewesen sein) zu der Entschädigung von nVidia an die 970 Käufer dtand eben, dass die 970 nur 56 ROPs für Pixel nutzbar hätte, der Rest würde bei MSAA helfen. Bedeutet, ja 16 der 48 ROPs der 1060 sind ebenfalls nutzbar, aber nur für MSAA (wie das mit anderen AA-Modi ausschaut, weiß ich nicht).
Was hat es mit dem Single-Pass auf sich?
Hier nochmal meine Frage aus dem RX480-Thread:
Kann mir mal jemand ein paar Eckdaten zum Framelock aufs Papier husten? Funzt das wie Vsync? Gibts da auch 1-3 Frames Latenzen? Wie sieht es mit tearing aus?

Rampage 2
2016-07-29, 21:09:27
Bedeutet, ja 16 der 48 ROPs der 1060 sind ebenfalls nutzbar, aber nur für MSAA (wie das mit anderen AA-Modi ausschaut, weiß ich nicht).


Heißt das aber auch automatisch, dass auch die theoretische Füllrate (96 GPixel/sec. bei 48 ROPs) wirklich erreicht wird? Kann ja vielleicht sein, dass bei MSAA zwar alle 48 ROPs ausgelastet werden aber die Füllrate trotzdem nur bei 64 GPixel/sec. bleibt... (entsprechend 32 ROPs x 2GHz)


Was hat es mit dem Single-Pass auf sich?


(Achtung: das sind nur meine Vermutungen - müssen nicht den Fakten entsprechen!)

Ich glaube bei Single-Pass geht es darum, dass beispielsweise 4 AntiAliasing-Samples in einem Taktzyklus abgearbeitet werden können, wenn die Anzahl der ROP-Units hoch genug (nämlich mindestens 32 ROPs lt. Ailuros;)) ist. Wenn eine GPU beispielsweise nur 31 ROPs hat ("GPU 1"), dafür aber einen viel höheren Chiptakt, dann ist die letztendliche Füllrate zwar dennoch höher als bei einer GPU mit 32 ROPs @ niedrigerem Chiptakt ("GPU 2"); aber GPU1 wird dennoch zwei Taktzyklen für 4 AA-Samples brauchen, weil sie weniger als 32 ROPs zur Verfügung hat (nämlich 31). Ob das für die letztendliche Leistung überhaupt eine Rolle spielt - da habe ich keine Ahnung von;)

Natürlich gibt es keine GPU mit 31 ROPs; entweder 16, 24, 32 ROPs usw. - die 31 ROPs habe ich nur zur Verdeutlichung des Sachverhalts verwendet:wink:

R2

Match-Maker
2016-07-29, 22:08:57
Eigentlich hast du dir die Antwort schon selbst gegeben:
Wie soll 8xMSAA schneller als 4xMSAA sein?
Die zusätzlichen ROPs helfen nur den Einbruch zu verringern, die absolute Füllrate steigt damit natürlich nicht.

Hermelinmaster
2016-07-29, 23:01:06
Bedeutet, ja 16 der 48 ROPs der 1060 sind ebenfalls nutzbar, aber nur für MSAA

Hier hab ich ja geschrieben, das die überschüssigen ROPs nur für AA nutzbar sind, nicht für die Pixelfüllrate. Also 32 für Puxel aber 48 für MSAA.

Bedeutet das, das bei 8x und 64ROPs das genauso schnell läuft wie 32ROPs und 4x? Und macht das überhaupt was an der Gesamtperformance aus ob ein oder zwei Takte?
Erkennt man den Unterschied zwischen 2x, 4x und 8x?

Rampage 2
2016-07-30, 12:47:51
Eigentlich hast du dir die Antwort schon selbst gegeben:
Wie soll 8xMSAA schneller als 4xMSAA sein?
Die zusätzlichen ROPs helfen nur den Einbruch zu verringern, die absolute Füllrate steigt damit natürlich nicht.

Ich glaube, du hast mich falsch verstanden: die theoretisch maximale Füllrate sind 96 GPixel/sec. aber unter normalen Umständen können davon nur 64 GPixel genutzt werden (weil nur 32 ROPs ausgelastet werden). Meine Frage ist halt, ob die brachliegenden 32 GPixel/sec. wirklich genutzt werden sobald auch nur 2xMSAA dazugeschaltet wird bzw. sobald alle 48 ROPs ausgelastet sind. Kann ja sein, dass 48 genutzte ROPs ungleich die gesamte genutzte theoretische Füllrate bedeuten - das meine ich;)

R2

Troyan
2016-07-30, 12:55:06
Nein, können sie nicht. Die Karte kann nur 32 Pixel per Takt berechnen. Die ROPs liegen gründsätzlich brach.

-/\-CruNcher-/\-
2016-07-30, 13:06:53
Erstaunliche Preise ist selten das Nvidia ne schneller Karte für den selben Preis wie AMD verkauft.

Ehh oberflächlich schneller bei jetzigen Workloads sie hat auch Designtechnische Einbrüche gegenüber der GTX 970 vor allem innerhalb ihrer overall Shader Performance aber die Vorteile (Verbrauch) überwiegen hier die Nachteile, vor allem VRler werden mit der GTX 970 in Zukunft nicht mehr glücklich und auch hier schwächelt die 1060 ob Multi Projection das aussreichend kompensieren kann werden wir langsam sehen ;)

Hier hab ich ja geschrieben, das die überschüssigen ROPs nur für AA nutzbar sind, nicht für die Pixelfüllrate. Also 32 für Puxel aber 48 für MSAA.

Bedeutet das, das bei 8x und 64ROPs das genauso schnell läuft wie 32ROPs und 4x? Und macht das überhaupt was an der Gesamtperformance aus ob ein oder zwei Takte?
Erkennt man den Unterschied zwischen 2x, 4x und 8x?

Das kommt immer darauf an ein gutes TAA ersetzt allerdings heutzutage ein schlechtes 4x MSAA Workflow um weiten Performance/Leistung/Qualität die bei den Testpersonen ankommt im Spielverlauf (ABX Tests) ;)

Und den MSAA impact auf Nvidia merkt man sehr stark mit der Resolution Skalierung hier vor allem die GTX 970 die durch ihr bessonderes Design zusätzlich extreme Probleme bekommt wenn man die AA last nicht ordentlich in den Griff bekommt ;)

Nvidia hat FXAA,TXAA, MFAA und DSR nicht umsonst entwickelt ;)

@Format_C

Könnten wir die Daten hier nochmal mit 2xMFAA=4xMSAA und 2-4xTXAA sehen ? :)

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS84LzUvNTk5MDQ1L29yaWdpbmFsLzAxLUdUQVYtRkhE LUFWRy5wbmc=/r_600x450.png

Und Igor

das ist wirklich eine kritische sache

https://youtu.be/V54W4p1mCu4?t=351

(del)
2016-07-30, 15:49:15
@-/\-CruNcher-/\-
Ich mache die Benchmark-Suide leider nicht, die Images kommen aus den USA. Ich befürchte, dass man die Auswahl anstelle eines guten Balancings so gestaltet hat, dass durchweg Titel drin sind, deren Abläufe man automatisiert am besten steuern kann. Bequemlichkeit also, keine Präfenzen für Brand A oder N. Die hätten am liebsten sogar auf Witcher verzichtet, weil es Arbeit macht, eigene Savegames per Script laufen zu lassen - vor allen in Loops. Genau aus diesem Grund mache ich alles manuell und schei*e auf diesen Scriptmüll, weil ich jedesmal warte, bis die Temperaturen wieder oben sind. Außerdem werte ich weitaus mehr Runs aus.

Somit starte ich hier alles von Hand mit meinen eigenen Accounts, aber ich bin leider wegen der Vergleichbarkeit der Daten dazu verdonnert, genau diese Auswahl und Einstellungen zu nutzen, die man mir vorschreibt, weil man auch meine Daten drittverwendet. Wir haben offiziell insgesamt fünf(!) identische Benchtables dafür, ich extra noch zwei weitere eigene (identische), um die geforderten Stückzahlen zu schaffen.

Ich mag z.B. Cars als Benchmark überhaupt nicht, aber mir sind da die Finger gebunden. Aber zumindest haben wir es als Reviewer geschafft (Chris und ich), demnächst einige DX12-Titel mit reinzupressen. Dafür habe ich tagelang selbst programmiert, um solch unhandliche Software wie PresentMon etwas anwenderfreundlicher zu gestalten, damit auch die letzten Deppen hier im Firmenkonglomerat damit klarkommen. Purch ist ja nicht nur Tom's, da hängen z.B. auch die ganzen Notebook-Heinis mit dran, die darauf bestanden, dass alles auf eine 250 GB SSD passt und auf Knopfdruck abläuft. Globalisierung kann einen auch richtig krank machen :D

Den AA-Methoden-Vergleich finde ich interessant, aber Team Red fordert aktuell mal wieder volle Bereitschaft und vollen Einsatz - auch am Wochenende. Leider. Damit fällt das erst mal flach.

gmb
2016-07-30, 16:31:50
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-5.html


Fehlen auf der Seite die Benchmarks?

-/\-CruNcher-/\-
2016-07-30, 16:40:03
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-5.html


Fehlen auf der Seite die Benchmarks?

Scheinbar was falsch gelaufen mit dem CMS ;)

WC_ENTE
2016-07-30, 16:43:03
Bei mir fehlen die aber auch ohne Bockzeugs.:freak:

Match-Maker
2016-07-30, 16:46:29
Ich glaube, du hast mich falsch verstanden:Ich glaube, du hast mein Posting nicht verstanden: Wie Troyan auch sagte, liegt die maximale theoretische Füllrate bei 32 Pixel/Takt (2 GPCs à 16 Pixel/Takt). Kann ja vielleicht sein, dass bei MSAA zwar alle 48 ROPs ausgelastet werden aber die Füllrate trotzdem nur bei 64 GPixel/sec. bleibt... (entsprechend 32 ROPs x 2GHz)
Und wie ich schon gesagt habe, hast du dir die Antwort bereits selbst gegeben. ;)

die theoretisch maximale Füllrate sind 96 GPixel/sec. aber unter normalen Umständen können davon nur 64 GPixel genutzt werden (weil nur 32 ROPs ausgelastet werden). Meine Frage ist halt, ob die brachliegenden 32 GPixel/sec. wirklich genutzt werden sobald auch nur 2xMSAA dazugeschaltet wird bzw. sobald alle 48 ROPs ausgelastet sind. Ich zitiere mich mal:Wie soll 8xMSAA schneller als 4xMSAA sein?
Die zusätzlichen ROPs helfen nur den Einbruch zu verringern, die absolute Füllrate steigt damit natürlich nicht.


Kann ja sein, dass 48 genutzte ROPs ungleich die gesamte genutzte theoretische Füllrate bedeuten - das meine ich;)Richtig, siehe oben.

(del)
2016-07-30, 16:46:56
Scheinbar was falsch gelaufen mit dem CMS ;)

Das haben die Franzosen verbockt, mal wieder die Galerien umprogrammiert. Das Front-End ist neu und macht nur Probleme.
Den Franzosen fehlt, wie den Chinesen auch, gegenüber den Deutschen ein ganz wichtiges Chromosom: das Qualitäts-Chromosom. :D
System Maginot - darunter leiden wir seit Jahren :(

Die Seite kommt aber wieder. :D

Edit:
Ich habe jetzt einfach mal beim Amazon-Server den Cache für den Artikel gelöscht und siehe da.... sie ist wieder drin :P

-/\-CruNcher-/\-
2016-07-30, 17:00:34
Hoffe doch ihr added Quantum Brake zu eurer DX 12 (first try port list) das ganze Target ist schon sehr nice mit den 60 FPS gewählt Hitman DX 12 bin ich auf deine Presentmon results sehr gespannt immerhin ist es Real eine Katastrophe auf GTX 970 sowie GTX 1060 momentan mit den Extremen Sync aussetzern auf einem Mainstream System und naja DOOM da werdet ihr nicht drum rum kommen das genauso mit Vulkan zu adden.

TzdaOzxIsyI

Hier kann man Nvidias DX 11 MT Optimierung sehr gut in Action beobachten

Auf der GTX 1060 wird die CPU Utilization extreme hoch

100% auf allen 4 Cores sind keine seltenheit in dieser System Konfiguration wieder mal Nvidias treiber der vor allem die 60 FPS marke stabil hält wo AMDs treiber immernoch probleme hat selbst Oced die 60 FPS scheinbar stabil zu halten :)

Mit Nvidias treiber fallen aber laufend Render Probleme auf ;)

Geralts wechselnder Bart in den Cutscenes ist sehr witzig ;)

Raff
2016-07-30, 17:04:33
PS hoffe doch ihr added Quantum Brake zu eurer DX 12 (first try implementation) das ganze Target ist schon sehr nice mit den 60 FPS gewählt :)

Nach diversen Patches läuft das Ding auch recht rund. UWP-Benchmarking ist dennoch pain in the arse, bis jemand ein GUI für Presentmon veröffentlicht. Igor wird seins gewiss nicht rausrücken und mit meinen C#-Skills würde das längern dauern als einfach auf Microsofts überfällige Patches zu warten. :ugly:

MfG,
Raff

(del)
2016-07-30, 17:22:19
Nach diversen Patches läuft das Ding auch recht rund. UWP-Benchmarking ist dennoch pain in the arse, bis jemand ein GUI für Presentmon veröffentlicht. Igor wird seins gewiss nicht rausrücken und mit meinen C#-Skills würde das längern dauern als einfach auf Microsofts überfällige Patches zu warten. :ugly:
MfG,
Raff

PresentMon ließe sich sogar mit einigen wenigen Routinen und Declarations mit VBA aus Excel heraus starten lassen, denn die paar Loops, um eine Application ID zu bekommen, sind ja nun wirklich kein Hexenwerk. PresentMon dann ferngesteuert z.B. per Shortkey zu starten ist ebenfalls Pillepalle. Ob man das jetzt in jedwedem C oder VB oder sonstwas macht, ist sicher eher zweitranging. Da ich mal annehme, dass MS das für eher trivial hält, habe ich die Hoffnung auf eine offizielle GUI längst aufgegeben. Trotzdem ist das Tool, so wie es jetzt ist, echt eine Zumutung für jeden. :(

Das Problem sind wie immer die CSV-Dateien mit den Framelists. Eine schnelle Karte rendert im Run vielleicht 4000 frames, eine extrem langsame nur 400. Jetzt bringt das mal grafisch exakt zusammen auf eine gemeinsame Timeline. Lineare Interpolation bzw. Balancing/Weighting für, sagen wir mal, 1000 zu exportierende Listen-Werte, die man dann in einer gemeinsamen Charts-Grafik nutzen könnte, um die Kurven übereinander zu haben. DAS macht dann die eigentlich Arbeit, denn man darf ja auch die Spikes/Drops nicht verlieren :(

Kleiner Lacher für nebenbei:
Wenn ich PresentMon einzippe, will Defender es als potentiell unerwünschte Software sofort wieder löschen. :D

-/\-CruNcher-/\-
2016-07-30, 18:49:19
Zumal hat Presentmon nichts mit Microsoft zu tun sondern wurde von Intels Andrew Lauritzen entwickelt ;)

https://github.com/GameTechDev/PresentMon

Er bedient sich lediglich Microsofts ETW daten ;)

(del)
2016-07-30, 19:31:27
Ich weiß, aber MS als Kontrollfreak-Borg hat normalerweise Interesse an allem, um es in irgendeine Software zu assimilieren. Assi eben :D

scully1234
2016-08-01, 22:27:53
Hier mal ein kleiner Test der fuer VR geeigneten Karten in Raw Data einschliesslich der GTX1060

http://www.hardocp.com/article/2016/08/01/amd_nvidia_gpu_vive_vr_performance_in_raw_data/6#.V5-wFo9OKUk

kuj0n
2016-08-02, 14:34:29
Heute kam eine Karte! Ich sage eine, weil es nicht die war, die ich bestellt habe. Eine vom selben Hersteller, die aber nicht beim Händler gelistet ist. Eine, die nicht mal in der EU gelistet ist.

Eine, die es gar nicht geben dürfte...


Meine Damen und Herren, ich präsentiere Ihnen die Manli GeForce GTX 1060 "Founders Edition"! :confused: :eek: :ucrazy4:

https://abload.de/img/img_20160802_132608yrxni.jpg (http://abload.de/image.php?img=img_20160802_132608yrxni.jpg)

https://abload.de/img/img_20160802_13272085zen.jpg (http://abload.de/image.php?img=img_20160802_13272085zen.jpg)

https://abload.de/img/img_20160802_135438a3sbn.jpg (http://abload.de/image.php?img=img_20160802_135438a3sbn.jpg)

Auf Rückfrage war der Händler so erstaunt wie ich. Damit habe ich ehrlich gesagt nicht gerechnet. Mit Glück kann ich später etwas zur Lautstärke und allgemein zur Karte sagen.

Nun noch die Datenblätter, das zweite gehört offensichtlich zur Karte, die ich eigentlich bestellt hatte. Damit fällt wohl leider Zero-Fan-Modus raus. Hinzu kommt die fehlende Übertaktung und ein 8-pol statt eines 6-pol Anschlusses.

https://abload.de/img/datasheet-geforcegtx1v1yuz.jpg (http://abload.de/image.php?img=datasheet-geforcegtx1v1yuz.jpg)

https://abload.de/img/datasheet-geforcegtx15yls7.jpg (http://abload.de/image.php?img=datasheet-geforcegtx15yls7.jpg)

Wenn ihr Fragen habt, ich versuche sie später zu beantworten.


edit:

https://abload.de/img/gpuz_1m1umo.gif (http://abload.de/image.php?img=gpuz_1m1umo.gif)

https://abload.de/img/gpuz_2zhu7l.gif (http://abload.de/image.php?img=gpuz_2zhu7l.gif)

Da mein 8-pol Stecker nicht passt, betreibe ich sie gerade am 6-pol und schaue, ob ich noch einen Adapter bekomme. Wirklich leise ist sie nicht, aber nach Treiberinstallation ging die Lautstärke schon etwas runter.

https://abload.de/img/20160802160819_1ttobm.jpg (http://abload.de/image.php?img=20160802160819_1ttobm.jpg)

https://abload.de/img/20160802161109_1qhr4q.jpg (http://abload.de/image.php?img=20160802161109_1qhr4q.jpg)

Hakim
2016-08-02, 14:42:58
:D oh man. Schickst du zurück? Dürfte ja normal kein Problem darstellen.

Dimon
2016-08-02, 15:03:30
Um wieviel % ist das kärtle ungefähr schneller als eine gtx680?

Mfg

Ex3cut3r
2016-08-02, 15:15:05
ca. 90% beide @ stock.

kuj0n
2016-08-02, 15:23:32
:D oh man. Schickst du zurück? Dürfte ja normal kein Problem darstellen.
Mich hat der Kundenberater gleich gefragt ob ich auch mit einem Rabatt zufrieden wäre. Weiß ich noch nicht, kläre ich zum WE. Habe eigentlich was anderes zu tun.

Ex3cut3r
2016-08-02, 15:56:43
Hmm also ich weiß nicht, ist das überhaupt eine 1060? Der Kühler sieht aus wie der auf der 670 Referenz. Wo hast du die überhaupt gekauft wenn man fragen darf?

http://techreport.com/r.x/geforce-gtx-670/card-3q.jpg

(del)
2016-08-02, 17:00:10
Manli ist spezialisiert im Herstellen von "Referenzdesigns" :D
Dumm, dass sie das falsche Modell geschickt haben. Retoure.

Hakim
2016-08-02, 17:03:59
Schon eigenartig das die Founders Edition Like Version mit Stock Werten einen 8 Pin Anschluss hat, aber die OC Version mit 2 Lüftern nur über einen 6 Pin Anschluss :freak:

kuj0n
2016-08-02, 17:42:41
Hmm, schon eigenartig. Die Karte geht zurück, leider sind keine Austauschkarten vorhanden, somit heißt es weiter suchen.

Undertaker
2016-08-02, 19:28:20
Heute eine kam eine Karte! Ich sage eine, weil es nicht die war, die ich bestellt habe. Eine vom selben Hersteller, die aber nicht beim Händler gelistet ist. Eine, die nicht mal in der EU gelistet ist.

EINE, die es gar nicht geben dürfte...


Meine Damen und Herren, ich präsentiere Ihnen die Manli GeForce GTX 1060 "Founders Edition"! :confused: :eek: :ucrazy4:

https://abload.de/img/img_20160802_132608yrxni.jpg (http://abload.de/image.php?img=img_20160802_132608yrxni.jpg)

https://abload.de/img/img_20160802_13272085zen.jpg (http://abload.de/image.php?img=img_20160802_13272085zen.jpg)

https://abload.de/img/img_20160802_135438a3sbn.jpg (http://abload.de/image.php?img=img_20160802_135438a3sbn.jpg)

Auf Rückfrage war der Händler so erstaunt wie ich. Damit habe ich ehrlich gesagt nicht gerechnet. Mit Glück kann ich später etwas zur Lautstärke und allgemein zur Karte sagen.

Nun noch die Datenblätter, das zweite gehört offensichtlich zur Karte, die ich eigentlich bestellt hatte. Damit fällt wohl leider Zero-Fan-Modus raus. Hinzu kommt die fehlende Übertaktung und ein 8-pol statt eines 6-pol Anschlusses.

https://abload.de/img/datasheet-geforcegtx1v1yuz.jpg (http://abload.de/image.php?img=datasheet-geforcegtx1v1yuz.jpg)

https://abload.de/img/datasheet-geforcegtx15yls7.jpg (http://abload.de/image.php?img=datasheet-geforcegtx15yls7.jpg)

Wenn ihr Fragen habt, ich versuche sie später zu beantworten.


edit:

https://abload.de/img/gpuz_1m1umo.gif (http://abload.de/image.php?img=gpuz_1m1umo.gif)

https://abload.de/img/gpuz_2zhu7l.gif (http://abload.de/image.php?img=gpuz_2zhu7l.gif)

Da mein 8-pol Stecker nicht passt, betreibe ich sie gerade am 6-pol und schaue, ob ich noch einen Adapter bekomme. Wirklich leise ist sie nicht, aber nach Treiberinstallation ging die Lautstärke schon etwas runter.

https://abload.de/img/20160802160819_1ttobm.jpg (http://abload.de/image.php?img=20160802160819_1ttobm.jpg)

https://abload.de/img/20160802161109_1qhr4q.jpg (http://abload.de/image.php?img=20160802161109_1qhr4q.jpg)


Nanu, Vulkan jetzt merklich schneller als OpenGL? Gibt's neue Treiber? :confused:

StefanV
2016-08-02, 19:32:39
Nein, aber in der "richtigen Situation", war das schon immer der Fall.

kuj0n
2016-08-02, 19:54:03
Nanu, Vulkan jetzt merklich schneller als OpenGL? Gibt's neue Treiber? :confused:
Isch habn i3. Vielleicht beantwortet das deine Frage.

VooDoo7mx
2016-08-02, 20:00:00
ca. 90% beide @ stock.

Nein
Höchstens wenn die GTX 680 fps einbüßt weil der 2GB Speicher nciht reicht.
Ansonsten ist die 1060 knapp unter einer 980.
Da ich eine 680 und 980 hatte, kann ich sagen, dass die 980 nicht 90% schneller war.

Um die ursprüngliche Frage zu beantworten. Ich schätze die wird ca 60-70% schneller sein. Wenn die 680 nicht im Speicherlimit ist.

Btw: Manli ist ein Hersteller der eigentlich nur im asiatischen Raum vertreten ist. Die haben auch AMD Karten im Programm.

kuj0n
2016-08-02, 20:05:57
Nein
Höchstens wenn die GTX 680 fps einbüßt weil der 2GB Speicher nciht reicht.
Ansonsten ist die 1060 knapp unter einer 980.
Da ich eine 680 und 980 hatte, kann ich sagen, dass die 980 nicht 90% schneller war.

Um die ursprüngliche Frage zu beantworten. Ich schätze die wird ca 60-70% schneller sein. Wenn die 680 nicht im Speicherlimit ist.

Btw: Manli ist ein Hersteller der eigentlich nur im asiatischen Raum vertreten ist. Die haben auch AMD Karten im Programm.
Manli ist ein Tochterunternehmen von PC Partner, die neben Manli u.a. auch die Marken Inno3D und Zotac produzieren.

Hakim
2016-08-02, 20:25:40
Um wieviel % ist das kärtle ungefähr schneller als eine gtx680?

Mfg


Die GTX680 hat hier einen Perf Index von 360%, die 1060 einen Wert von 590%.

Ex3cut3r
2016-08-02, 20:40:19
Nein
Höchstens wenn die GTX 680 fps einbüßt weil der 2GB Speicher nciht reicht.
Ansonsten ist die 1060 knapp unter einer 980.
Da ich eine 680 und 980 hatte, kann ich sagen, dass die 980 nicht 90% schneller war.

Um die ursprüngliche Frage zu beantworten. Ich schätze die wird ca 60-70% schneller sein. Wenn die 680 nicht im Speicherlimit ist.

Btw: Manli ist ein Hersteller der eigentlich nur im asiatischen Raum vertreten ist. Die haben auch AMD Karten im Programm.

Nein. Es sind 90% Schau dir den CB Performance Index an mit FHD da ist noch eine GTX 770 drin.

Dimon
2016-08-02, 21:38:13
Vielen dank jungs! Wird wohl eine GTX 1060 bis zum nächsten jahr :biggrin:

Rancor
2016-08-03, 10:30:49
Nein, aber in der "richtigen Situation", war das schon immer der Fall.

Seitdem jüngsten Doom Patch legen die NVs unter Vulkan nochmal zu. Hat Dildo4u selbst mit seiner 970 bemerkt.

Vllt. sollte das nochmal jemand richtig testen, bzw validieren.

Hakim
2016-08-04, 12:27:46
Sieht ja derzeit nicht gut aus bezüglich Verfügbarkeit, hier und da haben noch vereinzelt Shops welche, für 279€ bekommt man derzeit nichts. Mindfacotry hat nicht einen einzigen auf Lager. Amazon gibt schon für die MSI Gaming X den status in 1-2 Monaten.

Hakim
2016-08-06, 13:28:54
Kein Bock mehr noch länger zu warten, hab mir die GW Phoenix bestellt. Behalte mir aber die Option, falls mir was nicht gefallen sollte, die Karte zurück zu schicken und mir die Jetstream/Phoenix 1070 zu kaufen. Denke für meine zwecke, Doom, GTA5, W3, CSGO und Blizzard zeuch sollte die 1060 auf 1080p-1440p ausreichend sein.

Loeschzwerg
2016-08-06, 13:33:23
Ich warte noch auf P/L der RX 460 und je nachdem wird es dann eine kleine GTX 1060. Für deine Zwecke reicht die Karte bombig.

Troyan
2016-08-06, 13:47:09
Die RX 460 wird wohl zwischen 130€ bis 150€ kosten und weniger als die Hälfte an Leistung zur GTX1060 bringen:
Sapphire 4Gb mit 1250Mhz erreicht 2600 Punkte im FireStrike Extreme: https://uploads.disquscdn.com/images/b1c7fd04a09fc654769203cb49113708a2701e32b0485bca44230c927fd0c297.jpg
GTX1060FE erreicht 6100 Punkte im FireStrike Extreme: http://www.guru3d.com/articles_pages/geforce_gtx_1060_review,28.html

Selbst bei 130€ wäre das P/L Verhältnis der GTX1060 immer noch besser...

Loeschzwerg
2016-08-06, 13:55:21
Danke :( Deswegen hätte ich da gerne den vollen P11 gesehen.

kuj0n
2016-08-06, 14:04:39
Kein Bock mehr noch länger zu warten, hab mir die GW Phoenix bestellt. Behalte mir aber die Option, falls mir was nicht gefallen sollte, die Karte zurück zu schicken und mir die Jetstream/Phoenix 1070 zu kaufen. Denke für meine zwecke, Doom, GTA5, W3, CSGO und Blizzard zeuch sollte die 1060 auf 1080p-1440p ausreichend sein.
Mir geht es auch so, kann aber auch noch nicht so recht entscheiden.

Momentane Favoriten:
http://geizhals.de/evga-geforce-gtx-1060-sc-gaming-06g-p4-6163-kr-a1479077.html?hloc=at&hloc=de

Die Karte hat ein neues Bios bekommen, welches Zero-Fan-Mode mit sich bringt und auch unter Last für weniger Lautstärke sorgt. Dazu die Garantiebedingungen.

Oder: http://geizhals.de/msi-radeon-rx-480-gaming-8g-a1482969.html?hloc=at&hloc=de

Bisher nur bei einem Händler gelistet und soll erst Ende August kommen.

Gibt es schon was Neues zu AC bei Nvidia?

Hakim
2016-08-06, 14:08:35
@kuj0n die MSI RX480 ist bestimmt sehr gut, wenn du solange warten kannst (25.08.2016 lauft cyberport), für 300€ auch relativ günstig. Die Mini EVGA ist aber auch gut, hatte ein YT Video gesehen wo sie ordentlich abgeschnitten hat.

kuj0n
2016-08-06, 14:16:08
Ich hatte mich bei der Referenz 1060 erschrocken wie lang sie doch ist und wieviel Platz sie weg nimmt. Mit der SC dürfte das kein Problem sein. Momentan liegt es wirklich nur noch daran welche zuerst erscheint.

Die EVGA laut Caseking und am 12. wie du sagst am 25. die MSI. FPS hatte ich mit Vulkan in Doom auch schon mehr als unter OpenGL, die 480 ist hinten raus vielleicht besser, muss aber noch idle und Videokram Verbrauch besser hin bekommen.

Hakim
2016-08-06, 14:18:52
Eine Frage bezüglich Dual Bios bei den Jetstreams/Phoenix Karten, kann man beim Flashen aussuchen welches Bios überschrieben werden soll? Wenn ich mit dem ersten Bios Experimentiere und etwas läuft schief, könnte ich zum zweiten Bios switchen und von da aus da das erste Flashen?

Loeschzwerg
2016-08-06, 14:43:05
Wenn du an Bios #1 herumspielst und es z.B. kaputt flasht, dann schaltest du einfach auf Bios #2 und bootest mit diesem Windows. Unter Windows switcht du dann im laufenden Betrieb auf Bios #1 und flasht es mit der Backup .rom.

Raff
2016-08-06, 14:45:33
Das geht? :| Die Änderung wird doch gar nicht übernommen, wenn man mitten im Betrieb wechselt. Ich habe das aus diesen Gründen nie versucht.

MfG,
Raff

Loeschzwerg
2016-08-06, 14:50:29
Das neu geflashte Bios wird während dem Betrieb auch nicht aktiv, du beschreibst damit lediglich den ROM Bereich auf dem gerade der Schalter steht.
Hat zumindest so problemlos bei meiner ehemaligen Fury funktioniert.

Hakim
2016-08-06, 14:54:44
Wenn du an Bios #1 herumspielst und es z.B. kaputt flasht, dann schaltest du einfach auf Bios #2 und bootest mit diesem Windows. Unter Windows switcht du dann im laufenden Betrieb auf Bios #1 und flasht es mit der Backup .rom.

Danke, klingt aber etwas abenteuerlich :)

Megamember
2016-08-06, 14:58:41
Danke, klingt aber etwas abenteuerlich :)

Überhaupt nicht, das ist übliche Praxis und ungefährlich.

Digidi
2016-08-06, 15:01:33
Seitdem jüngsten Doom Patch legen die NVs unter Vulkan nochmal zu. Hat Dildo4u selbst mit seiner 970 bemerkt.

Vllt. sollte das nochmal jemand richtig testen, bzw validieren.

http://www.tomshardware.com/reviews/nvidia-titan-x-12gb,4700-4.html

@Kujon
Richtiges AC wird laut meiner Meinung bei Nvidia niemals kommen, brauch es auch nicht. Der Chip wurde nicht für die Parallel Abarbeitung von Compute und Grafik entwickelt. Nvidia geht den Weg der schnellen Seriellen Verarbeitung der Befehlsketten. Deshalb auch de hoch angestrebte Takt und die geringe anzahl an Shadereinheiten. Der hohe Takt kommt Nvidia's Architektur sehr entgegen.

Loeschzwerg
2016-08-06, 15:29:59
Danke, klingt aber etwas abenteuerlich :)

Die Alternative ist der Flash mit der IGP oder einer anderen PCIe Karte als "Master Grafikkarte".

Hakim
2016-08-10, 20:20:00
Letzte Woche bestellt und warte immer noch auf meine Grafikkarte :redface: , obwohl zwischenzeitlich welche lauf Mindfactory Status auf Lager waren, war wohl das Geld noch nicht eingegangen. Hab jetzt mal die Bestellung auf die Jetstream umgeändert weil bei denen "Bestellt" steht und beim GW Phoenix "Ohne Liefertermin". Ich glaub das Schicksal will einfach das ich mir eine 1070 hole :tongue: . Ich warte bis Wochenende, wenn nichts kommt wird es wohl wirklich eine 1070

kuj0n
2016-08-10, 20:35:21
Alternate hat am Montag die EVGA 1060 SC (http://geizhals.de/evga-geforce-gtx-1060-sc-gaming-06g-p4-6163-kr-a1479077.html?hloc=at&hloc=de) rein bekommen, meine ging heute raus und kommt hoffentlich morgen an. Die Karte wandert gerade vom Wareneingang zum Lager, daher wird dort noch keine Verfügbarkeit angezeigt. Zumindest hat man mir das am Telefon so gesagt. Und die Lieferung soll durchaus etwas größer sein.

Wenn die Karte was für dich wäre mal anrufen und nachfragen. Falls meine kommt, schreibe ich morgen etwas zu der Karte.

Hakim
2016-08-10, 20:52:46
Ja kannst ja berichten, ist ja hier kaum was los im Thread :). Ich hab eigentlich genug Platz im Tower, muss also nicht drauf achten das die Karte klein ist, die beiden Dual Lüfter Versionen von Evga hatte ich auch im Auge, aber da tut sich ja gar nix derzeit, seit Wochen nur 1-2 Shops die es gelistet haben.

BgF
2016-08-10, 21:32:42
Hab jetzt mal die Bestellung auf die Jetstream umgeändert
Kann man eigentlich nichts mit falsch machen. Unter Last ist sie quasi unhörbar.
Mit der Backplate ist sie allerdings furchtbar breit. Zwischen der Karte und dem NH D14 ist vielleicht noch 2mm Platz. Ich habe keinen blassen Schimmer wie ich die Karte jemals wieder rausbekommen soll :upara:

kuj0n
2016-08-11, 15:57:50
EVGA GeForce GTX 1060 SC Gaming, 6GB
http://eu.evga.com/articles/01036/evga-geforce-gtx-1060/

Die Superclocked Variante kommt mit höheren Taktraten (Base Clock: 1607 MHZ, Boost Clock: 1835 MHz) und besserem Kühler (Kupferkern, Heatpipe).
Spezifikationen: http://www.evga.com/Products/Specs/GPU.aspx?pn=5FA28D37-0FB1-42BE-8B9B-04223CB59D85

EVGA hat der Karte ein neues BIOS mit Zero-Fan-Mode spendiert. Damit herrscht Ruhe in 2D und auch die Lautstärke unter Last senkt sich. Um hier wirklich Ruhe zu haben gibt es zum einen ein Quiet Setting, besser ist es aber selbst Hand an die Lüfterkurve zu legen.

http://forums.evga.com/EVGA-GeForce-GTX-1060-BIOS-Update-Single-Fan-Models-Only-m2520978.aspx
http://www.legitreviews.com/nvidia-evga-geforce-gtx-1060-video-card-review_184301/11

Temperaturen Idle
https://abload.de/img/evga1060scansw1.jpg (http://abload.de/image.php?img=evga1060scansw1.jpg)

Temperaturen Last
https://abload.de/img/evga1060sc26jsce.jpg (http://abload.de/image.php?img=evga1060sc26jsce.jpg)

Mit Quiet Setting und/oder ein wenig Nachjustierung
https://abload.de/img/evga1060sc3znszs.jpg (http://abload.de/image.php?img=evga1060sc3znszs.jpg)

Komplett Max mit Hairworks
https://abload.de/img/w3t5syo.jpg (http://abload.de/image.php?img=w3t5syo.jpg)


Erster Eindruck

Die Karte und der Kühler mit seiner Kupferheatpipe sind wirklich hochwertig verarbeitet. Die zehn Euro Aufpreis zur normalen Version lohnen sich auf jeden Fall. Trotz ihrer kompakten Maße ist die 1060 SC nun lautlos im Idle und auch unter Last hält sich die Karte bisher angenehm zurück. Ein wenig Fummeln an der Lüftersteuerung musste aber sein.

Zum Wochenende kann ich bei Bedarf mehr sagen, momentan bin ich ganz angetan. (Und froh endlich eine vernünftige Karte zu haben.)

edit: Weiter unten noch Ergänzungen.

Ex3cut3r
2016-08-11, 16:04:09
:up: Viel spaß damit.

kuj0n
2016-08-11, 16:07:09
Danke. :D

dildo4u
2016-08-11, 16:12:16
Der Kühler ist wirklich erstaunlich effektiv,ich hab selber die 970 mit der verglichen wurde.Bei Witcher 3 sehe ich locker 1700 rpm bei 77°.

fulgore1101
2016-08-11, 16:35:27
Wieviel schneller ist denn eine 1060 als eine GTX 780 so ca.?

dildo4u
2016-08-11, 16:44:33
Wieviel schneller ist denn eine 1060 als eine GTX 780 so ca.?
http://www.anandtech.com/bench/product/1718?vs=1771

Schaffe89
2016-08-11, 16:56:41
Zum Wochenende kann ich bei Bedarf mehr sagen, momentan bin ich ganz angetan.

Kann über die Zotac Mini in etwa das gleiche sagen, auch wenn diese Karte den Lüfter im Idle nicht abstellt, ist die GTX 1060 generell auch mit so kompakten Kühlern relativ leise und kühl.

Hakim
2016-08-11, 17:03:32
Ja sieht sehr gut aus. Schon erstaunlich wie gut der Chip bei der Größe des Kühlers gekühlt wird, aber sind ja auch nur 120W stock :).

Mein Jetstream ist jetzt endlich auch verschickt worden. Ich überlege auf einem der 2 Biose einfach die Super Jetstream Firmware zu flashen. OC sollte so genug vorhanden sein ohne das ich noch mit Afterburner oder PrecisionX nachjustieren muss. Überlege nur ob das ohne so weiteres geht?

-/\-CruNcher-/\-
2016-08-11, 17:09:43
Der Kühler ist wirklich erstaunlich effektiv,ich hab selber die 970 mit der verglichen wurde.Bei Witcher 3 sehe ich locker 1700 rpm bei 77°.

Ja bei den Kühlern haben sie alle durch die Bank weg nicht so gespart wie noch bei der GTX 970 *grml*

Durch die Bank Weg eine effizientere GTX 970 bzw ein effizienterer GM204 28nm in 16nm für den selben Preis wie 2014 ;)

2 Jahre später gibt es + 2.5 GB + updated Video DSP + Multiprojection + etwas verbessertes Async Compute + DCE update + weniger Verbrauch für den selben Preis in form des GP106.

Loeschzwerg
2016-08-11, 17:25:30
Immerhin ohne den Flaschenhals beim Speicher :)

Danke @ kuj0n für den Ersteindruck. Es kribbelt wirklich in den Fingern. Momentan schiele ich noch auf die kleine Karte von inno3D. Bis Q4 wollte ich aber noch stark bleiben... will mir noch die Radeon Pro WX4100 anschauen (Ich hoffe auf einen Test von Igor).

-/\-CruNcher-/\-
2016-08-11, 17:36:26
Nvidias DCE macht schon einiges wett die 6GB sind aussreichend an der Edge wieder einmal ohne den Zugriffsflaschenhals natürlich besser und mit SSD sollte man es fast garnicht merken :D

Allerdings sieht der direkte vergleich nicht mehr so vorteilhaft gegen AMD aus der Abstand ist wieder geschrumpfen und die Verbrauchs differenz ist nicht mehr so extreme und die jeweiligen Vorteile/Nachteile schiften mehr in Balance als jemals zuvor das wird in Zukunft sehr spannend ;)

Wenn AMD es schaft Boost DCE und UVD/VCE mit Vega Release weiter zu verbessern wäre das schon nicht schlecht bis dahin was das zeug geht Treiber Optimierung mit den eingehenden Polaris daten :D

kuj0n
2016-08-11, 18:06:25
Verzeiht die Bilder, schnell mit dem Nexus 4 vorm Einbau gemacht:

https://abload.de/img/img_20160811_135248dwkye.jpg (http://abload.de/image.php?img=img_20160811_135248dwkye.jpg)

https://abload.de/img/img_20160811_1348076akwy.jpg (http://abload.de/image.php?img=img_20160811_1348076akwy.jpg)

Kühler mit Kupferkern und -heatpipe.
https://abload.de/img/img_20160811_135137eguix.jpg (http://abload.de/image.php?img=img_20160811_135137eguix.jpg)

Meine "Custom Lüfterkurve", in WoW komplett leise. Anderes muss ich noch testen, aber wesentlich besser als out of the box.
https://abload.de/img/scgwklo.jpg (http://abload.de/image.php?img=scgwklo.jpg)

Achtet mal auf den Stromverbrauch vom Chip in WoW. :eek: Hab Invasionen gemacht mit 50-100 Leuten aufm Boss und Animationen ohne Ende. Der hatte schon ein bisschen was zu tun. Ingame Einstellungen sind so gut wie alle auf Maximum.
https://abload.de/img/wowaekp2.jpg (http://abload.de/image.php?img=wowaekp2.jpg)

Grendizer
2016-08-11, 18:10:11
Mach mal vsync an und wundere dich *g*. Hast du Renderskalierung auf 200 ? Das habe ich wieder rausgenommen.

Fusion_Power
2016-08-11, 18:16:23
Na, das ist aber auch ne knuffige kleine Karte. Ein einzelner Fan reicht also aus um ne GTX 1060 (leise) zu kühlen. Das würde sich gut in meinem Mini-ITX Gehäuse machen, wo es zugegeben etwas enger und kuscheliger zugeht als in meinem alten Midi-Tower. Da wurde die derzeit noch benutzte GTX 560 nur so 65° warm beim Overwatch zocken, jetzt im Mini-ITX-Kübel sinds schon knapp 75°, zugegeben bei stabilen FPS im Gegensatz zu meiner alten Möre.

kuj0n
2016-08-11, 18:34:43
Mach mal vsync an und wundere dich *g*. Hast du Renderskalierung auf 200 ? Das habe ich wieder rausgenommen.
Kann ich gerade nicht, was passiert dann? :freak: Renderskalierung ist auf 100% und meine Auflösung ist auch nur potato äh 1680x1050. Natürlich nicht sonderlich fordernd, aber scheinbar dankt sie es mit weniger Stromverbrauch.

edit: Wo wir von Kübeln sprechen, kuschelig hat es die Karte auch. (Und ich will nichts zum CS 601 oder meinem grandiosen Kabelmanagement hören.)
https://abload.de/img/img_20160811_183605adu62.jpg (http://abload.de/image.php?img=img_20160811_183605adu62.jpg)

Temperaturen sind aber ganz ok.
https://abload.de/img/sensy5u3l.jpg (http://abload.de/image.php?img=sensy5u3l.jpg)

Doom Temperaturen nach 15 Minuten zocken. Hab die Lüfterkurve nochmal 5% nach oben gesetzt. Denke aber 75°C sollten kein Problem sein. Leise bleibt sie so zumindest.
https://abload.de/img/doomvvs8i.jpg (http://abload.de/image.php?img=doomvvs8i.jpg)

https://abload.de/img/20160811190324_1m5s9w.jpg (http://abload.de/image.php?img=20160811190324_1m5s9w.jpg)

edit2:

Nach einer Witcher Quest.
https://abload.de/img/unbenasdtnntl2ucn.jpg (http://abload.de/image.php?img=unbenasdtnntl2ucn.jpg)

https://abload.de/img/unbenannt11u9v.jpg (http://abload.de/image.php?img=unbenannt11u9v.jpg)

Ex3cut3r
2016-08-11, 18:36:22
1680x1050? Süß :biggrin: Du solltest dir als nächstes einen neuen Monitor holen. :wink:

Grendizer
2016-08-11, 18:37:51
Kann ich gerade nicht, was passiert dann? :freak: Renderskalierung ist auf 100% und meine Auflösung ist auch nur potato äh 1680x1050. Natürlich nicht sonderlich fordernd, aber scheinbar dankt sie es mit weniger Stromverbrauch.


Meine 1070 taktet bei 60 hz auf 950 Mhz runter und wird lautlos

kuj0n
2016-08-11, 18:55:22
1680x1050? Süß :biggrin: Du solltest dir als nächstes einen neuen Monitor holen. :wink:
Mein Wunschzettel ist nicht gerade kurz, das stimmt schon. Vielleicht nächstes Jahr mit Zen, bei meinem Unterbau macht das noch keinen Sinn.

Meine 1070 taktet bei 60 hz auf 950 Mhz runter und wird lautlos
Haha, ok. Die gepimpte Lüfterkurve sorgt aber auch für Ruhe unter Last. Ich quäle die Karte jetzt mal mit Doom und Blood & Wine. Da bleibt sie bestimmt nicht so ruhig. Bin gespannt was die Temperaturen sagen werden.

Ex3cut3r
2016-08-11, 19:22:09
Hoffe das Bild täuscht, der Macho sieht schief aus. :freak: :biggrin: Ansonsten ja schön kuschelig. :cool:

kuj0n
2016-08-11, 19:34:17
Der ist auch leicht schief, nur minimalst. Nicht so krass wie auf dem Bild. Frag mich nicht warum, vor zwei Wochen noch die WLP getauscht.

Hakim
2016-08-11, 19:36:01
Wollte gerade schreiben das du ja in die Länge ausreichend platz für was größeres gehabt hättest, aber der Sata Anschluss der zu Seitenwand gerichtet ist :). Die 2,5 Slot Karten wären wohl auch ein Problem wegen der Steckkarte darunter. Von daher scheint die Karte ideal für dich zu sein.

BlacKi
2016-08-11, 19:54:23
Achtet mal auf den Stromverbrauch vom Chip in WoW. :eek: Hab Invasionen gemacht mit 50-100 Leuten aufm Boss und Animationen ohne Ende. Der hatte schon ein bisschen was zu tun. Ingame Einstellungen sind so gut wie alle auf Maximum.
https://abload.de/img/wowaekp2.jpg (http://abload.de/image.php?img=wowaekp2.jpg)
bisschen kommt hin, ca 30-50% gpu load^^ komplett im cpu limit^^

kuj0n
2016-08-11, 20:14:41
bisschen kommt hin, ca 30-50% gpu load^^ komplett im cpu limit^^
Hmm, da WoW aber nur zwei Kerne effektiv nutzt, macht ein Komplettwechsel für mich erst mit Zen Sinn.

Fusion_Power
2016-08-11, 20:28:10
edit: Wo wir von Kübeln sprechen, kuschelig hat es die Karte auch. (Und ich will nichts zum CS 601 oder meinem grandiosen Kabelmanagement hören.)
https://abload.de/img/img_20160811_183605adu62.jpg (http://abload.de/image.php?img=img_20160811_183605adu62.jpg)

Mein alter Tower war ein klassisches CS601! :D Im gegensatz zu meinem neuen Gehäuse war darin Platz wie in nem Fußballstadion. In meinem neuen Cooler Master Elite 130 (http://geizhals.de/cooler-master-elite-130-rc-130-kkn1-a969669.html) sitzt die Graka zudem aufrecht und bekommt direkt Luft von außen durch die Seitenwand, recht praktisch. Eigentlich darf die gar nicht so heiß werden aber ich vermute einfach mal, früher war die GraKa durch den ollen Core2Quad und DDR2 RAM limitiert und wurde deshalb nicht warm. Jetzt sind bei gleichen Ingame Settings die FPS auf Anschlag.

Hier mein Gehäusemodell, da passen theoretisch noch ganz andere GraKa Kaliber rein als meine, die ist nur 24cm lang.

http://gzhls.at/p/9669/969669/969669-8.jpg

Ich hab da sowas wie ne GTX1050 im Kopf die sicher unter 100W TDP haben wird und den PC nochmal um einiges kühler machen sollte ohne große Verrenkungen.

kuj0n
2016-08-11, 20:31:45
Ich schiele seit zwei Jahren auf das M1 (https://www.ncases.com/). Ob das mal passiert weiß ich noch nicht, Geld wächst ja nicht aufm Baum und je älter ich werde, desto lieber gebe ich es für etwas anderes aus. Die SC würde natürlich auch da gut rein passen. ;)

Hakim
2016-08-13, 13:13:43
Meine Jetstream ist jetzt endlich auch da, und obwohl es ja etwas kleiner als die 70/80 ist, ist es dennoch schon ein Klotz in der Hand. Meine Evga 660TI FTW Signature 2 was für weitaus mehr TDP ausgelegt war sieht dagegen zurück haltend aus.

Linmoum
2016-08-13, 15:10:41
https://www.computerbase.de/2016-08/geforce-gtx-1060-3-gbyte-1152-shader/

Wohl etwas höherer Takt, dafür nur 3GB und 10% weniger an Shadern. Naja, wird wohl trotzdem genug uninformierte geben, die sich sowas trotzdem holen.

Die Karte ebenfalls als 1060 zu verkaufen kommt dann noch hinzu.

Fusion_Power
2016-08-13, 15:45:34
https://www.computerbase.de/2016-08/geforce-gtx-1060-3-gbyte-1152-shader/

Wohl etwas höherer Takt, dafür nur 3GB und 10% weniger an Shadern. Naja, wird wohl trotzdem genug uninformierte geben, die sich sowas trotzdem holen.

Die Karte ebenfalls als 1060 zu verkaufen kommt dann noch hinzu.
Wenn der Preis stimmt...
Aber gleicher TDP? Nee, das wird nix für meinen Stromspar-PC, da warte ich lieber auf die 1050 und suche mir dann das schnellste Modell davon aus, ne TI oder was auch immer die planen rauszubringen.

Loeschzwerg
2016-08-13, 16:00:34
https://www.computerbase.de/2016-08/geforce-gtx-1060-3-gbyte-1152-shader/

Wohl etwas höherer Takt, dafür nur 3GB und 10% weniger an Shadern. Naja, wird wohl trotzdem genug uninformierte geben, die sich sowas trotzdem holen.

Die Karte ebenfalls als 1060 zu verkaufen kommt dann noch hinzu.

Könnte auch eine reine OEM oder Asien Geschichte sein. Muss man mal abwarten.

Mike
2016-08-13, 16:02:28
Wenn der Preis stimmt...
Aber gleicher TDP? Nee, das wird nix für meinen Stromspar-PC, da warte ich lieber auf die 1050 und suche mir dann das schnellste Modell davon aus, ne TI oder was auch immer die planen rauszubringen.
Wenn einem Preis/Grafikleistung weniger wichtig ist, dafür Grafikleistung/elektrische Leistung mehr, dann ist die 1060 womöglich gar nicht schlecht, wenn man das Power Target senkt. Dazu müsste man mal Tests durchführen, wie sich das auf die Energieeffizienz auswirkt...

Spasstiger
2016-08-13, 16:20:01
Mich erstaunt, dass NV die kleinere GTX 1060 nicht gleich mit 4 GB und asymmetrisch bestückten Speicherinterfaces bringt, wenn man eh schon die Shadercluster beschneidet. Für eine OEM-Karte wäre das konsequent. Aber offenbar hat NV teilweise aus der Vergangenheit gelernt und lässt bei Pascal nix in Bezug auf die Speicheranbindung anbrennen.
Mit nur 3 GB wird die Karte imo selbst bei den OEMs einen schweren Stand haben, das ist für die Gaming-Mittelklasse nicht auf der Höhe der Zeit.

dildo4u
2016-08-13, 16:35:22
Für die ganzen E-Sports/Blizzard Games reicht das dicke,denke mal darauf ist die ausgerichtet daher die Vorstellung in Asien.Selbst Overwatch läuft damit 1A.

Linmoum
2016-08-13, 17:09:43
Für sowas braucht man keine 200€+ Karte.

=Floi=
2016-08-13, 17:29:09
durch das gleiche powerbudget und weniger shader sollte die karte auch besser boosten. (wenn der kühler limitiert) Das ist das eigentlich kariose darann. die karte wird wahrscheinlich gleich schnell oder schneller sein.

VooDoo7mx
2016-08-13, 17:41:11
Wenn der Preis stimmt...
Aber gleicher TDP? Nee, das wird nix für meinen Stromspar-PC, da warte ich lieber auf die 1050 und suche mir dann das schnellste Modell davon aus, ne TI oder was auch immer die planen rauszubringen.

Die 120W sind aber nicht TDP sondern PowerTarget, also das was die Karte maximal verbrauchen darf. Der verbrauch kann da je nach Spiel und Auslastung deutlich drunter liegen. Wenn Die Karte das Power Target erreicht, senkt sie Spannung und Frequenz damit die 120W auf keinen Fall überschritten werden.
Bei AMD Karten ist das ein TDP. Wenn da AMD sagt 150W typisch, kann die Karte auch mal locker 170W ziehen.

Das ist ein riesiger Unterschied und dies sollte man nicht untereinander vermischen.
Des weiteren lässt sich bei nVidia Karten seit Jahren das Power target beschränken. Wenn man möchte das eine 1060 nicht mehr als 100W zieht, stellt man das Power target auf 83%. Die Karte justiert sich dann komplett automatisch.
Zusätzlich kann man bei Pascal Karten über GPU Boost auch noch in zig einzelnen Stufen die Spannungen anpassen und undervolten. Meine Tests mit mit GTX 1080 und Titan X haben gezeigt, dass da einiges möglich ist. Meine Titan X macht mit 0,8V 1759MHz bei ~170W Verbrauch. Für so ein Geschoss ist das schon eine ordentliche Hausnummer.
Eine volle 1060 sollte locker die 2GHz bei 0,9V knacken und damit unter 100W bleiben. Beide Maßnahmen lassen sich auch kombinieren. (Undervolting mit Pwer Target beschrenkung)Leider hab ich keine 1060 da um das auch mal zu testen. Ich würde das auch gerne mal bei der 1060 tun aber nur dafür so eine Karte zu bestellen, ist auch scheiße.
1060 User scheinen sich nicht so dafür zu interessieren wie bei 1070/1080/Titan X.

Und wenn du einen Stromspar PC bauen willst, mit trotzdem ordentlich Dampf, führt kein Weg an nVidia Pascal vorbei. Mit manueller Feinjustierung lässt sich da einiges rausholen. Siehe diesen Thread hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892).

Hakim
2016-08-13, 18:55:05
Die Gehäuse Lüftung reicht bei mir tatsächlich aus die jetstream bei Diablo knapp unter 50 grad zu halten (vsync an) und damit mit stehenden Lüftern (Stock). Ab und an an sehe ich kurz die 50, geht dann aber sofort wieder runter

Fusion_Power
2016-08-13, 21:35:01
Die 120W sind aber nicht TDP sondern PowerTarget, also das was die Karte maximal verbrauchen darf. Der verbrauch kann da je nach Spiel und Auslastung deutlich drunter liegen. Wenn Die Karte das Power Target erreicht, senkt sie Spannung und Frequenz damit die 120W auf keinen Fall überschritten werden.
Bei AMD Karten ist das ein TDP. Wenn da AMD sagt 150W typisch, kann die Karte auch mal locker 170W ziehen.

Das ist ein riesiger Unterschied und dies sollte man nicht untereinander vermischen.
Des weiteren lässt sich bei nVidia Karten seit Jahren das Power target beschränken. Wenn man möchte das eine 1060 nicht mehr als 100W zieht, stellt man das Power target auf 83%. Die Karte justiert sich dann komplett automatisch.
Zusätzlich kann man bei Pascal Karten über GPU Boost auch noch in zig einzelnen Stufen die Spannungen anpassen und undervolten. Meine Tests mit mit GTX 1080 und Titan X haben gezeigt, dass da einiges möglich ist. Meine Titan X macht mit 0,8V 1759MHz bei ~170W Verbrauch. Für so ein Geschoss ist das schon eine ordentliche Hausnummer.
Eine volle 1060 sollte locker die 2GHz bei 0,9V knacken und damit unter 100W bleiben. Beide Maßnahmen lassen sich auch kombinieren. (Undervolting mit Pwer Target beschrenkung)Leider hab ich keine 1060 da um das auch mal zu testen. Ich würde das auch gerne mal bei der 1060 tun aber nur dafür so eine Karte zu bestellen, ist auch scheiße.
1060 User scheinen sich nicht so dafür zu interessieren wie bei 1070/1080/Titan X.

Und wenn du einen Stromspar PC bauen willst, mit trotzdem ordentlich Dampf, führt kein Weg an nVidia Pascal vorbei. Mit manueller Feinjustierung lässt sich da einiges rausholen. Siehe diesen Thread hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892).
Klingt gut aber ich hab davon keine Ahnung und will auch nicht wild an der hardware rumdoktern, davon abgesehen ist mir die reguläre 1060er (noch) zu teuer.
Sollte die kastrierte 1060er jedoch nen attraktiven Preis bekommen und immer noch deutlich oberhalb jeder 1050er performen, dann würdei ch auch so eine Karte ins Auge fassen. Es hieß ja auch mal dass diese "kleinen" 1060er dann zur 1050er werden aber das hat sich wohl doch als Ente rausgestellt, oder?

Troyan
2016-08-18, 15:07:00
Die 3GB ist nun offiziell von nVidia angekündigt worden.

Mindfactory hat Listungen. Startpreis wird wohl 219€ sein: http://www.mindfactory.de/search_result.php/search_query/gtx+1060/listing_sort/6

MikePayne
2016-08-19, 10:18:42
"Obacht bei Nvidias zweiter Geforce GTX 1060" golem.de (http://www.golem.de/news/pascal-grafikkarte-obacht-bei-nvidias-zweiter-geforce-gtx-1060-1608-122792.html)

Gleicher Name, weniger Leistung: Die neue Geforce GTX 1060 wurde verglichen mit ihrem Namensvetter gleich doppelt beschnitten. Je nach Spiel und Einstellung kann das einen großen Unterschied ausmachen, weshalb die Bezeichnung schlicht irreführend ist.

dildo4u
2016-08-19, 10:25:09
Die 480 mit 4GB heißt auch nicht anders und ruckelt sich bei Tomb Raider 2016 mit Very High Texturen genau so ein ab.Ich sehe hier kein Problem da die 3GB ganz klar ausgezeichnet sind,es ist selbst für ein Dau zu erkennen,das die Karte beschnitten ist.

Raff
2016-08-19, 10:27:55
Ich finde die klaren Worte gut. Gemein ist nämlich, dass eben nicht nur die Speichermenge anders ist, auch wenn sich das auf den ersten Blick so liest – der Chip ist auch beschnitten. Trotz gleichen Namens. Das ist keine 1060, sondern eine 1050 (oder, von mir aus, eine "1060 LE"). Hätte Nvidia sie so genannt, würde niemand motzen. In dieser Form stolpern aber möglicherweise unbedarfe Käufer über das Teil, freuen sich über den relativ geringen Preis ... und wundern sich dann, dass die Kiste langsamer ist als erhofft.

MfG,
Raff

MikePayne
2016-08-19, 10:27:57
Die 480 mit 4GB heißt auch nicht anders und ruckelt sich bei Tomb Raider 2016 mit Very High Texturen genau so ein ab.Ich sehe hier kein Problem da die 3GB ganz klar ausgezeichnet sind,es ist selbst für ein Dau zu erkennen,das die Karte beschnitten ist.


Der Videospeicher fasst 3 statt 6 GByte und statt 1.280 Shader-Einheiten gibt es nur noch 1.152 Rechenkerne, weshalb Geforce GTX 1055 (Ti) als Bezeichnung angebrachter wäre.
http://www.golem.de/news/pascal-grafikkarte-obacht-bei-nvidias-zweiter-geforce-gtx-1060-1608-122792.html

Und 4 GB sind immer noch mehr als 3 GB ;)

In dieser Form stolpern aber möglicherweise unbedarfe Käufer über das Teil, freuen sich über den relativ geringen Preis ... und wundern sich dann, dass die Kiste langsamer ist als erhofft.

So siehts aus.

RoughNeck
2016-08-19, 10:36:26
Ich finde die klaren Worte gut. Gemein ist nämlich, dass eben nicht nur die Speichermenge anders ist, auch wenn sich das auf den ersten Blick so liest – der Chip ist auch beschnitten. Trotz gleichen Namens. Das ist keine 1060, sondern eine 1050 (oder, von mir aus, eine "1060 LE"). Hätte Nvidia sie so genannt, würde niemand motzen. In dieser Form stolpern aber möglicherweise unbedarfe Käufer über das Teil, freuen sich über den relativ geringen Preis ... und wundern sich dann, dass die Kiste langsamer ist als erhofft.

MfG,
Raff

Keine Frage, es ist eine Schweinerei.
Aber, in der heutigen Zeit kann man sich in wenigen Sekunden informieren, wer das nicht tut ist selbst schuld.

N0Thing
2016-08-19, 10:48:57
Keine Frage, es ist eine Schweinerei.
Aber, in der heutigen Zeit kann man sich in wenigen Sekunden informieren, wer das nicht tut ist selbst schuld.

Vollkommen egal wie einfach und schnell es geht. Man darf bei solchen absichtlichen Täuschungen nicht die Verantwortung auf den Kunden abschieben.

Wer vorsichtig und aufmerksam ist, der ist im Vorteil, aber es darf niemand schuld sein, der nicht in der Materie drin steckt und auf den Hersteller vertraut.

Cyphermaster
2016-08-19, 10:49:40
Rechtlich gesehen ist das auch alles kein Problem. Als Kunde ist es für mich trotzdem ein beachtenswerter Punkt, wie weit eine Firma bezüglich solcher Dinge -zu tendenziell meinen Ungunsten- macht.

StefanV
2016-08-19, 10:52:34
Aber, in der heutigen Zeit kann man sich in wenigen Sekunden informieren, wer das nicht tut ist selbst schuld.
Was die Sache nicht besser macht. Und auch keinen Grund gibt, dieses Handeln zu rechtfertigen!
Dafür hat man gefälligst eine andere Bezeichnung zu wählen - 1055, 1060LE oder SE oder whatever...

Aber schauen wir mal, welche Sauereien von diesem Haufen noch so auftauchen werden...

=Floi=
2016-08-19, 11:04:53
ist die karte überhaupt langsamer? die karte hat zwar das gleiche powerbudget, aber es fehlen 3gb ram, die paar shadereinheiten und somit kann der chip auch ein klein wenig besser boosten.
eventuell kommt unterm strich die gleiche leistung raus. die werden sich da schon was dabei gedacht haben, weil wirklichen wirtschaftlichen nutzen werden sie von den paar einheiten weniger nicht viel haben.

N0Thing
2016-08-19, 11:05:32
Aber schauen wir mal, welche Sauereien von diesem Haufen noch so auftauchen werden...

Die Umbenennungsaktionen von AMD bei Tahiti und Hawaii/Grenada waren im Endeffekt auch nur Kundentäuschungen, von daher sollte man entweder generell beide Hersteller anprangern, oder beim aktuellen Fall bleiben und nicht noch andere Dinge unterstellen.

Raff
2016-08-19, 11:05:43
ist die karte überhaupt langsamer? die karte hat zwar das gleiche powerbudget, aber es fehlen 3gb ram, die paar shadereinheiten und somit kann der chip auch ein klein wenig besser boosten.
eventuell kommt unterm strich die gleiche leistung raus. die werden sich da schon was dabei gedacht haben, weil wirklichen wirtschaftlichen nutzen werden sie von den paar einheiten weniger nicht viel haben.

Doch, natürlich – man kann teildefekte Chips verkaufen, statt sie der Entsorgung zuzuführen.

MfGm
Raff

dargo
2016-08-19, 11:09:42
Die Umbenennungsaktionen von AMD bei Tahiti und Hawaii/Grenada waren im Endeffekt auch nur Kundentäuschungen...
Das waren keine reinen Umbennenungen.

N0Thing
2016-08-19, 11:21:44
Das waren keine reinen Umbennenungen.

"Auch Antigua Pro (vormals Tonga) in der Radeon R9 380 ist nur ein echter Rebrand, wurde aber immerhin erst im September 2014 gelauncht."

"Auch die größte Karte im Test, die MSI R9 390X Gaming 8G, ist nur eine Neuinterpretation - in diesem Fall eine der Radeon R9 290X mit Hawaii-XT-GPU, die am 24. Oktober 2013 gelauncht wurde und somit bereits eineinhalb Jahre alt ist Der Chip läuft nun als Grenada XT."

http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836.html

"Unterschiede zwischen R9-300 und R9-200-Serie

AMD selbst möchte bei der 300er-Serie nicht von einem einfachen „Rebrand“ sprechen, wobei die Unterschiede jedoch nur im Detail liegen. So sind die GPUs an sich unverändert geblieben, laut AMD habe man jedoch alle bei der Fertigung der Radeon-200-Karten gewonnenen Erfahrungen in die neuen Chips einfließen lassen und so die Fertigung ohne Änderung der Maske verbessern können. "

https://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/#abschnitt_unterschiede_zwischen_r9300_und_r9200serie

Also abgesehen von Verbesserungen in der Fertigung, von denen mit der Zeit sowieso jeder Chip erfahren könnte/sollte, sind es die gleichen Chips.

Cyphermaster
2016-08-19, 11:33:27
Ihr könnt euch gern weiter streiten - aber ohne echten Industrie-Standard, wie man eine Karte zu benennen hat, und welche Faktoren wie dabei einzubeziehen sind, ist das ziemlich sinnlos. Chip-Typ, -Teildeaktivierungen, Takt, Powertarget, RAM (Menge, Takt, Anbindung), Spannung,... so ziemlich ALLES hat Einfluß auf das Verhalten einer Karte, und kann in ungünstigen Fällen als Flaschenhals deutliche Auswirkungen haben.

=Floi=
2016-08-19, 11:42:38
Doch, natürlich – man kann teildefekte Chips verkaufen, statt sie der Entsorgung zuzuführen.

MfGm
Raff
es kommt doch sowieso noch eine 1050er

der eine deaktivierte shadercluster reisst imho nicht wirklich etwas raus. wie viele chips betrifft dies dann wirklich 5%?
das ist eine quasi nicht vorhandene größe.

N0Thing
2016-08-19, 11:46:22
Ihr könnt euch gern weiter streiten - aber ohne echten Industrie-Standard, wie man eine Karte zu benennen hat, und welche Faktoren wie dabei einzubeziehen sind, ist das ziemlich sinnlos. Chip-Typ, -Teildeaktivierungen, Takt, Powertarget, RAM (Menge, Takt, Anbindung), Spannung,... so ziemlich ALLES hat Einfluß auf das Verhalten einer Karte, und kann in ungünstigen Fällen als Flaschenhals deutliche Auswirkungen haben.

Das steht ja auch gar nicht zur Debatte. Es ist aber aus Sicht des Kunden ein Nachteil, wenn unterschiedliche Produkte den gleichen Namen tragen oder gleiche Produkte unterschiedliche Namen.
Wer sich mit der Materie auskennt, der kann sich leicht ein Bild machen, wer unbedarft an die Sache heran geht, ärgert sich am Ende, weil er nicht das bekommen hat, was er erwarten konnte.
Dass dies AMD und Nvidia oftmals nicht interessiert, sollte man nicht einfach hinnehmen sondern ansprechen. Sonst ändert sich an dieser Praxis nie etwas.

Effe
2016-08-19, 11:49:44
Eine Karte mit weniger Shadern unter selbem Namen ist mE Täuschung. Aber 4GB sind bei NV auch nicht 4GB. Warum kann man solche Unterschiede nich klar deklarieren? Das ist doch Vorsatz.
Ein Rebranding ist keine Täuschung, wenn die Specs offen kommuniziert werden.

Hakim
2016-08-19, 11:51:23
Die 4GB RX480 hat doch auch langsameren Speicher als die 8GB Version und das obwohl Polaris sehr vom Speicher abhängt. Es liegt an den Käufer sich zumindest über die Details vorher zu informieren bevor man über 200€ ausgibt.

Iruwen
2016-08-19, 11:58:44
Täuschung ist es imo erst, wenn falsche Angaben auf der Verpackung stehen.

(del)
2016-08-19, 12:11:13
So, die 3GB Sparversion ist gerade eingetroffen. In FullHD geht mir bei Hitman und DX12 schon der RAM aus :(

Cyphermaster
2016-08-19, 12:23:40
Das steht ja auch gar nicht zur Debatte. Es ist aber aus Sicht des Kunden ein Nachteil, wenn unterschiedliche Produkte den gleichen Namen tragen oder gleiche Produkte unterschiedliche Namen.
Wer sich mit der Materie auskennt, der kann sich leicht ein Bild machen, wer unbedarft an die Sache heran geht, ärgert sich am Ende, weil er nicht das bekommen hat, was er erwarten konnte.Kundennachteil hin oder her: Du KANNST eben gar nichts klar erwarten, solange es nicht irgendeinen definierten Zusammenhang zwischen bestimmten Faktoren und dem Produktnamen gibt. Denn solange ich mir höchstpersönlich meine eigenen Vorstellungen mache, was das Label "GTX1060" zu bedeuten hat, kann das praktisch jeder ein wenig anders sehen. Das machen sich die Firmen doch grade zu Nutzen.

Und bricht man die nicht ganz trivialen Leistungs-Zusammenhänge auf DAU-Level und einen kurzen Produktnamen runter, wird's fast notwendig mehr oder minder schief an irgendwelchen Stellen.

Hakim
2016-08-19, 12:24:17
So, die 3GB Sparversion ist gerade eingetroffen. In FullHD geht mir bei Hitman und DX12 schon der RAM aus :(

:D ja die Karte ist vielleicht ideal für Blizzard und MOBA zeuch like WoW, D3, Overwatch Hots, Dota2 und CSGO. Bei Grafikkrachern muss man halt die Schieber in den Einstellungen anpassen. Ich würde die Karte aber niemanden empfehlen.

Grendizer
2016-08-19, 12:52:58
Keine Ahnung was nVidia da geritten hat, aber das Ding als 1060 zu vermarkten ist :freak:

dargo
2016-08-19, 12:57:29
@N0Thing

Trotzdem haben Antigua und Grenada andere Taktraten. Ob jetzt vorne aus einer 2 direkt eine 3 werden musste steht auf einem anderen Blatt.

Downhill
2016-08-19, 13:06:30
ist die karte überhaupt langsamer? die karte hat zwar das gleiche powerbudget, aber es fehlen 3gb ram, die paar shadereinheiten und somit kann der chip auch ein klein wenig besser boosten.
Sehe ich genauso; bisher gibt es noch überhaupt keine Benchmarkergebnisse egal von wem. Aufgrund der aktuellen Sachlage von "Betrug" zu reden ist demzufolge einfach nur Blödsinn. Den Kunden interessiert nur, wie eine Performance zustandekommt; ob anhand von Shadereinheiten, Architektur, Taktrate, Boostrate etc. ist zunächst mal völlig wumpe.
Ich erinnere in diesem Zusammenhang übrigens z.B. an das Samsung Galaxy S7, welches ja nach Region mit unterschiedlichen CPUs (Snapdragon vs. Exynos) ausgeliefert wurde, letztendlich kam es mehr oder weniger aufs gleiche raus. Und hatte nicht Apple auch schonmal sowas?

Also: abwarten, benchen (für den Vergleich mit der 6GB-Variante dann natürlich auch mit Spielen welche nur <=3GB belegen), DANN bewerten. Alles andere ist doch völlig Spekulatius.

horn 12
2016-08-19, 13:09:01
Weil die Konkurrenz diesesmal zu Stark ist greift NV eben zu solchen Mitteln
Gegen die RX 470 kommt NV echt sehr schwer an und die RX480 mit Custommodellen wird NV auch gewaltig zusetzen, sprich werden unter enormen Druck gelangen.

HOT
2016-08-19, 13:09:29
@N0Thing

Trotzdem haben Antigua und Grenada andere Taktraten. Ob jetzt vorne aus einer 2 direkt eine 3 werden musste steht auf einem anderen Blatt.
Ich glaub auch, dass Grenada ohne Metalspin die Speichertakte nicht gepackt hätte. Aber Antigua ist sicherlich Tonga unverändert, das stimmt wohl, genau wie Trinidad = Curacau Pro und Tobago = Bonaire Pro ist.

Iruwen
2016-08-19, 13:37:30
Weil die Konkurrenz diesesmal zu Stark ist greift NV eben zu solchen Mitteln
Gegen die RX 470 kommt NV echt sehr schwer an und die RX480 mit Custommodellen wird NV auch gewaltig zusetzen, sprich werden unter enormen Druck gelangen.
;D

Grendizer
2016-08-19, 14:00:20
Und weil AMD so super gute GPUs baut hat nVidia auch gerade ein richtig schlechtes Quartalsergebnis abgeliefert.


https://www.computerbase.de/2016-08/nvidia-pascal-q2-2017/ :rolleyes:

kruemelmonster
2016-08-19, 14:06:23
@N0Thing

Trotzdem haben Antigua und Grenada andere Taktraten. Ob jetzt vorne aus einer 2 direkt eine 3 werden musste steht auf einem anderen Blatt.

Tahiti gab es auf 7950 und 7970 auch mit jeweils zwei Taktraten, die Boost bzw GHz Edition Chips hätten deiner Argumentation nach dann auch andere Codenamen bekommen müssen?

Weil die Konkurrenz diesesmal zu Stark ist greift NV eben zu solchen Mitteln
Gegen die RX 470 kommt NV echt sehr schwer an und die RX480 mit Custommodellen wird NV auch gewaltig zusetzen, sprich werden unter enormen Druck gelangen.

Wenn dir das hilft nachts besser einzuschlafen... :comfort2:

Ex3cut3r
2016-08-19, 14:17:53
GTX 1060 LE/SE wäre wohl als Name besser gewesen, trotzdem wird sich diese Karte gut verkaufen, schätze Schüler werden bei der Karte oft zuschlagen.

Hakim
2016-08-19, 14:25:16
Jo LE oder SE wäre besser gewesen, für 160-200€ wäre sie eigentlich ok. Aber Natürlich für mehr gelistet.

dargo
2016-08-19, 15:00:47
Tahiti gab es auf 7950 und 7970 auch mit jeweils zwei Taktraten, die Boost bzw GHz Edition Chips hätten deiner Argumentation nach dann auch andere Codenamen bekommen müssen?

Nein.. wofür denn? Man konnte die HD7970 von der HD7970GE einwandfrei unterscheiden.

scully1234
2016-08-19, 15:09:38
Ein Rebranding ist keine Täuschung, wenn die Specs offen kommuniziert werden.

Und was ist da nun anders zu dieser Situation:rolleyes:

Dann nenn die 3Gb 1060 halt Rebranding, wenn dir das besser gefällt , die Spezifikationen kann hier auch jeder einsehen der möchte.

Als ob diese Wortklauberei etwas verändern würde

Sollen die Titan X Käufer , jetzt auch von arglistiger Täuschung reden, wenn sie nen alten Maxwell Chip kaufen, weil sie sich vorab nicht informieren?

Namensgebung ist in allen 3 Fällen "suboptimal"

N0Thing
2016-08-19, 16:10:53
Kundennachteil hin oder her: Du KANNST eben gar nichts klar erwarten, solange es nicht irgendeinen definierten Zusammenhang zwischen bestimmten Faktoren und dem Produktnamen gibt. Denn solange ich mir höchstpersönlich meine eigenen Vorstellungen mache, was das Label "GTX1060" zu bedeuten hat, kann das praktisch jeder ein wenig anders sehen. Das machen sich die Firmen doch grade zu Nutzen.

Und bricht man die nicht ganz trivialen Leistungs-Zusammenhänge auf DAU-Level und einen kurzen Produktnamen runter, wird's fast notwendig mehr oder minder schief an irgendwelchen Stellen.

Wenn es dir Spaß macht, kannst du dir unter der Bezeichnung GTX 1060 vorstellen was du willst. Bringt dir nur nichts und alle anderen verstehen was anderes darunter, nämlich die bisher bekannten Spezifikationen der GTX 1060.
Die Bezeichnung GTX 1060LE oder GTX 1050Ti wäre DAU-tauglich, ohne an irgendwelchen Stellen schief zu sein.
Aber wenn du schon schreibst, dass du auf das Thema Kundennachteile nicht eingehen willst, reden wir vermutlich einfach aneinander vorbei, denn das ist der Punkt, der für mich relevant ist, nicht was du dir unter einem Produktnamen alles vorstellen könntest. ;)

Bei der RX 480 mit 4GB ist es ähnlich, allerdings habe ich in den Reviews vor allem Modelle mit Speichertakt auf Niveau der RX 480 gesehen. Bei der GTX 1060 3GB werden die Custom Modelle wohl leider nicht auf Wunsch mit dem vollen Chip ausgeliefert.

In der Praxis wird bei beiden Fällen wohl kein Kunde einen spürbahren Nachteil haben, dennoch finde ich es richtig und wichtig, wenn die Presse diese Themen anspricht und publik macht. AMD und Nvidia kümmert unsere Meinung dazu sowieso nicht, für sie ist nur entscheidend wieviel sie verkaufen können und mit dem passenden Preis, wird die GTX 1060 3GB bei den Kunden sicherlich gut ankommen.

dargo
2016-08-19, 16:41:56
Leicht wird sie es jedenfalls nicht gegen die RX470 mit 4GB haben die langsam Richtung 200€ geht. Die 3GB sind einfach nicht mehr zeitgemäß.

Fusion_Power
2016-08-19, 16:50:48
:D ja die Karte ist vielleicht ideal für Blizzard und MOBA zeuch like WoW, D3, Overwatch Hots, Dota2 und CSGO. Bei Grafikkrachern muss man halt die Schieber in den Einstellungen anpassen. Ich würde die Karte aber niemanden empfehlen.
Reicht mir. Ich zocke Diablo 3, Overwatch und Minecraft und bin auch bisher mit 1GB VRAm nicht verreckt. :D
Overwatch spielt man eh nicht auf Ultra Details, egal was man in der Kiste drin hat, das packt auch meine GTX560 auf Low-Mid ohne Probleme. Einzig der TDP der GraKa gibt mir noch zu denken, ansonsten hab ich mich schon umgesehen und nette "Mini" Modelle der 1060 3GB gefunden, muss nur noch recherchieren welches Modell besonders leise ist. :)
Würde zwar auch auf ne GTX1050 (TI?) warten aber bis die mal rauskommt ist es sicher Winter oder so.

Ex3cut3r
2016-08-19, 17:04:18
Nvidia kann mit weniger Speicher sowieso besser umgehen als AMD, sieht man sehr schön hier:
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-460-Test-Review-Polaris-11-1203930/

Eine GTX 950 mit 2GB ist eigentlich immer vor der RX 460 mit 4GB (zumindest in FHD, für mehr sind diese Karten sowieso nicht zu gebrauchen), ob die Frametimes auf der 2GB Karte aber gleichmäßig sind, weiß ich nicht.

dildo4u
2016-08-19, 17:08:24
Das ist das Problem auch solche Karten werden meistens nur mit Ultra gebencht.Imo ziemlich Sinnlos,für PS4 Details@60fps wäre sie hingegen ziemlich ideal.

dargo
2016-08-19, 17:12:06
Wo siehst du da, dass der Speicher der limitierende Faktor ist?

kruemelmonster
2016-08-19, 17:13:47
Nein.. wofür denn? Man konnte die HD7970 von der HD7970GE einwandfrei unterscheiden.

Genauso wie man 290(X) und 390(X) einwandfrei unterscheiden kann, wofür wurde dann bei diesen Karten der Chip umbenannt?

(Rhetorische Frage, wurde halt gemacht damit der alte Wein in neuen Schläuchen auf GPU-Z Screenshots nicht so auffällt; NV hat btw den G92 von der 8800 GT bis hin zur GTS 250 nie umbenannt )

dargo
2016-08-19, 17:15:49
Genauso wie man 290(X) und 390(X) einwandfrei unterscheiden kann, wofür wurde dann bei diesen Karten der Chip umbenannt?

Weil man wahrscheinlich in der Namensgebung im 200-er Bereich keinen Platz mehr hatte. R9 295 würde womöglich zu ähnlich zur R9 295X2 klingen. Ähnliches Spiel bei der R9 285. R9 290 war schon mit Hawaii besetzt.

kruemelmonster
2016-08-19, 17:20:03
Du zäumst das Pferd von hinten auf: die 390(X) trägt einen Hawaii Chip wie auch die GTS 250 einen G92 trägt.

Im Detail nannte AMD explizit Micro-Code-Updates, eine im Laufe der Monate gereifte 28nm-Fertigung bei TSMC, eine Unterstützung neuerer GDDR5-Speicherchips und prinzipiell mehr Erfahrung beim Platinen-Design.

All das trifft auch auf den G92 zu, das Argument dass kleinste Updates einen neuen Namen rechtfertigen zieht also nicht.

dargo
2016-08-19, 17:27:38
Ich weiß im Moment nicht was dein Problem ist? :D

kruemelmonster
2016-08-19, 17:34:03
Als ob du das nicht wüsstest, hier ist "mein Problem":

Das waren keine reinen Umbennenungen.

Ich hab damals die Diskussion zwischen dir und aufkrawall bzgl des Namens schon mitbekommen, mit N0thing fängst du dann unbelehrt erneut das Thema an und nach meiner Argumentation wendest du die Drei-Affen-Taktik an.
Warum zum Geier bist du so empfindlich bei diesem doch sehr eindeutigen Thema?

dargo
2016-08-19, 17:37:17
Bist du so schwer vom Begriff heute?

Reine Umbenennung ist für mich absolut die gleiche Karte. Grenada hatte nicht nur höhere Taktraten sondern auch mehr Speicher.

kruemelmonster
2016-08-19, 17:42:48
Du brauchst gar nicht pampig werden nur weil dir jemand nachvollziehbar herleitet dass Grenada nur ein neuer Name für Hawaii war, und dein Standpunkt mehr als nur wackelig ist.

Und gähn, G92 gab es ebenfalls sowohl mit 0.5 und 1 GB.

Screemer
2016-08-19, 17:49:04
dir wurde auch schon gesagt, dass es mehr als unwarscheinlich ist, dass hawaii ohne metalspin die höheren vramtaktraten schaffen würde. nv hat seinen respin + ein bisschen gf104 von gf100 auch gf110 genannt. eine revision eines chips darf man doch druchaus umbenennen, oder? den kleinkrieg könnt ihr im übrigen auch per pm austragen. wir kennen die jeweiligen vorlieben der kontrahenten und sie sind hier völlig OT.

eine karte mit andern physikalischen specs wie weniger shader, rops, etc. aber mit gleichem nahmen ist mir bisher noch nie unterkommen. da gabs zumindest zusätze. so wird suggeriert es handelt sich um den selben chip mit selben eigentschaften aber schlicht weniger speicher. wie andere schon gesagt haben hätte ein LE oä. sicher keinem weh getan.

kruemelmonster
2016-08-19, 18:00:25
dir wurde auch schon gesagt, dass es mehr als unwarscheinlich ist, dass hawaii ohne metalspin die höheren vramtaktraten schaffen würde. eine revision eines chips darf man doch druchaus umbenennen, oder?

Und wieviel rotes Fanfeuer hat NV damals für die Weiterverwendung des G92 auf verschiedenen Karten bekommen, obwohl da u.a. der Shrink von 65 auf 55nm inkludiert war? Aber wenn AMD das macht und jede Menge Smoke and Mirrors (*) um diese Umbenennung aufbaut ist das in Ordnung...(im übrigen gibt es ja Revisionsnummer für genau diesen Fall, bspw: Hawaii A1 auf 290, Hawaii A3 auf 390 -> der Grenada Name war nur unnötiger Schmu.)

Dieses Messen mit zweierlei Maß darf man doch durchaus noch ankreiden, wie auch dargos fortgesetzte Versuche die Umbenennung aktiv nicht anzuerkennen, oder?

* Die technische Basis der neuen Radeon R9 390(X) nennt AMD interessanterweise in keinem der Dokumente, die der Presse vorab für diesen Test zur Verfügung gestellt wurden. Auf Nachfrage bestätigte der Hersteller Golem.de jedoch, dass die Chips intern als Grenada statt Hawaii bezeichnet werden

---

Sry4OT @ all

Megamember
2016-08-19, 18:15:22
Bist du so schwer vom Begriff heute?

Reine Umbenennung ist für mich absolut die gleiche Karte. Grenada hatte nicht nur höhere Taktraten sondern auch mehr Speicher.

Der Chipname hat für mich absolut nichts mit der Rambestückung oder irgendwelchen Taktraten zu tun.

dir wurde auch schon gesagt, dass es mehr als unwarscheinlich ist, dass hawaii ohne metalspin die höheren vramtaktraten schaffen würde.

Der Ram ist aber auch ein anderer und für höhere Takte spezifiziertet als auf den Hawaii Karten.

dargo
2016-08-19, 18:35:31
Du brauchst gar nicht pampig werden nur weil dir jemand nachvollziehbar herleitet dass Grenada nur ein neuer Name für Hawaii war, und dein Standpunkt mehr als nur wackelig ist.

Das ist und bleibt Bullshit.


Der Ram ist aber auch ein anderer und für höhere Takte spezifiziertet als auf den Hawaii Karten.
Der Ramtakt ist nicht das Problem sondern der Speichercontroller.

Megamember
2016-08-19, 18:51:20
Das ist und bleibt Bullshit.


Der Ramtakt ist nicht das Problem sondern der Speichercontroller.

Beweis das der Speichercontroller anders ist?

dargo
2016-08-19, 18:55:15
Auf Grund der fortgeschrittenen Fertigung, wenngleich in identischer Strukturbreite, und der Überarbeitungen am Speicher-Controller hat sich AMD für die neue Bezeichnung entschieden, kommuniziert diesen Umstand aber kaum in der Öffentlichkeit.

http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index6.php

Glaubst du etwa die 1250Mhz bei Hawaii sind Zufall?

=Floi=
2016-08-19, 22:02:29
Reicht mir. Ich zocke Diablo 3, Overwatch und Minecraft und bin auch bisher mit 1GB VRAm nicht verreckt. :D
Overwatch spielt man eh nicht auf Ultra Details, egal was man in der Kiste drin hat, das packt auch meine GTX560 auf Low-Mid ohne Probleme. Einzig der TDP der GraKa gibt mir noch zu denken, ansonsten hab ich mich schon umgesehen und nette "Mini" Modelle der 1060 3GB gefunden, muss nur noch recherchieren welches Modell besonders leise ist. :)
Würde zwar auch auf ne GTX1050 (TI?) warten aber bis die mal rauskommt ist es sicher Winter oder so.

für die 20-30€ macht es absolut keinen sinn hier zu sparen.
stell dir deine 560er mit 512mb ram vor...

Mike
2016-08-19, 22:14:50
für die 20-30€ macht es absolut keinen sinn hier zu sparen. Gut, dass der Unterschied eher ~60 Euro beträgt.

-/\-CruNcher-/\-
2016-08-20, 22:06:22
28nm->14nm Paxwell takt balanced Realtime side by side Ergebnise

YSfiBeC5-m4
GgDFdeMzT-k

MadManniMan
2016-08-21, 21:51:16
Gibt's jetzt schon irgendwelche Artikel zu den 3-GB-1060ern?

Rampage 2
2016-08-21, 23:18:42
Ich glaube, du hast mein Posting nicht verstanden: Wie Troyan auch sagte, liegt die maximale theoretische Füllrate bei 32 Pixel/Takt (2 GPCs à 16 Pixel/Takt).


Wenn trotz Auslastung von 48 ROPs durch MSAA die Füllrate dennoch nur 64 GPixel beträgt, bedeutet das dann, dass eine stark übertaktete GTX 980 (@ 1.5GHz) einer übertakteten 1060 massiv davonziehen wird? (1060 @ 2GHz: 64 GPixel/sec., 980 @ 1.5GHz: 96 GPixel/sec. -> 50% mehr Füllrate!)

Hat schon irgendein Reviewer einen solchen Vergleich gemacht?

R2

(del)
2016-08-21, 23:54:31
Gibt's jetzt schon irgendwelche Artikel zu den 3-GB-1060ern?
Wenn ich fertig werde, am Dienstag :)

Megamember
2016-08-22, 00:07:39
Gibt's jetzt schon irgendwelche Artikel zu den 3-GB-1060ern?

Du denkst aber nicht wirklich drüber nach über 200€ für eine Karte auszugeben die schon in FULL-HD arge Probleme bekommt?

kdvd
2016-08-22, 00:19:15
Gibt's jetzt schon irgendwelche Artikel zu den 3-GB-1060ern?

Fazit anno 2016:

3GB ist zu weniger VRAM. Die 40€ weniger ggü. der 6G Version, sind am falschen Ende gespart.

MadManniMan
2016-08-22, 08:59:12
Hey, Leute, ich komme gerade aus dem Urlaub zurück und möchte meinen großen Hobby "Dinge über Grafikkarten lesen" nachgehen.

Gaaaanz ruhig.

Außerdem habe ich kein Geld, meine GTX 460 zu ersetzen ...

MadManniMan
2016-08-22, 09:33:20
Außerdem: Wissen, anyone? Was ist denn mit euch los, dass ihr nur über tolle Dinge lesen wollt? Ihr seid ja wie die Faunisten (nennt man Fauna-Wissenschaftler so? ^^), die sich nur mit hübschen Tieren beschäftigen.

Und: danke, Igor :up:

Troyan
2016-08-22, 16:52:42
heute veröffentlicht: http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_gaming_x_3gb_review,12.html

Ex3cut3r
2016-08-22, 16:58:51
heute veröffentlicht: http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_gaming_x_3gb_review,12.html

Für FHD immer noch sehr potent, wenn man sich die FPS Werte ansieht, oftmals gleich schnell wie eine RX 480 Referenz.

Schaffe89
2016-08-22, 17:23:21
Also für 219 Euro würd ich die Karte jederzeit als Empfehlung sehen und gegenüber einer GTX 970 bzw rx470 4GB vorziehen.

aufkrawall
2016-08-22, 17:25:27
Vielleicht, wenn das Amt dafür nicht mehr bewilligt. Ansonsten ist es immer noch viel Geld, das man für ein suboptimales Produkt ausgibt.

Megamember
2016-08-22, 17:32:36
Also für 219 Euro würd ich die Karte jederzeit als Empfehlung sehen und gegenüber einer GTX 970 bzw rx470 4GB vorziehen.

ALso ich würde mir aktuell lieber nochmal ne 970 besorgen als diese 1060 3GB.:ugly:

Grendizer
2016-08-22, 17:46:21
Auf Guru 3D performt die 1060 CE besser als ich es vermutet hätte. Irgendwie weiss ich nicht ob das mit dem Speicher wirklich immer so relevant ist, wie es hier vehement vertreten wird.

Klar sehe ich in GPU-Z wenn ich ROTTR mit allem Effekten und SMAA laufen lasse, das das Ding mehr als 7 Gb Speicher allokiert. Aber ist das manchmal auch Preload, weil der speicher einfach da ist ?

=Floi=
2016-08-22, 17:50:18
der aufpreis auf die ausgewogenere 6gb karte ist da zu gering. damit verdoppelst du dir die lebensdauer. was gibt es da nocgh zu überlegen. jedes spiel welches von den 6gb profitiert ist dann ein soppelter gewinn für dich.
du gibst für das spiel viel geld aus und für die grafikkarte.

Ex3cut3r
2016-08-22, 17:58:31
Auf Guru 3D performt die 1060 CE besser als ich es vermutet hätte. Irgendwie weiss ich nicht ob das mit dem Speicher wirklich immer so relevant ist, wie es hier vehement vertreten wird.

Klar sehe ich in GPU-Z wenn ich ROTTR mit allem Effekten und SMAA laufen lasse, das das Ding mehr als 7 Gb Speicher allokiert. Aber ist das manchmal auch Preload, weil der speicher einfach da ist ?


Ja klar, nur weil es bei einem mit 6GB VRAM voll ist, muss das nicht zwangsläufig heißen, dass es mit 3GB extreme Nachladehänger gibt. Jedes Game verhält sich anders, manche haben immer noch ein gutes Streaming, andere Games wiederum nicht.

Der Wichter 3 wäre imo ein gutes Beispiel, das frisst selbst in 4K ohne Haiworks nur 2,5 GB und sieht trotzdem blendet aus. Aber klar lieber mehr, als zu wenig VRAM haben, also lieber zur RX 480 mit 8GB greifen oder 1060er mit 6GB.

MfG

Achim_Anders
2016-08-22, 18:40:39
Im anderen Thread hat Igor festgestellt, dass bei der 1060 CE schlicht und ergreifend Grafikdetails nicht umgestellt werden können, die es bei der richtigen 1060 gibt.. Wenn das bei Guru3d keiner gemerkt hat, ist die "gute" Performance kein Wunder... Edit: Die Schatten bei Hitman waren es. Wer weiß was Nvidia noch alles gemacht hat mit dem Treiber.. -.-

Ex3cut3r
2016-08-22, 18:50:19
Halte ich für ein Märchen, ein "Beweiß Video" wäre sicherlich hilfreich. Und sicherlich, kann man auf Grund eines Spiels, nicht einfach auf alle schließen.

DarknessFalls
2016-08-22, 19:05:04
Richtig, Igor verbreitet Märchen. Is klar.

Mike
2016-08-22, 19:15:34
Fazit anno 2016:

3GB ist zu weniger VRAM. Die 40€ weniger ggü. der 6G Version, sind am falschen Ende gespart.

Auch für Dich noch einmal zum mitschreiben, es sind eher ca. 60 Euro.

Ex3cut3r
2016-08-22, 19:22:41
Richtig, Igor verbreitet Märchen. Is klar.

Das habe ich nie gesagt. Halte von Igor (FormatC) sehr viel.

Nur weiß ich nicht, warum die Herren 1060 Sachen, immer im RX 480 Thread besprechen.

DarknessFalls
2016-08-22, 19:46:14
Das kann ich Dir auch nicht sagen; aber die Quelle (Igor) wurde klar benannt und dessen Seriosität sollte doch ausreichen, dass man nicht gleich mit "Märchen" um sich schmeißen muss, oder? Da kann man durchaus mal vorher nen Blick "rüber" werfen um zu verifizieren, ob das alles so stimmt.

Mike
2016-08-22, 19:51:11
Damit verdoppelst du dir die lebensdauer. Ich hoffe, du hast die Glaskugel gut geputzt für diese Vorhersage. was gibt es da nocgh zu überleben. Naja, überleben wäre dann vielleicht doch ganz gut. ;)

Ex3cut3r
2016-08-22, 19:52:09
Das kann ich Dir auch nicht sagen; aber die Quelle (Igor) wurde klar benannt und dessen Seriosität sollte doch ausreichen, dass man nicht gleich mit "Märchen" um sich schmeißen muss, oder? Da kann man durchaus mal vorher nen Blick "rüber" werfen um zu verifizieren, ob das alles so stimmt.

Gut, ein Game, bleiben noch zig auch aktuelle Titel. Das mit den Schatten bei Hitman, ist das nicht eine VRAM Limiterung? so wie z.B bei Domm 2016 keine Albtraum Texturen und Schatten wählen kann, wenn man nicht mindestens 5GB VRAM hat?

DarknessFalls
2016-08-22, 19:56:06
Keine Ahnung, Igor ist da offensichtlich gerade dran. Ich denke, das wird sich zeigen. ;) Vermutlich ist das aber eine Limitierung durch Treiber oder Spiel aufgrund des RAMs, ja. Allerdings verfälscht das dann auch Benchmarks, wenn's nicht bemerkt wird - siehe (möglicherweise) guru3d.

(del)
2016-08-22, 20:19:22
Das Spiel kannte offensichtlich die abgespeckte 1060 vor dem Patch nicht. Wenn man Settings setzt und einfach die Karten wechselt, merkt man die Einschränkungen nicht und wundert sich über den Speed - siehe Diagramm unten. man beachte den Speicherverbrauch!

http://i.imgur.com/o37zh4y.jpg

http://i.imgur.com/UPuzTSo.png

Ex3cut3r
2016-08-22, 20:29:56
Alles klar, danke. :)

Schaffe89
2016-08-23, 01:54:39
Ich hab jetzt ca 1 Monat die GTX 1060 und ein Kumpel die rx480, wir beide haben den aktuellsten i3 Prozessor verbaut ( eigentlich der perfekte Budget Spieleprozessor ) und die Performance der rx480 ist manchen Titeln wirklich unerträglich schlecht, vor allem in WOW No Mans Sky, Star Craft, Far Cry 3 und Project Cars sowie Rust und ARK: Survival.

Er hat jetzt gestern auf einen i5 geupdatet und es er kommt FPS technisch in den Titeln immernoch nicht auf die Füße.

Der AMD Treiber ist in manchen Spielen derart schlecht, dass man sich wirklich Gedanken machen muss überhaupt noch ne AMD Karte zu empfehlen.
Jetzt fällt mir erst einmal auf wie weit Nvidia in Directx11 eigentlich mit dem Treiber in Front ist, das sind teilweise Welten von >50% mehr FPS in manchen Situationen.

Wie gut dass diese Spiele die jedoch sehr oft gezockt werden kaum gebencht werden.

-/\-CruNcher-/\-
2016-08-23, 02:25:03
Das ist doch alles bekannt und auf die Multithreading Optimierungen seitens Nvidias für DX 11 zurückzuführen von denen auch explizit von vielen titteln über NVapi gebrauch gemacht wird stichwort "Wunder Treiber".

Interessanter ist wie sich das ganze mit DX 12 und einem i3 und i5 verhält :)

Der Nvidia Treiber zeigt auffälligkeiten eines höheren CPU Overheads unter DX 12 die aber Reviewern scheinbar noch nicht auffallen ;)

aufkrawall
2016-08-23, 02:55:26
Das ist doch alles bekannt und auf die Multithreading Optimierungen seitens Nvidias für DX 11 zurückzuführen von denen auch explizit von vielen titteln über NVapi gebrauch gemacht wird stichwort "Wunder Treiber".

Wo steht das? Erzählst du gerade mal wieder totalen Schwachsinn?

horn 12
2016-08-23, 08:26:22
@Schaffe

Zeigt mal wieder auf dass alle welche sich Fiji geholt haben doch nicht allzuschlecht gefahren sind. Zumal man Deus Ex mal abwarten sollte wo eben die 4GB Ram limitieren.
Da kommt wohl die Tage der passende Treiber!
RX 480 werden auch unter den Custom Modellen einfach zu heiß, zu Stromhungrig wenn man mehr als 1300 bis gar 1350 Mhz stabil an Takt möchte.

Kartenlehrling
2016-08-23, 08:40:36
..., vor allem in WOW No Mans Sky, Star Craft, Far Cry 3 und Project Cars sowie Rust und ARK: Survival.


Ich sehe da kein Spiel das jemals auf einer AMD Grafikkarte besser gelaufen ist als auf dem Nvidia Gegenstück, warum sollte sich das durch Polaris ändern?!
7 Jahr DX11 Bremse ist einfach genug.

BlacKi
2016-08-23, 08:45:13
Der AMD Treiber ist in manchen Spielen derart schlecht, dass man sich wirklich Gedanken machen muss überhaupt noch ne AMD Karte zu empfehlen.
Jetzt fällt mir erst einmal auf wie weit Nvidia in Directx11 eigentlich mit dem Treiber in Front ist, das sind teilweise Welten von >50% mehr FPS in manchen Situationen.
das ist mir seit dem nv wunderpatch schon bekannt. ich hab schon drüber nachgedacht nen eigenen test im cpu limit amd vs nv aufzusetzen, weil es keiner der renomierten hardware seiten das testen will. stattdessen wird sowas totgeschwiegen.
Ich sehe da kein Spiel das jemals auf einer AMD Grafikkarte besser gelaufen ist als auf dem Nvidia Gegenstück, warum sollte sich das durch Polaris ändern?!
7 Jahr DX11 Bremse ist einfach genug.
stimmt so nicht. im cpu limit ist es egal wie die karte im gpu limit läuft. im cpu limit ist eine nv karte 20-30 schneller, und mit einem dualcore ist der unterschied noch viel krasser.

Cyphermaster
2016-08-23, 08:46:46
Nur weiß ich nicht, warum die Herren 1060 Sachen, immer im RX 480 Thread besprechen.Weil's um gegeinander positionierte Produkte geht? Ich hätte ja nichts gegen eine 100% strikte Trennung, aber dann bleiben die Threads hier SEHR kurz... ;)

MadManniMan
2016-08-23, 10:08:40
heute veröffentlicht: http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_gaming_x_3gb_review,12.html

Mal davon ab, dass die FCAT-Diagramme ne Katastrophe sind (wie wäre es, die zu trennen? Himmelherrgott ...):

Die Perzentilkurven auf dieser und den folgenden 5 Seiten http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_gaming_x_3gb_review,23.html sehen nicht so schlimm aus, wie ich befürchtet hätte.

(del)
2016-08-23, 10:42:07
Tomb Raider ist kaputt seit dem Windows-Update, ich habs erst mal aus der Suite entfernt.
Mal auf einen Patch warten, denn die Performance ist atm irgendwie eigenartig

Cyphermaster
2016-08-23, 11:00:51
im cpu limit ist eine nv karte 20-30 schneller, und mit einem dualcore ist der unterschied noch viel krasser.Könntest du mir erklären, wie das zu Stande kommen soll, wenn "im CPU-Limit" ja wörtlich bedeutet, daß die FPS durch die (nicht von der GPU abhängige) CPU-Leistung begrenzt werden?

dildo4u
2016-08-23, 11:04:44
Hast du noch nie was von Treiberoverhead gehört,das ist mit ein Grund warum DX12 und Vulkan so von AMD gepusht wird.Sie wissen wie grottig ihre DX11/OpenGL Performance im CPU Limit ist.

Cyphermaster
2016-08-23, 11:09:11
Also ist nicht die nV-Karte, sondern der nV-Treiber schneller, und es müßte eher Treiberlimit heißen?

-/\-CruNcher-/\-
2016-08-23, 11:11:11
@Schaffe

Zeigt mal wieder auf dass alle welche sich Fiji geholt haben doch nicht allzuschlecht gefahren sind. Zumal man Deus Ex mal abwarten sollte wo eben die 4GB Ram limitieren.
Da kommt wohl die Tage der passende Treiber!
RX 480 werden auch unter den Custom Modellen einfach zu heiß, zu Stromhungrig wenn man mehr als 1300 bis gar 1350 Mhz stabil an Takt möchte.

Deus Ex Mankind Divided ist auch noch nicht der neue Deferred+ (DX12) Renderer damit soll nochmal zusätzlich Performance kommen momentan allerdings noch LABs status, merkt man dann vor allem mit Tessellation auf älterer AMD Hardware (Konsolen,Grenada,Fiji,Hawai,Taiti,Tonga) ;)

plFBGkAEAxE

WIe gesagt ich konnte noch nie verstehen wie man die Konsolen heruntermachen konnte auf PC seite die Konsolen und Mobile bringen die Performance Innovationen sehr schnell weil sie gebraucht werden und alle Profetieren davon das war schon immer so ;)

Wenn ich diese PC vs Konsolen Masterrace Kiddy scheise lese wird mir immer Kotzübel.

BlacKi
2016-08-23, 11:21:55
Also ist nicht die nV-Karte, sondern der nV-Treiber schneller, und es müßte eher Treiberlimit heißen?
jaber, versuch mal eine amd karte mit nv treibern zu nutzen und umgekehrt. ich bezog mich auf das betreiben der karten, wozu der treiber notwendig ist.

Cyphermaster
2016-08-23, 11:51:30
jaber, versuch mal eine amd karte mit nv treibern zu nutzen und umgekehrt. ich bezog mich auf das betreiben der karten, wozu der treiber notwendig ist.
Wenn das so ist, dann muß man sich die pauschale "nV ist im CPU-Limit immer schneller"-Aussage aber auch in die Haare schmieren, weil dann eben auch nicht nur ausschließlich DX11 betrachtet werden kann, sondern auch DX12/Vulkan dazu gehört (und das ist eben aktuell AMD-Stärke), und an dem Bild reine Treiberveränderungen (d.h. auf gleicher Hardware) jederzeit eine Verschiebung zur Folge haben können.

(del)
2016-08-23, 12:21:29
Ist jetzt nur Hitman als Vergleich, aber ich erkäre hier mal im Detail unsere Software und auch die CPU-Limits in der Auswertung der Messungen. Das ist auch in Vorbereitung auf den Test der 1060 CE morgen :)

http://www.tomshardware.de/messung-gaming-performance-grafikkarten-bewertung,testberichte-242176.html

BlacKi
2016-08-23, 12:21:38
Wenn das so ist, dann muß man sich die pauschale "nV ist im CPU-Limit immer schneller"-Aussage aber auch in die Haare schmieren, weil dann eben auch nicht nur ausschließlich DX11 betrachtet werden kann, sondern auch DX12/Vulkan dazu gehört (und das ist eben aktuell AMD-Stärke), und an dem Bild reine Treiberveränderungen (d.h. auf gleicher Hardware) jederzeit eine Verschiebung zur Folge haben können.
die verschiebung wird kommen. das ist klar.
in dx12 gibts kein dramatisches cpu limit mehr, egal welcher hersteller. klar besteht der vorteil nur in dx9-11, aber man möchte ja in allen dx lvln gute performance haben / keinen i5/i7 kaufen müssen um spielbare fps zu erhalten.

ich nehme hier mal gerne den großteil der blizzard spiele. alles sub dx12. alles läuft auf nv prizipiell besser. das wird sich auch in zukunft nicht so schnell ändern. willst du hier extra weil du eine amd karte nutzt vom i3 auf den i5 umsteigen? oder vom i5 auf i7? 20-30% cpu performance muss man im oberen feld bitter bezahlen.

(del)
2016-08-23, 12:25:26
Die Mär mit der unter DX12 überflüssigen starken CPU kannst Du Dir eigentlich in dieser pauschlen Form glatt abschminken. Die Limitierung sinkt, keine Frage. Aber eine lahme CPU wird trotzdem fast immer weniger FPS ermöglichen, als eine zweckmäßig ausgelegte. :)

-/\-CruNcher-/\-
2016-08-23, 12:33:03
die verschiebung wird kommen. das ist klar.
in dx12 gibts kein dramatisches cpu limit mehr, egal welcher hersteller. klar besteht der vorteil nur in dx9-11, aber man möchte ja in allen dx lvln gute performance haben / keinen i5/i7 kaufen müssen um spielbare fps zu erhalten.

ich nehme hier mal gerne den großteil der blizzard spiele. alles sub dx12. alles läuft auf nv prizipiell besser. das wird sich auch in zukunft nicht so schnell ändern. willst du hier extra weil du eine amd karte nutzt vom i3 auf den i5 umsteigen? oder vom i5 auf i7? 20-30% cpu performance muss man im oberen feld bitter bezahlen.

Also als Spieler sollte man mindestens in i5 region investieren das ist auch so das target aller Entwickler seit langer Zeit 4 Kerne Optimal hin zu bekommen ;)

8 kern und mehr skalierung nimmt jetzt mit lower level und AMD Konsolen an fahrt auf ;)

Schaffe89
2016-08-23, 12:44:15
Das ist doch alles bekannt und auf die Multithreading Optimierungen seitens Nvidias für DX 11 zurückzuführen

Mir war nicht bekannt dass das so eklatant ist, zumal es Rust Benches nirgends gibt, auch Dayz ist so ein Kanditat, läuft auf AMD auch unterirdisch.

dargo
2016-08-23, 12:44:24
Hast du noch nie was von Treiberoverhead gehört,das ist mit ein Grund warum DX12 und Vulkan so von AMD gepusht wird.Sie wissen wie grottig ihre DX11/OpenGL Performance im CPU Limit ist.
Nvidia glänzt ja auch sowas von unter OpenGL im CPU-Limit. :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272

dildo4u
2016-08-23, 12:46:36
Das ganze fällt immer mher auf weil GPU's deutlich schneller schneller werden als CPU's.Da kann man nur hoffen das Zen ein Feuer unter Intel's Arsch zündet.

Schaffe89
2016-08-23, 12:55:15
Also ist nicht die nV-Karte, sondern der nV-Treiber schneller, und es müßte eher Treiberlimit heißen?

Mit mehr CPU Takt bekommst du mehr FPS, ist halt trotzdem auf der einen Seite ein Hardwarelimit und auf der anderen Seite ein Softwarelimit.
Ich hab in Rust mit der GTX 1060 bei Kämpfen und Gebäudesprengungen teils bis zu 3mal mehr FPS als mein Kumpel mit der rx480 inkl. i5 statt i3.

In ARK Survival bis zu 60% mehr Leistung.

Ich finde die Redaktionen sollten endlich mal einen allumfassenden Vergleich von solchen Early Access Spielen machen und vor allem endlich mal Messungen in niedriger Auflösung machen um zu sehen wie weit Nvidia eigentlich unter Directx11 besser bei hoher CPU Last abschneidet.

Das wurde sträflich vernachlässigt. Ich habe immer gedacht der Unterschied wäre nicht groß, er ist aber teils schier riesig.

Eine AMD Karte für Early Acess Titel ist definitiv ein Griff ins Klo, sollte der Titel nicht Directx12 schon unterstützen.

No Mans Sky, Dayz, Arma 3, ARK Survial, Rust, Miscreated, laufen bei Kämpfen bescheiden auf AMD das wäre doch mal ein Testaufbau.

BlacKi
2016-08-23, 13:21:48
Nvidia glänzt ja auch sowas von unter OpenGL im CPU-Limit. :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272
erstens sind 1,2ghz überhaupt nicht realistisch, und zweitens 61 fps sind doch genug für den durchschnittsgamer^^

das, worüber sich schaffe gerade aufregt ist eigentlich noch pille palle.

die meinsten rx460 karten wurden mit einem i7 OC getestet.

lächerlich!!!

genauso wie die rx 470 im perf./preis verhältnisses ganz oben steht... ja mit einem i7! bei einem günstigen 2,7ghz i5 würde selbst eine 4gb 960 die 470 verhauen.

aber das interessiert halt wohl einfach keinen...

dildo4u
2016-08-23, 13:25:29
Kein Plan wie oft er noch mit diesem konstruierten Müll kommen will.Er weiß selber was für ein Abfall die AMD Treiber ist und hat deshalb Projekt Cars,Tomb Raider,Mirror's Edge nicht gekauft.

dargo
2016-08-23, 13:56:03
erstens sind 1,2ghz überhaupt nicht realistisch..
Aha... weils jetzt Nvidia betrifft ist es wieder unrealistisch. :uup:

aufkrawall
2016-08-23, 14:00:06
Nein, sondern weil ein i3 mit 3,8Ghz die doppelten bis dreifachen fps schaffen könnte...
Dass du dich an so einem Murks wieder so aufhängst...

Cyphermaster
2016-08-23, 14:17:20
Mit mehr CPU Takt bekommst du mehr FPS, ist halt trotzdem auf der einen Seite ein Hardwarelimit und auf der anderen Seite ein Softwarelimit.Nur, daß BlacKi weiter oben das so hindreht, als wäre es auch ein Hardware-Limit, das nicht nur nach CPU- sondern auch je nach GPU-Hardware unterschiedlich liegt. Das ist aber eben nicht der Fall, weil diese Differenzen Software- und nicht Hardware-bedingt sind. Kurz: die FPS im CPU-Limit unterscheiden sich abhängig von Treiber und Software, nicht nach Hersteller der GPU im System, weswegen solche Pauschalismen wie "im cpu limit ist eine nv karte 20-30 schneller" (abseits dem Punkt fehlender Orthografie und Einheitenangabe) nicht zutreffen.

Ex3cut3r
2016-08-23, 15:01:31
Nvidia glänzt ja auch sowas von unter OpenGL im CPU-Limit. :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272

Das ist von Anfang/Mitte Juli, mittlerweile sind zig Patches, und Treiber released wurden. Glaube nicht, dass das noch repräsentativ ist.

dargo
2016-08-23, 15:28:36
Nein, sondern weil ein i3 mit 3,8Ghz die doppelten bis dreifachen fps schaffen könnte...
Dass du dich an so einem Murks wieder so aufhängst...
Es geht darum, dass der NV-Treiber unter OpenGL im CPU-Limit Schrott ist. Das wird von manchen aus der grünen Fraktion gerne verschwiegen. Vor dem Doom-Vulkan-Patch wusste man davon noch gar nichts.

Megamember
2016-08-23, 15:45:31
Es geht darum, dass der NV-Treiber unter OpenGL im CPU-Limit Schrott ist.

Und AMD würde unter selben Bedingungen besser aussehn?

dildo4u
2016-08-23, 16:01:51
Es geht darum, dass der NV-Treiber unter OpenGL im CPU-Limit Schrott ist. Das wird von manchen aus der grünen Fraktion gerne verschwiegen. Vor dem Doom-Vulkan-Patch wusste man davon noch gar nichts.
Dein Link ist schon veraltet NV hat die Doom Performance mit dem letzten Treiber verbessert.

dargo
2016-08-23, 16:05:38
Kein Plan wie oft er noch mit diesem konstruierten Müll kommen will.Er weiß selber was für ein Abfall die AMD Treiber ist und hat deshalb Projekt Cars,Tomb Raider,Mirror's Edge nicht gekauft.
Ich kaufe 2016 grundsätzlich nichts mehr ohne einen low level Renderer. pCars ist Schnee von gestern. Uraltengine mit einer Flimmerorgie vom Feinsten. Da verzichte ich gerne drauf. RotTR ist noch ein Thema, aber das Game ist mir für das Alter zu teuer. Max. 20€ gebe ich für diese Baustelle aus. Mirror's Edge wird auch eher ein ~15€ Titel bei mir, wenn überhaupt. Im Sommer interessieren mich einfach Games nicht so viel. Und es kommt ja immer neuer Stoff, sodass das Interesse irgendwann mal bei älteren Games nachlässt. Die Freizeit ist nun mal begrenzt. Aus dem Alter wo ich alles verschlingen musste bin ich lange raus.

Dein Link ist schon veraltet NV hat die Doom Performance mit dem letzten Treiber verbessert.
Dann zeig mir den Beweis der gleichen Szene.

Und AMD würde unter selben Bedingungen besser aussehn?
Nein... andere Szene, ähnliche Vorteile.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102929&postcount=1504

kuj0n
2016-08-23, 20:36:17
Dann zeig mir den Beweis der gleichen Szene.


Nein... andere Szene, ähnliche Vorteile.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102929&postcount=1504
Wo ist denn so ein niedriger Takt relevant? Ich habe einen i3 und eine 1060. Die FPS waren zuletzt sehr ähnlich. Ich kann gerne nochmal Screenshots machen.

captain_drink
2016-08-23, 20:53:34
Es geht darum, dass der NV-Treiber unter OpenGL im CPU-Limit Schrott ist.

Wenn NV in einem 100%-igen CPU-Limit mit einer High Level API deutlich langsamer als eine Low Level API ist, ist der Treiber also "Schrott"? Was ist dann der von AMD? Einen dafür passenden Superlativ dürfte es im Deutschen nicht geben.

Monsta
2016-08-23, 20:55:29
Wenn NV in einem 100%-igen CPU-Limit mit einer High Level API deutlich langsamer als eine Low Level API ist, ist der Treiber also "Schrott"? Was ist dann der von AMD? Einen dafür passenden Superlativ dürfte es im Deutschen nicht geben.

Aber klar gibt es den. Ich verwende gerne das Wort "Kernschrott"

dargo
2016-08-23, 20:56:36
Wenn NV in einem 100%-igen CPU-Limit mit einer High Level API deutlich langsamer als eine Low Level API ist, ist der Treiber also "Schrott"?

Ja... um es mal auf dem Dildo-Niveau wiederzugeben.


Was ist dann der von AMD?
Der OpenGL-Treiber von AMD ist im CPU-Limit weder besser noch schlechter als der von NV.

captain_drink
2016-08-23, 21:02:44
Der OpenGL-Treiber von AMD ist im CPU-Limit weder besser noch schlechter als der von NV.

Ich verstehe dich also richtig: Weil AMD und NV unter OGL im absoluten CPU-Limit gleichermaßen langsam (nehmen wir mal, dem wäre so) sind, NV aber nur im partiellen CPU- und GPU-Limit schneller ist als AMD, sind beide Treiber gleichermaßen Schrott?

dargo
2016-08-23, 21:03:32
Wo ist denn so ein niedriger Takt relevant?

Wieso versteift sich immer wieder jeder auf den niedrigen Takt? Du kannst auch gerne was aus dem Bereich Lynnfield oder Phenom II gepaart mit einer stark übertakteten Titan X nehmen. Das Ergebnis wird das selbe.


Ich habe einen i3 und eine 1060. Die FPS waren zuletzt sehr ähnlich. Ich kann gerne nochmal Screenshots machen.
Wird höchstwahrscheinlich nichts bringen da die GTX1060 schon einiges langsamer als eine OC Titan X ist. Dadurch verschieben sich die Limits wieder recht stark. Möglicherweise kannst du dem aber mit 720p entgegenwirken. Sollte es immer noch nicht reichen den i3 untertakten oder paar Grafikdetails reduzieren die ausschließlich auf Kosten der GPU gehen.

Ich verstehe dich also richtig: Weil AMD und NV unter OGL im absoluten CPU-Limit gleichermaßen langsam (nehmen wir mal, dem wäre so) sind, NV aber nur im partiellen CPU- und GPU-Limit schneller ist als AMD, sind beide Treiber gleichermaßen Schrott?
Nenne es von mir aus Treiberschrott oder API längst am Limit. Fürs Ergebnis spielt es keine Rolle.

Ex3cut3r
2016-08-23, 21:09:52
4770k @ 4.3 Ghz
16GB DDR3 @ 2133mhz
GTX 1070 @ 2038/4700mhz
FW. 372.54
1280x720 @ Max Details + 8xTXAA

OpenGL:
https://abload.de/thumb/20160823204941_1hgjt0.jpg (http://abload.de/image.php?img=20160823204941_1hgjt0.jpg)

Vulkan:
https://abload.de/thumb/image6dr6t2nssc4.jpg (http://abload.de/image.php?img=image6dr6t2nssc4.jpg)

Sry für die Unschäre, da hat der AutoFocus versagt. :redface:
In 3440x1440 (in der ich immer spiele), bringt Vulkan an der gleichen Stelle 3FPS mehr.

dargo
2016-08-23, 21:20:30
4770k @ 4.3 Ghz
16GB DDR3 @ 2133mhz
GTX 1070 @ 2038/4700mhz
FW. 372.54
1280x720 @ Max Details + 8xTSSAA

OpenGL:
https://abload.de/thumb/20160823204941_1hgjt0.jpg (http://abload.de/image.php?img=20160823204941_1hgjt0.jpg)

Vulkan:
https://abload.de/thumb/image6dr6t2nssc4.jpg (http://abload.de/image.php?img=image6dr6t2nssc4.jpg)

Wenn du der CPU jetzt noch 2-2,5Ghz gibst könnte es größer Faktor 2 geben.

Ex3cut3r
2016-08-23, 21:21:21
Logisch, aber warum sollte ich das tun? :redface:

dargo
2016-08-23, 21:23:42
Damit Dildo & Co endlich raffen wie toll der OpenGL Treiber im CPU-Limit ist und/oder die API ansich. Das Problem an der Geschichte ist halt, dass die CPU-Last grundsätzlich schon in Doom recht niedrig ist (logisch... Schlauchshooter) und gleichzeitig sich die Tatsache in die Gehirne der Spieler eingebrannt hat wir brauchen unbedingt die neuesten Quadcores von Intel und dann noch schön übertakten.

BlacKi
2016-08-23, 22:53:14
Damit Dildo & Co endlich raffen wie toll der OpenGL Treiber im CPU-Limit ist und/oder die API ansich. Das Problem an der Geschichte ist halt, dass die CPU-Last grundsätzlich schon in Doom recht niedrig ist (logisch... Schlauchshooter) und gleichzeitig sich die Tatsache in die Gehirne der Spieler eingebrannt hat wir brauchen unbedingt die neuesten Quadcores von Intel und dann noch schön übertakten.
ich weiß nicht inwiefern vulkan spiele überhaupt eine relevanz in dieser diskussion spielen. willst du nur darauf hinaus das vulkan weniger cpu limit hat als opengl? ist doch toll das es vulkan gibt.

mir gehts um die spiele die kein dx12 und vulkan unterstützung bekommen.

die ganzen blizzard spiele werden auch noch in den nächsten jahren auf dx11 setzen. so wie viele andere spiele.

willst du nun alle spiele die ein starkes cpu limit haben als amd nutzer meiden? kann man machen, ich finds lächerlich.

Nur, daß BlacKi weiter oben das so hindreht, als wäre es auch ein Hardware-Limit, das nicht nur nach CPU- sondern auch je nach GPU-Hardware unterschiedlich liegt. Das ist aber eben nicht der Fall, weil diese Differenzen Software- und nicht Hardware-bedingt sind. Kurz: die FPS im CPU-Limit unterscheiden sich abhängig von Treiber und Software, nicht nach Hersteller der GPU im System, weswegen solche Pauschalismen wie "im cpu limit ist eine nv karte 20-30 schneller" (abseits dem Punkt fehlender Orthografie und Einheitenangabe) nicht zutreffen.

ich habe nie gesagt das es direkt hardware bedingt ist. es ist gpu treiber bedingt und damit (solange es im treiber nicht optimiert wird, so wie bei nv) hersteller bedingt!

aufkrawall
2016-08-23, 23:02:45
4770k @ 4.3 Ghz
16GB DDR3 @ 2133mhz
GTX 1070 @ 2038/4700mhz
FW. 372.54
1280x720 @ Max Details + 8xTSSAA

OpenGL:
https://abload.de/thumb/20160823204941_1hgjt0.jpg (http://abload.de/image.php?img=20160823204941_1hgjt0.jpg)

Vulkan:
https://abload.de/thumb/image6dr6t2nssc4.jpg (http://abload.de/image.php?img=image6dr6t2nssc4.jpg)

Sry für die Unschäre, da hat der AutoFocus versagt. :redface:
In 3440x1440 (in der ich immer spiele), bringt Vulkan an der gleichen Stelle 3FPS mehr.
Thx für den Vergleich.
Zur Vollständigkeit muss man da aber auch noch sagen, dass diese Szene nicht nur für die CPU eine der fordernsten Stellen ist, sondern ebenso auch für die GPU.
Mit der 390 mit Vulkan ging es an dieser Stelle bei mir auf bis zu 59fps in WQHD runter.

Hermelinmaster
2016-08-23, 23:43:23
@Schaffe89 Würde es Dir was ausmachen mal ein paar Zahlen zu ARK (Central) in 1080p Ultra und 2160p Medium mit 480 und 1060 zu veröffentlichen? Ich bin immernoch auf der Suche nach vergleichbaren Zahlen.
Danke schonmal vorab.

-/\-CruNcher-/\-
2016-08-24, 01:26:21
Thx für den Vergleich.
Zur Vollständigkeit muss man da aber auch noch sagen, dass diese Szene nicht nur für die CPU eine der fordernsten Stellen ist, sondern ebenso auch für die GPU.
Mit der 390 mit Vulkan ging es an dieser Stelle bei mir auf bis zu 59fps in WQHD runter.

Und man sollte noch klarstellen das vor allem der OpenGL shoot nicht die Real FPS zeigt und auch auch die Frametime somit nicht exakt ist ;)

10 zu 5 ms sind es garantiert nicht

Schaffe89
2016-08-24, 03:37:21
Ich kaufe 2016 grundsätzlich nichts mehr ohne einen low level Renderer.

Komisch dass sich dein Kaufverhalten immer so mit AMD´s Erfolgen deckt.
Kaufe kein Spiel mehr ohne Low Level Renderer.. aha. Ich kaufe das Spiel was Spaß macht völlig egal ob Low Level Renderer oder nicht.
Dann schließt du mal eben 95% der Spiele aus.

Ich frag mich gerade welches Early Acess Spiel überhaupt gut auf AMD läuft, so wie das hier sehe tuts fast kein einziges.

@Schaffe89 Würde es Dir was ausmachen mal ein paar Zahlen zu ARK (Central) in 1080p Ultra und 2160p Medium mit 480 und 1060 zu veröffentlichen? Ich bin immernoch auf der Suche nach vergleichbaren Zahlen.
Danke schonmal vorab.

Nein gar nicht, mache ich dann gleich morgen, hier aber ein kurzer Link:

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Benchmark-Test-2016-1182869/

Hab mit der GTX 1060 bei Medium etwa 60 FPS, mein Kumpel mit der rx480 nur etwa 35.

Nightspider
2016-08-24, 04:27:12
und gleichzeitig sich die Tatsache in die Gehirne der Spieler eingebrannt hat wir brauchen unbedingt die neuesten Quadcores von Intel und dann noch schön übertakten.

Zu Recht. Eine alte CPU bremst dich überall aus, nicht nur in Spielen. Und LL-API Spiele kannste bisher an einer Hand abzählen. Interessante LL-API Spiele gibts noch gar keine. Interessant wirds erst mit BF1 aber das wird dank der Konsolen eh nicht viel Leistung brauchen.

Zudem werden die Anforderungen an die CPUs in Zukunft auch wieder massiv steigen, wenn die Entwickler vollen Gebrauch von der frei gewordenen Leistung machen.

Deswegen kann ich es kaum abwarten einen Kaby Lake 7700K Prozessor @5Ghz mein eigenen nennen zu können.

Bei Star Citizen wirste auch bei DX12 und Vulkan nicht weit mit einem popeligen i3 oder AMD Prozessor der letzten Jahre kommen.

aufkrawall
2016-08-24, 04:39:45
Unreal Engine 4 war bis auf Fable Legends mit MS' eigenem DX12 Renderer bisher eben recht GCN-unfreundlich.
Cryengine oder Frostbite laufen einfach besser auf GCN. Womöglich ist Ark auch nicht sonderlich Overhead optimiert, dann hat man mit AMD sowohl GPU- als auch CPU-seitig Nachteile.
Find die Spiele-Ergebnisse mit der UE4 aber bislang technisch allgemein ziemlich underwhelming.

-/\-CruNcher-/\-
2016-08-24, 04:45:44
Komisch dass sich dein Kaufverhalten immer so mit AMD´s Erfolgen deckt.
Kaufe kein Spiel mehr ohne Low Level Renderer.. aha. Ich kaufe das Spiel was Spaß macht völlig egal ob Low Level Renderer oder nicht.
Dann schließt du mal eben 95% der Spiele aus.

Ich frag mich gerade welches Early Acess Spiel überhaupt gut auf AMD läuft, so wie das hier sehe tuts fast kein einziges.



Nein gar nicht, mache ich dann gleich morgen, hier aber ein kurzer Link:

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Benchmark-Test-2016-1182869/

Hab mit der GTX 1060 bei Medium etwa 60 FPS, mein Kumpel mit der rx480 nur etwa 35.

Also wenn du vom selben test wie PCGH ausgehst dann kann da aber gewaltig was nicht stimmen da währst ja auf Titan X Niveou das der Treiber so extreme zugelegt hat seit dem letzten PCGH test eher unwahrscheinlich du musst wohl eher eine sehr einfache Szene meinen ;)

Die GTX 970 bei PCGH ist so auf dem Niveou wie etwa die RX480 deines freundes das würde Pi mal daumen hinkommen aber das du gleich 2x so viel erreichst wie die GTX 970 sehr unwahrscheinlich ;)

dargo
2016-08-24, 06:21:39
Zudem werden die Anforderungen an die CPUs in Zukunft auch wieder massiv steigen, wenn die Entwickler vollen Gebrauch von der frei gewordenen Leistung machen.

Von welcher Zukunft sprichst du? Nochmal... die Konsolen geben den Ton an. Wie stellst du dir die massive Steigerung bei einem Multiplattformtitel vor? Sollen die Konsolen dann mit 15fps laufen oder wie? Selbst in der kommenden PS Neo werden nur die kleinen Katzen drin sein. Bei Scorpio bin ich mir noch nicht sicher, könnten aber auch wieder nur die Katzen mit etwas mehr Takt sein. So gesehen wird die CPU-Leistung massiv erst frühestens mit der PS5 und eventuell dem Nachfolger der Scorpio steigen. Da haben wir schon 2020+. Soo stark lässt sich die CPU-Last in Games nicht skalieren. Klar... beim LoD kann man noch was machen, das würde ich allerdings nicht in die Kategorie massiv schieben. Zumal wir ja heute schon ein vielfaches der CPU-Leistung der Konsolen am PC haben, die Leistung muss man nur abrufen. Und das funktioniert halt nicht so gut mit Steinzeit APIs.


Bei Star Citizen wirste auch bei DX12 und Vulkan nicht weit mit einem popeligen i3 oder AMD Prozessor der letzten Jahre kommen.
Erstens weißt du das noch gar nicht. Zweitens... bis Star Citizen final ist spricht keiner mehr von einem i3, geschweige denn einem älteren AMD Prozessor. Stichwort Zen.


Kaufe kein Spiel mehr ohne Low Level Renderer.. aha. Ich kaufe das Spiel was Spaß macht völlig egal ob Low Level Renderer oder nicht.

Du kannst machen was du willst.


Dann schließt du mal eben 95% der Spiele aus.

Vollkommender Unsinn im Jahr 2016.


Ich frag mich gerade welches Early Acess Spiel überhaupt gut auf AMD läuft, so wie das hier sehe tuts fast kein einziges.

Early Access interessiert mich nicht die Bohne. Das letzte EA müsste bei mir Assetto Corsa gewesen sein. Das läuft allerdings schon länger sehr gut, trotz DX11. Bei der Fülle an AAA-Titeln ist mir EA aber wie gesagt völlig wumpe. Die Freizeit ist nunmal begrenzt.

(del)
2016-08-24, 06:35:05
So, test der GTX 1060 CE ist online (CE = Crippled Edition)
MSI GeForce GTX 1060 Gaming X 3G: 1152 Shader & halber Speicher (http://www.tomshardware.de/msi-geforce-gtx-1060-gaming-x-3g-pascal-grafikkarte,testberichte-242193.html)