PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce GTX 1060


Leonidas
2016-07-20, 16:32:43
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1060


Update 20. Juli 17:17
Die Benchmarks von Les Numeriques auf der letzten Seiten waren fälschlicherweise in der Tabelle für WQHD anstatt der Tabelle für FullHD angesiedelt. Dies wurde korrigiert. Damit wurden auch alle Performance-Durchschnitts-Werte neu kalkuliert und berichtigt. Die Differenz liegt durchgehend im Nachkommabereich.

etp_inxession
2016-07-20, 17:26:59
Und nun noch einen PerfIndex für die neuen APIs ...

Gast
2016-07-20, 18:00:07
Und nun noch einen PerfIndex für die neuen APIs ...

Der Sinn des Index ist es viele Werte aus vielen Werten eine möglichst gut vergleichbare Zahl zu erzeugen.
Bei gerade mal einer Hand voll Spiele in den neuen APIs ist ein solcher folglich auch noch nicht sinnvoll, man kann ja einfach die Werte dieser Spiele ansehen.
Für einen sinnvollen Index braucht es erstmal eine ausreichende Anzahl an Messwerten.

Gast
2016-07-20, 19:52:03
Das Abschneiden der 960 beruht also auf nur 2GB RAM. Wie erklärt sich dann, dass die 4GB Variante auch nicht nennenswert besser ist? Und jetzt komme keiner mit 'weil 4,5GB benötigt werden', denn das ist nicht nur lächerlich, sondern dann wäre u.a. die 970 schlechter. Hat der Herr Redakteur wieder einen kapitalen Analyse-Bock geschossen.

Plitzkrieg
2016-07-20, 20:15:23
Der Performance Index steht aber bereits mehr oder weniger fest ...

y33H@
2016-07-20, 22:47:46
Warum keine Benchmarks und Messungen der Leistungsaufnahme von Golem? Liegen für die Geforce GTX 1060 doch genug vor ;(

FlashBFE
2016-07-20, 23:10:14
Wieder eine gute Zusammenfassung. Mir hätten noch ein paar Sätze zu den neuen Grafik-APIs gefehlt, da es darin ja schon einen bemerkbaren Unterschied gibt. Golem hat dafür sogar einen extra Artikel ausgekoppelt (http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html).

Und nun noch einen PerfIndex für die neuen APIs ... Das ist gar nicht nötig. Die neuen Spiele und APIs fließen im Laufe der Zeit mit den Benchmarks eh in den vorhandenen Index ein. Ich weiß nur nicht, wie es aktuell gemacht wird mit Artikeln, die die neuen APIs als Exoten noch in extra Abschnitten betrachten und in ihrem normalen Benchmarkfeld bei den alten APIs bleiben.

Gast
2016-07-20, 23:30:34
nein nein so geht das nicht. Die neuen APIs sind eine Zäsur. Wir benötigen zwei Indexe, einen für DX11 und älter und einen für DX12 und Vulkan (vielleicht noch VR)

Nur so lässt sich ein treffender Vergleich über alle Karten anstellen. Wenn man jetzt 12-24 Monate einfach alle APIs in einem Bench-Index mischt ist die Bandbreite der individuellen Ergebnisse doch sehr weit und die Aussage des Index verwässert extrem gegenüber dem, was wir die letzten 2 Jahre hatten.
Der Index würde dann kaum mehr Wert haben und man müsste wieder jedes mal selbst prüfen wie die Karten bei den neuen oder den alten APIs in der Regel abschneiden.

Bitte zwei Indexe.

Leonidas
2016-07-21, 07:02:32
Warum keine Benchmarks und Messungen der Leistungsaufnahme von Golem? Liegen für die Geforce GTX 1060 doch genug vor ;(


Das ist ein größerer Aufwand, das zu berücksichtigen. Das muß ich dann natürlich auch für alle Grafikkarten machen, wo entsprechende Meßwerte vorliegen. Zudem bin ich diesbezüglich gerade mit TweakPC auf die Nase geflogen - die haben entsprechendes angefangen und es dann aber nicht weitergeführt.



2 Indexe?

Unwahrscheinlich. Der Index soll ja gerade schon alles abbilden. Aber ich beobachte die Entwicklung.

Mr. Lolman
2016-07-21, 07:11:24
Hier in Zahlen gegossen. Bei PCGH schneiden die Radeons so schlecht ab, wie sonst nirgendwo. Und das obwohl sich PCGH immer als Tiegel der Neutralität aufspielt. Kein Wunder dass denen die Abonnenten davonlaufen.

Gast
2016-07-21, 07:13:34
findet das keiner merkwürdig das der idle verbrauch der rx480 auf derm level der r9 380 liegt? also 16 Watt



hier auf der seite ist er identisch mit der 1060.

http://www.benchmark.pl/testy_i_recenzje/geforce-gtx-1060-test/strona/26427.html


bedeutet das das jeder die lunch daten der rx 480 einfach kopiert wurden??

j4l
2016-07-21, 08:24:40
Bei CB schneidet die 960 besser ab, als beim Rest. In deren Methodik-Artikel (https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/2/) steht, dass die Referenzkarte mit 1.289 MHz gestestet wurde. Das ist doch verkehrt, oder nicht? Hat die Referenzkarte nicht nur einen Boost von 1178 MHz?

Ist das ein Schreibfehler, habe ich einen Denkfehler oder wurde die Karte doch falsch gemessen? Würde ja erklären, warum 5% mehr rausgekommen sind.

Bei Ht4U und Eurogamer ist überhaupt nicht ersichtlich, was da getestet wurde.

Geht der 960 mit 128Bit also die Puste aus? Die anderen Tests zeigen insgesamt 10% weniger Leistung als laut Index da sein müsste.

Gast
2016-07-21, 08:33:03
Bei adored.tv ist eine gute Zusammenfassung der 1060er Launch-Reviews (wenn man den schottischen Akzent ertragen kann).
Es ist wirklich bescheiden wie einige eigentlich etablierte Tech-Seiten die Benchmarks manipulativ einsetzen. Mit Journalismus hat das imho nix mehr zu tun.

Schade wenn man jetzt schon als Verbraucher die Analysen der Analysen anschauen muss, um ein einigermassen realistisches Bild zu bekommen.

MadManniMan
2016-07-21, 08:53:24
Hier in Zahlen gegossen. Bei PCGH schneiden die Radeons so schlecht ab, wie sonst nirgendwo. Und das obwohl sich PCGH immer als Tiegel der Neutralität aufspielt. Kein Wunder dass denen die Abonnenten davonlaufen.

Wir haben es SO oft durchgekaut ... PCGH dokumentiert gut, wie sie messen und es gibt nur zwei Erklärungen:

1) Sie lassen sich tatsächlich von nV dafür bezahlen. (Hint: traust Du das Raff, Quasar, baidd und den anderen ernsthaft zu? Wo sind die Whistle-Blower? yeeh@?)

2) Das stimmt halt einfach nicht. Könnte es vielleicht sein, dass Du liest, was Du lesen willst? :uponder:

Weißt was? Ich lass mal nachher ein bisschen (Anfänger)-Statistik drüber laufen und dann reden wir nochmal drüber :up:

MadManniMan
2016-07-21, 09:23:45
(eigentlich wollte ich was anderes nachrechnen, man sollte sowas nicht vor dem zweiten Kaffee machen)

Auf die Schnelle FullHD, die anderen beiden später. Da sind garantiert große statistische Dummheiten drin, ich hatte halt noch keine Statistik-VL. Könnte mal jemand Signifikanztests drauf werfen? Man kann einfach Leos Tabelle von der Website in Excel kopieren.

Alle Werte beziehen sich auf Vergleiche zur 1060! Das heißt, dass es darum geht, um wie weit vom Schnitt abweichend Tendenzen der anderen Karten zur auf 100 % normierten 1060 auszumachen sind.

Was wir eigentlich haben wollen würden, wären alle einzelnen FPS-Werte. Die Mathematik da unten darf man streng genommen so nicht anwenden.

FullHD auf den ersten Blick:
- PCGH zeigt höhere NV- und kleinere AMD-Werte
- andersrum bei Hardware Canucks
- Hardwareluxx: insgesamt höhere Werte
- Computerbase: beide höher, dabei AMD-Werte stärker erhöht

Mr. Lolman
2016-07-21, 10:03:48
Wir haben es SO oft durchgekaut ... PCGH dokumentiert gut, wie sie messen und es gibt nur zwei Erklärungen:

1) Sie lassen sich tatsächlich von nV dafür bezahlen. (Hint: traust Du das Raff, Quasar, baidd und den anderen ernsthaft zu? Wo sind die Whistle-Blower? yeeh@?)

2) Das stimmt halt einfach nicht. Könnte es vielleicht sein, dass Du liest, was Du lesen willst? :uponder:

Weißt was? Ich lass mal nachher ein bisschen (Anfänger)-Statistik drüber laufen und dann reden wir nochmal drüber :up:

Auch wenn sie dokumentieren, wie sie messen, gibts diverse Umstände die ein seltsames Bild erzeugen. Bspw: Mirrors Edge - da haben sie die optimale Performance gemessen, im Wissen dass nach 42 Sekunden die fps bei Speichermangel um die Hälfte einbrechen um dann auch zusätzlich noch miese Frametimes zu produzieren. Das haben die zwar schön dokumentiert aber veröffentlichen dennoch Benchmarks, die nichts mit der tatsächlichen Performance zu tun haben (wer spielt das Spiel nur 42 Sekunden lang). In den Balken ist eine 3.5GB 970 dann so flott wie eine 8GB 390X tatsächlich ist die 390X bei längerer Spieldauer knapp 3x so schnell, wie eine 970(!)

Trotz dieses Wissens wars kein Problem für die, das Diagramm mit den fragwürdigen Werten zu veröffentlichen. Bei Doom hingegen haben die tollen Gewinne durch Vulkan es nur in den Fließtext geschafft, weil da keine Zeit für Balken war.

1) Nein, aber der Wunsch ist oft Vater des Gedanken*. Siehe zB auch diesen sehr aufschlußreichen Artikel: http://www.heise.de/tp/artikel/46/46264/1.html

2) Jo meinetwegen. Die Beispiele, die ich gebracht hab, waren aus jüngerer Vergangenheit - die alten Kamellen lass ich mal besser ruhen.



*EDIT - Stichwort: Experimentatoreffekt

konkretor
2016-07-21, 10:23:38
Hier in Zahlen gegossen. Bei PCGH schneiden die Radeons so schlecht ab, wie sonst nirgendwo. Und das obwohl sich PCGH immer als Tiegel der Neutralität aufspielt. Kein Wunder dass denen die Abonnenten davonlaufen.


Dann guckt dir mal den Artikel auf Heise an


http://www.heise.de/newsticker/meldung/GeForce-GTX-1060-Radeon-RX-480-Killer-mit-geringer-Leistungsaufnahme-3270665.html

Alleine die Überschrift finde ich schon frech, also bei Killer stelle ich mir zahlen jenseits der 50% vor....


Dann schaust mal ins Heise Forum zum Artikel....

j4l
2016-07-21, 11:13:21
Auch wenn sie dokumentieren, wie sie messen, gibts diverse Umstände die ein seltsames Bild erzeugen. Bspw: Mirrors Edge - da haben sie die optimale Performance gemessen, im Wissen dass nach 42 Sekunden die fps bei Speichermangel um die Hälfte einbrechen um dann auch zusätzlich noch miese Frametimes zu produzieren. Das haben die zwar schön dokumentiert aber veröffentlichen dennoch Benchmarks, die nichts mit der tatsächlichen Performance zu tun haben (wer spielt das Spiel nur 42 Sekunden lang). In den Balken ist eine 3.5GB 970 dann so flott wie eine 8GB 390X tatsächlich ist die 390X bei längerer Spieldauer knapp 3x so schnell, wie eine 970(!)

Trotz dieses Wissens wars kein Problem für die, das Diagramm mit den fragwürdigen Werten zu veröffentlichen. Bei Doom hingegen haben die tollen Gewinne durch Vulkan es nur in den Fließtext geschafft, weil da keine Zeit für Balken war.

1) Nein, aber der Wunsch ist oft Vater des Gedanken*. Siehe zB auch diesen sehr aufschlußreichen Artikel: http://www.heise.de/tp/artikel/46/46264/1.html

2) Jo meinetwegen. Die Beispiele, die ich gebracht hab, waren aus jüngerer Vergangenheit - die alten Kamellen lass ich mal besser ruhen.

*EDIT - Stichwort: Experimentatoreffekt

Hey, ich habe mich zuerst auch an den Kopf gefasst, als ich den PCGH Test gesehen habe. Aber nach längerem Überlegen ist der Test wirklich gut. Die 480@1150MHz kommt ziemlich genau 10% langsamer raus. Die Karten sind aber in real durch kleines Undervolting, 10% PT Änderung gut und dauerhaft auf die 1266MHz zu bringen. Und das sind zufällig genau 10% mehr Takt ;D und die Karte skaliert ja fantastisch mit, wir die Tests gezeigt haben. Man Zufälle gibt das :D

Was habe ich daraus also gelesen, die 480@1266Mhz ist also genauso schnell, wie eine 1060@1708MHz.
So und jetzt kommen ja noch die Customs, wo bei der 480 die Sapphire mit 1340MHz, also noch mal 6% mehr Takt ab Werk drauf kommen sollen. Und 6% sind zufällig 1809 MHz bei den leichten OC Versionen der 1060, die erst ab 320€ losgehen...

Die Karten sind also leistungstechnisch fast komplett gleich, wenn man das will, nur das AMD dafür 50 Watt mehr braucht.
Heise hat ja mal gleich mindestens 15% bis maximal 35% Unterschied erfunden. ;D

Gast
2016-07-21, 11:22:49
Interessanter Abschnitt zu async compute (1070/1080 aber 1060 sollte identisch sein) auf Anandtech:

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9

Entgegen der Vermutung mancher scheint Nvidia mit Pascal voll funktionsfähiges async compute zu haben.
Anandtech erklärt die höheren Performance-Gewinne von AMD mit deren breiteren Architektur (mehr ALUs) und daraus resultierender schlechterer Auslastung. Dadurch entstehen mehr Leerlaufzeiten als bei Nvidia die durch async compute gefüllt werden können.

Plitzkrieg
2016-07-21, 11:30:23
Doom Doom Doom ... Vulkan Vulkan Vulkan ... Nvidia hat noch kein Vulkan Support im Treiber! Und das soll dann nen riesen Aufhänger werden?

Jetzt wo AMD nicht mehr mit DX12 punkten kann und man 3d Mark vorwirft, dass sie nicht Async Compute verwenden *sic braucht man ein anderes Zugpferd ... Das Hitman für keinerlei Mensch mit Verstand als ernstzunehmender Benchmark durchgeht hat man bei den Fanboys ja zumindest endlich eingesehen.

Malabolge
2016-07-21, 13:09:13
1) Sie lassen sich tatsächlich von nV dafür bezahlen. (Hint: traust Du das Raff, Quasar, baidd und den anderen ernsthaft zu? Wo sind die Whistle-Blower? yeeh@?)

Nein nicht doch !! Sie haben (nach eigener Aussage !) :
Nur ein sehr gutes Verhältnis zu NVdia:anonym:
(PS: Ich kann das hier jetzt auch noch raussuchen , war hier im Forum !)
Schande wer da Böses denkt :hammer:

Guten Freunden gibt man eben ein Küsschen (ähh Pardon) einen guten Artikel:wink:
Wie sang Kaiser Franz so schön : "Gute Freunde ....":D

Und dann dieser "Artikel" auf Heise.:mad::uhammer::uclap::mad:
Früher hätte man sich für so einen DRECK bei Heise geschämt.
Aber die Journalie lässt eben "Global" schwer nach.

(Oder AMD hat nicht genug Karten "zum Testen" augeliefert verschenkt :devil:)

Gast
2016-07-21, 13:33:45
Oder AMD hat nicht genug Karten "zum Testen" augeliefert verschenkt :devil:)
Oder die Karte ist den überzogenen pre-hype Erwarungen nicht gerecht geworden und hat mit #powergate sogar noch ein Handfesten Skandal obendrauf gelegt.

Schon mal in Erwägung gezogen?

Gast
2016-07-21, 16:06:32
Entgegen der Vermutung mancher scheint Nvidia mit Pascal voll funktionsfähiges async compute zu haben.
Anandtech erklärt die höheren Performance-Gewinne von AMD mit deren breiteren Architektur ...
nein, sie schreiben dass es mehr AC Funktionalität gibt, die Implementierung von nVidia zumindest genügt eine zu geringe Auslastung zu kompensieren. Der Treiber übernimmt dabei noch eine Rolle.
Doom Doom Doom ... Vulkan Vulkan Vulkan ... Nvidia hat noch kein Vulkan Support im Treiber! Und das soll dann nen riesen Aufhänger werden? Jetzt wo AMD nicht mehr mit DX12 punkten kann und man 3d Mark vorwirft, dass sie nicht Async Compute verwenden *sic braucht man ein anderes Zugpferd .......

DX12 und AC wird bei den Foristen im allgemeinen überhaupt noch nicht verstanden, weil lediglich aktuelle Anwendungsversuche bewertet werden, statt die API zu verstehen und die Konsequenzen für die Softwareentwicklung zu sehen.

In DX12 ist AC keine Funktion, sondern eine Paradigma der Softwareentwicklung gegeneinander konkurrierende Threads zu nutzen, bei denen dann eine Priorisierung dafür sorgt, dass bestimmte Operationen nicht zu spät ausgeführt werden. Das ganze sollte eigentlich HW-agnostisch auf beliebigen Zielplattformen in "low level" laufen.
Bei GCN wird das dann in HW berücksichtigt und läuft einfach. Bei nVidia muss man auch bei der Pascal-Architektur die Eigenheiten der jeweiligen HW berücksichtigen, damit die Batches zum richtigen Zeitpunkt abgesetzt werden.
Ohne enge Zusamenarbeit zwischen Gameentwickler und Treiberentwickler wird das nicht gut laufen, was sich im mangelnden AC Support von Doom erkennen lässt, aber nVidia will ja nun für dieses Game mit Bethesda intensiv dran arbeiten. Es bleibt spannend zu sehen, ob der Treiberanteil bei AC mit Pascal sehr CPU-Lastig wird, oder ob das wirklich gut von der HW unterstützt wird. Man müsste messen ob das auf langsamen CPUs dann noch ausreichend fix geht.

Es ist auch relativ albern immer nach den FPS zu schauen, denn eigentlich geht es in Wirklichkeit nur um möglichst niedrige Frametimes und dass dort keine Ausreisser sind. Die FPS sind nur ein Pseudowert für die einfach gestrickten Leute, der zwar auf niedrige Latenz und wenige Ausreisser schliessen lässt, aber letztlich auch falsche Schlüsse zulässt.

Bedenklich war die Aussage bei der letzten GDC von nVidia, dass für DX12 getrennte Pfade für nVidia und AMD genutzt werden sollen, ansonsten solle man bei DX11 bleiben.
Das sagt schon viel aus, dass es leider eben nicht so ist, dass DX12 mit AC schon voll unterstützt wird....

Leider wird somit auch weiterhin VR-Audio, Physik, KI und anderes nur geringfügig bis garnicht auf der GPU ausgeführt, mal abgesehen von den Konsolenoptimierungen....

Gast
2016-07-21, 20:28:07
Dann guckt dir mal den Artikel auf Heise an

"bei Killer stelle ich mir zahlen jenseits der 50% vor
Definiere 'Killer'. 50% Mehrleistung wäre kein Killer, sondern völlig andere Leistungs- und damit in der Realität des Marktes Preis-Region. Aus. Ende.

Sie spielt aber in der gleichen Liga. Und ist der RX480 soweit ist das sehe in allen Punkten mehr überlegen als der Aufpreis. Ich würde nach aktuellem Stand zur 1060 raten. Absolut. Und damit ist sie ein Killer.

Dass die c't von ihrem Bibel-Status inzwischen SEHR weit weg ist, wissen alle.

Dass es tendenziöse Berichterstattung gibt, ist auch nichts neues. So ist mir aufgefallen, dass die Kritik an dem unter Last lauten Radial-Lüfter ziemlich verhalten ist. AMD wurde für gleiche Konstruktion früher verteufelt ohne Ende.

Sich auf kommende 'Herstellerdesigns' zurück zu ziehen ist unglaublich lächerlich. Ob und wenn ja was sich ändert sieht man dann. Und nicht jetzt durch die zerkratze Glaskugel.

NVidia macht aus Kundensicht viel falsch. AMD macht noch mehr falsch :-(

Malabolge
2016-07-22, 08:14:37
Oder die Karte ist den überzogenen pre-hype Erwarungen nicht gerecht geworden und hat mit #powergate sogar noch ein Handfesten Skandal obendrauf gelegt.

Skandal ? (im Sperrbezirk ?:cool:)
Skandal nenne Ich es wenn Ich bei der Hardware betrogen werde, und von der Journalie nur "beschwichtigendes" zu Lesen ist ! ( Ach ja : "Ärgernis" :eek:)
Ein NICHT schädliche Überfahren der Norm, ist zwar auch eine "Sauerei", aber wie gesagt kam dadurch niemand zu SCHADEN.(Standard sollte sowas sicherlich nicht werden !)
Aber es als "SKANDAL" zu bezeichen ,zeigt wieder mal eure "Objektivität"
Die ist aber ehh flöten, seit gewisser Zeit (Stichwort "Asphaltshredder";))


Wogegen beim 970-Desaster "Kunden" mit frisierten HW-Angaben gelockt wurden und TEURE Preise berappt haben. Da wurde ein "Schaden" verursacht !

Und dass ihr immer dieses "Argument" (#powergate) auspacken müsst, sagt doch schon so einiges aus !



PS: unter 32-16-8 wird ihnen geholfen:D
(Falls du zu jung dafür bist :wink: : Spider Murphy Gang - Skandal im Sperrbezirk - Use the Google)

Gast
2016-07-22, 09:33:18
Skandal ? (im Sperrbezirk ?:cool:)
Skandal nenne Ich es wenn Ich bei der Hardware betrogen werde, und von der Journalie nur "beschwichtigendes" zu Lesen ist ! ( Ach ja : "Ärgernis" :eek:)
Ein NICHT schädliche Überfahren der Norm, ist zwar auch eine "Sauerei", aber wie gesagt kam dadurch niemand zu SCHADEN.(Standard sollte sowas sicherlich nicht werden !)
Woher willst Du denn wissen wer oder was dabei zu schaden gekommen ist?
Hast die Bilder der abgerauchten Platinen nicht im Netz gesehen? So etwas kommt mir bestimmt nicht in den Rechner.

Wogegen beim 970-Desaster "Kunden" mit frisierten HW-Angaben gelockt wurden und TEURE Preise berappt haben. Da wurde ein "Schaden" verursacht !Was hat denn die GTX970 mit AMD's #powergate Skandal zu tun?
Ganz davon abgesehen das die GTX970 nach zwei Jahren immer noch Top performt und AMD selbst mit 14nm nicht an die Effizienz herankommt.

Und dass ihr immer dieses "Argument" (#powergate) auspacken müsst, sagt doch schon so einiges aus !Nach zwei Jahren immer noch wegen der GTX970 rumheulen ist natürlich so viel besser. :facepalm:

y33H@
2016-07-22, 12:28:28
1) Sie lassen sich tatsächlich von nV dafür bezahlen. (Hint: traust Du das Raff, Quasar, blaidd und den anderen ernsthaft zu? Wo sind die Whistle-Blower? y33H@?)Ich hab zugegeben den roten R8 von AMD bevorzugt, den blauen und den grünen hab ich meist in der Garage gelassen ... mittlerweile hab ich alle drei umlackieren lassen und zwei davon verkauft.

Mein übrig gebliebener ist Zebra-gestreift mit roten Felgen =)