PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Grafikkarten-Marktüberblick September 2015


Leonidas
2015-09-13, 19:56:47
Link zum Artikel:
http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-september-2015

matty2580
2015-09-13, 20:26:40
Da soll noch einmal jemand behaupten, Leo schreibt gegen AMD. ^^
Fast überall empfiehlt er AMD-Karten, beschreibt genau warum Nvidia Karten teilweise schlechter sind, lässt die Nachteile der AMD-Karten aber einfach weg.

Nach dem Marktüberblick würde ich jetzt behaupten, dass das sehr einseitig pro AMD geschrieben ist.

Das die R9 390X ihre 4 GB mehr VRAM bei 4k kaum nutzen kann, weil die Karte dafür einfach zu schwach ist, lässt man einfach weg. Bei den anderen Empfehlungen sieht es ähnlich aus.

Sorry Leo, ich weiß du machst dir Sorgen um AMD, ich auch.
Aber das hier geht etwas zu weit....

Gast
2015-09-13, 20:28:59
Hallo,

ich möchte darauf hinweisen, dass die einzige Version der fury X schon bei Atelco für etwa 660€ zu haben ist, mehr dazu siehe hier:

http://geizhals.de/?cat=gra16_512&xf=1440_R9+Fury+X#xf_top

mfg victore99

maximus_hertus
2015-09-13, 20:46:01
Warum gibt es eine Empfehlung für 70W, 120W und 200W bzw. bis zu dieser Grenze? Wenn, dann würde ich vorschlagen: kein PCIe-Stromanschluß, 1x6 Pin, 2x6 Pin oder 1x8 Pin. Leider kann man das nur unschwer mit den Watt anzeigen, da die Hersteller gerne deutlichst überdimensionieren (hatte mehrere GTX 760 Karten mit 1x8 und 1x6 Pin, warum auch immer).

Gast
2015-09-13, 21:14:55
AMD hat in fast jedem Preissegment (wieder einmal) das beste Angebot aus reiner Preis/Leistungs-Sicht. Dabei sind die Abstände zu nVidia diesesmal sogar in allen vier Fällen regelrecht beachtenswert bei zwischen 5-10% besserem P/L-Verhältnis.

Das ist eben weiterhin fast nichts. 5-10% sind genau der Bereich, in welchem eben nicht aus Preis/Leistungssicht sondern aufgrund anderer Vorlieben gekauft wird. Ab einem Vorteil von 15-20% wird es interessant, dann wird es wirklich schwer noch die Karte mit dem schlechteren Preis/Leistungsverhältnis zu empfehlen.

Wurden für die Berechnung der 4k-Energieeffizienz eigentlich auch Verbrauchsmessungen in 4k verwendet? Wenn nicht ist das Diagramm eher sinnlos.

MadManniMan
2015-09-13, 21:42:09
Das die R9 390X ihre 4 GB mehr VRAM bei 4k kaum nutzen kann, weil die Karte dafür einfach zu schwach ist, lässt man einfach weg. Bei den anderen Empfehlungen sieht es ähnlich aus.

Details bitte.

Elkinator
2015-09-13, 21:47:25
Aber das hier geht etwas zu weit....
sicher, weil man mal nicht gegen AMD flamt geht es dir zu weit!

Gast
2015-09-13, 22:16:39
Ok, zum Thema Preis/Leistung hab ich da aber noch ne Frage. Warum wird bei den inzwischen doch bemerkenswerten Unterschieden die Stromkosten nicht berücksichtigt?

Bsp.: Eine 960 mit 10/98 Watt gegen eine ähnliche 280 mit 15/189 Watt.

Bei sagen wir mal 5h pro Tag die die Karte unter Spielelast läuft und 10h bei leichter Beschäftigung (Video gucken etc.).
Sagen wir mal rund 100Watt Differenz wo der höhere Idle-Verbrauch grob eingerechnet ist. Das ergibt:
365Tage * 5h = 1825 Betriebsstunden im Jahr * 100 Watt = 182,5kWh * 28,8 cent = 52,56 Euro im Jahr Mehrkosten.

960: ~325 Euro für 2 Jahre
280: ~410 Euro für 2 Jahre

Bei 2-3 Jahren Nutzungsdauer ist der Gesamtpreis der Karte bei nVidia doch besser?

matty2580
2015-09-13, 22:24:21
Details bitte.

Ich antworte einmal mit einem Zitat von Andreas Schilling (Hardwareluxx)

Kritisch sehe ich auch die Entscheidung auf den beiden Modellen Radeon R9 390 und R9 390X jeweils 8 GB Grafikspeicher zu verbauen. Diese Entscheidung konnte schon bei der Radeon R9 290 und 290X kritisiert werden. Einen Nutzen ziehen beide Karte bei klassischen Anwendungen nicht. Es gibt nur extrem wenige Anwendungsfälle, bei denen dies sinnvoll sein kann.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35726-amd-radeon-r9-390x-390-und-380-im-test.html?start=19

Tamagothi
2015-09-13, 22:27:12
Das die R9 390X ihre 4 GB mehr VRAM bei 4k kaum nutzen kann, weil die Karte dafür einfach zu schwach ist, lässt man einfach weg.

Können wir genauso über die TitanX sagen. Und trotzdem wird sie wegen den 12GB gekauft ;)

MadManniMan
2015-09-13, 22:35:51
Ok, zum Thema Preis/Leistung hab ich da aber noch ne Frage. Warum wird bei den inzwischen doch bemerkenswerten Unterschieden die Stromkosten nicht berücksichtigt?

Kannst Du doch machen. Mir blieb ein bisschen die Spucke weg, als Du mit 10 + 5 Stunden an 365 Tagen im Jahr gerechnet hast, was ein guter Indikator für völlig unterschiedliche Nutzungsprofile ist.

Jemand wie ich würde aktuell vielleicht 5 Euro im Jahr Unterschied erzocken, jemand wie Du ist alt genug, um selbst zu rechnen ;)


Ich antworte einmal mit einem Zitat von Andreas Schilling (Hardwareluxx)


http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35726-amd-radeon-r9-390x-390-und-380-im-test.html?start=19

Nochmal: mehr RAM zu haben ist aus welchem Grund warum schlecht? Ja, der Stromverbrauch geht hoch. Aber wer eine 390(X) kauft, den juckt das dann sicher auch nicht mehr.

Und: was sind die ANDEREN Sachen, auf die Du oben angespielt hast?

maximus_hertus
2015-09-13, 22:55:24
Ok, zum Thema Preis/Leistung hab ich da aber noch ne Frage. Warum wird bei den inzwischen doch bemerkenswerten Unterschieden die Stromkosten nicht berücksichtigt?

Bsp.: Eine 960 mit 10/98 Watt gegen eine ähnliche 280 mit 15/189 Watt.

Bei sagen wir mal 5h pro Tag die die Karte unter Spielelast läuft und 10h bei leichter Beschäftigung (Video gucken etc.).
Sagen wir mal rund 100Watt Differenz wo der höhere Idle-Verbrauch grob eingerechnet ist. Das ergibt:
365Tage * 5h = 1825 Betriebsstunden im Jahr * 100 Watt = 182,5kWh * 28,8 cent = 52,56 Euro im Jahr Mehrkosten.

960: ~325 Euro für 2 Jahre
280: ~410 Euro für 2 Jahre

Bei 2-3 Jahren Nutzungsdauer ist der Gesamtpreis der Karte bei nVidia doch besser?

WTF?! Hmmm 24 Stunden hat ein Tag - 7-8 gehen fürs Schlafen drauf, dann noch 1-2 für diverse Sachen im Haushalt, 8-10 fürs Arbeiten (+ Weg Hin und Zurück). Selbst wenn man keine andere Hobbys hat, blieben gerade mal 6 Stunden übrig.

Aber jeder hat seine eigenen Schwerpunkte ;)

Zum Stromverbrauch der GTX 960, hier mal reale Werte von kaufbaren Karten (aus der PCGH):

Evga SSC ACX 2.0+ 4GB 147W
MSI Gaming 4G 136W
ASUS Strix DC2OC-4GD5 150W
Gigabyte G1 Gaming 2GB 170W
MSI Gaming 2G 135W
Palit Super Jetstream 136W

nVidia gibt übrigens 120W an, nicht 98W. Aber Referenzkarten gibts eh nicht und die Custom Karten (mit mehr Speed) schlucken dann auch teils deutlich mehr.

Taxieren wir die Differenz auf 50W bei 750 Std Zocken pro Jahr. Idle sind die Karten zu ähnlich, da spielt das verwendete Mainboard mehr rein als die Grafikkarte.

50W * 750 Std = 37,5 kWh = ca. 10 Euro pro Jahr.


Es ist einfach unglaublich schade, dass man bei nV häufig die besten Stromverbrauchswerte mit den schnellsten Karten kreuzt und ein unrealistisches Bild erstellt. So toll die Maxwells bei der Energieeffizienz sind, Customkarten können deutlich mehr verbrauchen.

MadManniMan
2015-09-13, 23:17:40
Es ist einfach unglaublich schade, dass man bei nV häufig die besten Stromverbrauchswerte mit den schnellsten Karten kreuzt und ein unrealistisches Bild erstellt. So toll die Maxwells bei der Energieffizient sind, Customkarten können deutlich mehr verbrauchen.

Ja, das war mir bei den 960ern auch schonmal aufgefallen. Ist das bei den größeren Maxwells auch so?

Gast
2015-09-13, 23:21:27
Es ist einfach unglaublich schade, dass man bei nV häufig die besten Stromverbrauchswerte mit den schnellsten Karten kreuzt und ein unrealistisches Bild erstellt. So toll die Maxwells bei der Energieffizient sind, Customkarten können deutlich mehr verbrauchen.


Gut, das mit den Custom-Karten hatte ich so nicht bedacht bzw. unterschätzt wie sehr die Karten (zweifelhaft) hochgeprügelt werden. Die 98 Watt Verbrauch habe ich dem Artikel selbst auf Seite 1 entnommen :)
Bin jetzt aber mal direkt auf den link gegangen der dann zu der Stromverbrauchsübersicht vom 23. Feb. führt. Die Differenzen zwischen den einzelnen Webseiten bei den gleichen Karten ist ja teils immens. Hab bisher immer nur den Verbrauchswert des Marktüberblicks zugrunde gelegt.
Wollte eigentlich bis nächstes Jahr warten, aber da meine GF660 meinte nur noch Schwarzbild anzuzeigen, wirds vllt. doch mal ne AMD als Übergangskarte :)

maximus_hertus
2015-09-13, 23:35:18
980 Ti: nV gibt 250W an (mit dem auch häufig "verglichen" wird), gemessen wurden folgende Werte: 306W, 305W, 297W, 280W, 275W, 259W, 255W, 241W. Nur eine Karte bleibt bei max 250W, die anderen ziehen teils über 300W (und sind dabei auch schneller, so fair will ich sein ;) ).

980 "Vanilla": nV gibt 165W an (mit dem auch häufig "verglichen" wird), gemessen wurden folgende Werte: 300W, 260W, 242W, 202W, 201W, 200W, 199W. Keine Karte bleibt bei max 165W (mehr Speed / Boost-Clock fordert seinen Tribut).

Natürlich gibt es auch Karten, die weniger verbrauchen, aber idR kauft man die schnellsten Karten, nicht die sparsamsten (zumindest bei uns im Laden ist das häufig so).

Gast
2015-09-14, 00:59:41
Zum Stromverbrauch der GTX 960, hier mal reale Werte von kaufbaren Karten (aus der PCGH):

Evga SSC ACX 2.0+ 4GB 147W
MSI Gaming 4G 136W
ASUS Strix DC2OC-4GD5 150W
Gigabyte G1 Gaming 2GB 170W
MSI Gaming 2G 135W
Palit Super Jetstream 136W

980 Ti: nV gibt 250W an (mit dem auch häufig "verglichen" wird), gemessen wurden folgende Werte: 306W, 305W, 297W, 280W, 275W, 259W, 255W, 241W. Nur eine Karte bleibt bei max 250W, die anderen ziehen teils über 300W (und sind dabei auch schneller, so fair will ich sein ;) ).

980 "Vanilla": nV gibt 165W an (mit dem auch häufig "verglichen" wird), gemessen wurden folgende Werte: 300W, 260W, 242W, 202W, 201W, 200W, 199W. Keine Karte bleibt bei max 165W (mehr Speed / Boost-Clock fordert seinen Tribut).

@Leonidas:
Wäre da nicht auch mal ein Update der Verbrauchswerte angesagt?

Ätznatron
2015-09-14, 07:12:24
Da ist ein kleiner Fehler in der Tabelle:

Die 390X sollte mit einem Performance-Index von 75% vor der Nvidia GTX 980 (nur 70%) liegen.



Das die R9 390X ihre 4 GB mehr VRAM bei 4k kaum nutzen kann, weil die Karte dafür einfach zu schwach ist, lässt man einfach weg.

8 GB können hier und da halt den Unterschied zwischen großer Ruckelei und noch halbwegs angenehmen Spielerlebnis machen.

Besser jedenfalls 4 GB mehr Speicher zu haben als nicht.

CD-LABS
2015-09-14, 08:55:42
Sehr schön, dass es jetzt auch 4K-Effizienz und Preis-Leistungsdiagramme gibt... (y)(...)

Wurden für die Berechnung der 4k-Energieeffizienz eigentlich auch Verbrauchsmessungen in 4k verwendet? Wenn nicht ist das Diagramm eher sinnlos.
...allerdings muss ich mich der Kritik von Gast anschließen:
Da liegen die gleichen Leistungsaufnahmen zu Grunde, ohne, dass es in der Praxis die gleichen Werte wären---allerdings bleibt dadurch die 2160P-Auswahl die repräsentative, die unter 1080P wird verfälscht, denn dort schneiden ja einige Karten wie die Fury, 390 oder Fury X besser ab...
(die Nano und die Geforces sollten auf einem Wattlevel bleiben---wobei man sich eh darüber streiten kann, ob das überhaupt sinnvoll ist, dass die Grakahersteller STANDARDmäßig mehr FPS zulassen, als der Monitor Hz hat, mit einem solchen Tuning... :biggrin:)


Bzg. der Empfehlungs-Tabelle:
Ich würde noch bei oberes HighEnd-Segment (ab 400€) noch etwas hinschreiben, was du schon häufiger gebracht hast: Besser im Segment drunter kaufen! Die 390 hat leicht bessere Energieeffizienz (2,05 vs. 1,9 in 4K) UND deutlich bessere P/L (1,65 vs. 1,35)

Ansonsten würde ich die 270 gar nicht empfehlen, genauso bei der 280X, die Partnerkarten (bloß rebranded, nicht wie bei 285 und 290 neu entwickelt und z.T. sogar für 300er nochmal verbessert) sind veraltet, (statt 270 ne Geforce, statt 280X ne 380) aber das geht über die Kompetenz der Tabelle aus!

Iscaran
2015-09-14, 09:57:31
Ok, zum Thema Preis/Leistung hab ich da aber noch ne Frage. Warum wird bei den inzwischen doch bemerkenswerten Unterschieden die Stromkosten nicht berücksichtigt?

Bsp.: Eine 960 mit 10/98 Watt gegen eine ähnliche 280 mit 15/189 Watt.

Bei sagen wir mal 5h pro Tag die die Karte unter Spielelast läuft und 10h bei leichter Beschäftigung (Video gucken etc.).
Sagen wir mal rund 100Watt Differenz wo der höhere Idle-Verbrauch grob eingerechnet ist. Das ergibt:
365Tage * 5h = 1825 Betriebsstunden im Jahr * 100 Watt = 182,5kWh * 28,8 cent = 52,56 Euro im Jahr Mehrkosten.

960: ~325 Euro für 2 Jahre
280: ~410 Euro für 2 Jahre

Bei 2-3 Jahren Nutzungsdauer ist der Gesamtpreis der Karte bei nVidia doch besser?

Das Problem ist das viele einfach vergessen das Maxwell bei OC leider seine Energieeffizienz verliert.
Die Karten sind @default auf das sparsamste eingestellt was geht...ändert man das durch TT/PT Target limit erhöhung oder gar durch OC geht der Verbrauch in der Regel stark nach oben und nähert sich gar dem Verbrauch der AMD-Karten.

Gab da einen guten Artikel auf HT4u der das zeigte.

Die AMD-Karten hingegen sind auf ihr "Leistungslevel" getrimmt. Hätte AMD die Karten im schnitt 5-10% "langsamer" platziert wäre der Verbrauch meist 20-30% niedriger.

EDIT: falsches Zitat ersetzt

Arcanoxer
2015-09-14, 10:05:05
Natürlich gibt es auch Karten, die weniger verbrauchen, aber idR kauft man die schnellsten Karten, nicht die sparsamsten (zumindest bei uns im Laden ist das häufig so).
Wie die ASUS Strix 970.
Mal davon abgesehen das ich meine Karten nicht "im Laden" kaufe sondern Online bestelle achte ich primär auf die Lautstärke und Verbrauch.

maximus_hertus
2015-09-14, 11:39:11
Wie gesagt, bei mir in der "Praxis" verbrauchen alle GTX 980 Karten 165W. Wenn man dann darauf hinweist, dass OC Karten mehr verbrauchen werde ich häufig blöd angeschaut.

Dennoch haben die Maxwell-Karten mit Standardtakt eine sehr gute Energieeffizienz. Aber mit OC dann nicht mehr (zwangsläufig), dazu ist Gigabyte z.B. ein Kandidat, der das PT massiv erhöht (siehe GTX 980) und so selbst ohne OC mehr verbrauchen.

MadManniMan
2015-09-14, 11:49:50
Wer erstellt eigentlich die besten Listen mit den Verbräuchen von Referenz- und Partnermodellen und wo kann man die finden?

BlacKi
2015-09-14, 15:48:31
980 "Vanilla": nV gibt 165W an (mit dem auch häufig "verglichen" wird), gemessen wurden folgende Werte: 300W, 260W, 242W, 202W, 201W, 200W, 199W. Keine Karte bleibt bei max 165W (mehr Speed / Boost-Clock fordert seinen Tribut).

Natürlich gibt es auch Karten, die weniger verbrauchen, aber idR kauft man die schnellsten Karten, nicht die sparsamsten (zumindest bei uns im Laden ist das häufig so).
wahrscheinlich ist keine davon eine referenz karte. alles custom karten die deutlich mehr leistung bieten.

es sind also keine typischen 980er mehr. wenn jemand eine 980 als vergleich heran zieht dann meint er damit nicht solche karten.

eine 390x ist langsamer als eine 980 oc und dabei bleibt sie meistens bei 200w wogegen eine 390x gerne mal "etwas" mehr zieht.

G3cko
2015-09-14, 18:15:54
Ok, zum Thema Preis/Leistung hab ich da aber noch ne Frage. Warum wird bei den inzwischen doch bemerkenswerten Unterschieden die Stromkosten nicht berücksichtigt?

Bsp.: Eine 960 mit 10/98 Watt gegen eine ähnliche 280 mit 15/189 Watt.

Bei sagen wir mal 5h pro Tag die die Karte unter Spielelast läuft und 10h bei leichter Beschäftigung (Video gucken etc.).
Sagen wir mal rund 100Watt Differenz wo der höhere Idle-Verbrauch grob eingerechnet ist. Das ergibt:
365Tage * 5h = 1825 Betriebsstunden im Jahr * 100 Watt = 182,5kWh * 28,8 cent = 52,56 Euro im Jahr Mehrkosten.

960: ~325 Euro für 2 Jahre
280: ~410 Euro für 2 Jahre

Bei 2-3 Jahren Nutzungsdauer ist der Gesamtpreis der Karte bei nVidia doch besser?

LOL. Ein durschnittlicher Deutscher arbeitet im Schnitt abzüglich Urlaub: 223 Tage im Jahr.

223* 8 = 1784 Stunden
1784 / 365 = 4,89 Std.

Welcher Mensch soll bitte 5 Std Dauerlast erzeugen?

Wenn ein Hardcore-Gamer auf 2 Std Volllast kommt, dann ist das schon sehr viel. Nich vergessen. Volllast. League of Legends, Diablo 3, Anno 1602 darf man nicht spielen, denn schon muss man wieder andere Games zum Auslgeich zocken.
;D;D:freak::freak:;D;D

Was hilft einem der beste Stromverbrauch, wenn man als Nvidia Nutzer leider eine Leistungsklasse tiefer kauft bei gleichem Budget und somit früher wieder upgraden muss. Und green IT ist das deshalb noch lange nicht:
http://polpix.sueddeutsche.com/bild/1.1240038.1355474500/860x860/elektroschrott.jpg

http://www.stromverbrauchinfo.de/stromkostenrechner.php

Gast
2015-09-14, 19:13:10
Passt ja super, als Empfehlungen Auslaufmodelle zu benennen. Merke: Kurzes Verfallsdatum. Sehr kurzes.
Dass die Beurteilung _heute_ korrekt ist, mag wohl stimmen.

Gast
2015-09-14, 20:28:27
Immer wieder diese Verbrauchsdiskussionen mit Mehrkosten.
Sitzt man da eigentlich im Winter mit Pelzmantel vor dem Rechner?
Was an Energie rausgeblasen wird, wird schließlich bei den Heizkosten wieder eingespart.
Und Ölheizung ist auch nicht so viel günstiger, wenn die Anschaffung und Wartung mit einbezogen wird.
Grad an den lauen Herbst und Frühlingstagen zock ich lieber etwas anstatt das Heizöfchen anzustellen. Da hab ich mit dem verbratenem Strom wenigsten mehr Spass.

Bei solchen Sparbetrachtungen sollte man immer die Gesamtbilanz betrachten!

BlacKi
2015-09-14, 21:02:30
Passt ja super, als Empfehlungen Auslaufmodelle zu benennen. Merke: Kurzes Verfallsdatum. Sehr kurzes.
Dass die Beurteilung _heute_ korrekt ist, mag wohl stimmen.
bis auf die fury/nano karten sind alle amd karten rebrands bis nächstes jahr bleiben die "aktuell".

Gast
2015-09-15, 14:02:03
bis auf die fury/nano karten sind alle amd karten rebrands bis nächstes jahr bleiben die "aktuell".Zur Aussage selbst: Und? Zur implizierten Kritik: Es wurden aber in 3 von 4 Fällen nicht die "aktuellen Rebrands" empfohlen.
Die Empfehlungen sind 1:1 aus Perf./Preis. Bei abgelösten Modellen nur eine Frage der Lagerbestände, bis der rasant schlechter wird.

GTX 950 statt 270
380 statt 280X, wobei der Rückstand der GTX960 klein ist
390 statt 290 und ich persönlich würde da klar zur GTX970 raten, sofern man nicht Dual-GPU für 4K baut (wofür 390 aktuell wohl DIE Karte ist).

Ich mag AMD, aber bei den aktuellen 'Rebrands' sind die Preise im Vergleich nicht sonderlich attraktiv.

Ich musste zudem speziell bei der Nebenempfehlung für die GTX960 sehr lächeln. Wie war das noch mit 'indiskutable Speicherausstattung'?

Gast
2015-12-14, 11:58:29
Und, wer hatte Recht?

Als Beispiel:
Empfehlung R9 270 laut Tabelle 130-140 €. Bei geizhals nicht <150 gelistet. Nur drei Modelle überhaupt von mehr als zwei Händlern *1. De facto <170 nicht mehr lieferbar und selbst bei dem Preis gibt es 'sofort lieferbar' für kein Modell mehr als 2 Anbieter.

280X nur noch ein Modell bei mehr als 2 Anbietern zu brauchbarem Preis lieferbar (also ggf. jetzt zuschlagen). Ob nun die 280X wirklich günstiger zu kriegen war/ist als die 280, sei mal dahin gestellt.

Von der 290 scheint man nur noch 2-3 in .de verkaufen zu müssen, bevor alle bzw. Mondpreise.

*1 Mindfactory & Töchter sind ebenso nicht getrennt zu zählen wie z.B. K+M & Bora, Atelco Versand & Filialen, usw. und Einträge Marke 'nicht lieferbar' zählen gar nicht.