PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce GTX Titan X: Neue Werte bei Stromverbrauch und Performance ...


Leonidas
2015-04-09, 17:53:14
Link zur News:
http://www.3dcenter.org/news/geforce-gtx-titan-x-neue-werte-bei-stromverbrauch-und-performance-index

forenhoernchen
2015-04-09, 19:50:50
das mit dem 4k-Performance Index gefällt mir, freut mich dass da jetzt eine so runde Lösung gefunden wurde.
Dass dann die "Zwischenauflösung" von 2560x1440 jetzt ein wenig unterm Tisch fällt ist sicher net so super für die, die solche Monitore im Einsatz haben. Andererseits sieht man an dem Einzelplot und auch an den 2 Zahlen eh recht gut, wie man gedanklich zwischen FHD und UHD interpolieren kann, um genauere Schätzungen für die Wunschauflösung zu bekommen.
Langfristig wird UHD der 2560er Auflösung eh den Rang ablaufen, schon alleine wegen VR-Gaming und den UHD-TVs, so gesehen ist der neue 2. Index wohl recht zukunftssicher. Dass im Gegensatz zum alterwührdigen Performance-Index eine High-End-Graka als Referenz genommen wird, verlängert die Lebensdauer des neuen Index automatisch weiter.

Das mit dem Single-plot würde ich primär immer bei Marktübersichten sowie Neu-Vorstellungen von relevanteren Grafikkarten machen, besonders weil man hier auch sieht, wie sehr sich die Architekturen in ihrem Verhalten unterscheiden (AMD profitiert schon länger viel stärker von höheren Auflösungen, die neue TitanX spielt hier aber zumindest die alten nVidia-Karten an die Wand, daher ja auch der starke Abfall der alten nVidias).

Menace
2015-04-09, 21:08:45
Ich dachte zuerst was eine extrem starke Karte im Vergleich zur Konkurrenz (einschließlich eigener), dann viel mir die Skalierung auf... :freak:

Macht das doch mal von 0 bis 100%; dürfte ja nicht so schwer sein.

HisN
2015-04-09, 21:45:17
Davon abgesehen ist die Spielbarkeit der GeForce GTX Titan X unter der 4K-Auflösung wie bekannt als "grenzwertig" zu betrachten..


Was wie schon in der letzten Diskussion über die X und 4K alleine auf den Standpunkt des Redakteurs ankommt. Von meinem Standpunkt aus gibt es da gar keine Frage. Wer natürlich 120 FPS bei Ultra-Settings und 8xMSAA erwartet, der darf von nix anderem ausgehen.

Ich finde 50+ FPS in Ultra-Settings in Watch Dogs, 45+ FPS in Ultra-Settings in DA:I, 90 FPS AVG in BF4 und Ultra-Settings, 60+ FPS in High Crysis3 (alles mit FXAA) alles andere als Grenzwertig.

maximus_hertus
2015-04-09, 21:52:35
Wenn man UHD in Ultra Details mit 4xAA zocken will, wird es dann doch etwas knapp. Ergo ist die X die erste Karte, bei der man bei UHD nur leichte Kompromisse eingehen muss. Dennoch reicht sie halt noch nicht für alles in Ultra Details in UHD, wobei jeder selber entscheiden muss, wo seone Prioritäten liegen.

HisN
2015-04-09, 21:58:29
So isses,
und da UHD so viel Auflösung mit sich bringt dass die Kanten keine Sägezahntreppen mehr haben, braucht man (in meinen Augen) keinen Kantenrätsel-Mechanismus zum vermatschen der nicht mehr vorhandenen Treppen. Aber auch das muss jeder für sich selbst rausbekommen.

CD-LABS
2015-04-09, 22:46:12
@Leo: Fantastisch, dass du dich zu einem 3DCenter-4K-Index durchringen konntest!
Auch das Eingeständnis deines anfänglichen Fehlers bzg. der Einordnung der Karte in den alten Index ist sehr positiv zu werten! Weiter so!

Geldmann3
2015-04-09, 23:43:20
Das mit dem 4K Performance Index ist eine gute Idee und die Titan X auf 100% zu setzen auch, da sie sich sicherlich einen Namen machen wird.

Der Einfachheit halber könnte man die Titan X jetzt ja auch einfach in Full HD auf 100% setzen. Wobei es für die Umrechnung des alten Performace Index einfacher wäre, bei 1000% einfach wieder auf 100% zu schwenken, da die Umrechnung dann einfach im Kopf erfolgen kann, indem man eine Null wegnimmt.

forenhoernchen
2015-04-10, 02:12:18
...
Der Einfachheit halber könnte man die Titan X jetzt ja auch einfach in Full HD auf 100% setzen...

Den alten Index wie bisher weiter zu führen ist imho gescheiter, warum die gesamte Rückwärtskompatibilität weghauen, nur weil wir langsam auf die 4-stelligen Zahlen zugehen? Das ist Kosmetik und nix weiter. Der neue (und langfristig wichtigere) 4k-Index fängt jetzt ja eh wieder bei 100% an und wird vor 2016 sicher nicht die 200%-Marke knacken (wenn überhaupt).

FlashBFE
2015-04-10, 09:05:45
Schön, wenn Ideen der Leserschaft aufgegriffen werden, nicht nur hier, sondern auch im GTX970-Kaufempfehlungs-Meinungsbildungsthread. Damit ist der Index nun sowohl rückwärtskompatibel, als auch zukunftssicher. Man darf auch nicht vergessen, dass sogar im 3DC noch hauptsächlich FullHD benutzt wird laut der letzten Umfrage. Der "alte" Index wird also noch lange interessant bleiben. Ob jetzt die Titan X oder eine andere Karte bei UHD auf 100% gesetzt wird, ist eigentlich völlig egal. Nach zwei Generationen spielt das eh keine Rolle mehr.

fondness
2015-04-10, 09:25:04
Full-HD ist so Steinzeit, wäre besser der Performaceindex orientiert sich zumindest an 1440p.

BlacKi
2015-04-10, 10:06:28
Full-HD ist so Steinzeit, wäre besser der Performaceindex orientiert sich zumindest an 1440p.

dazu brauch man aber eben auch die tests dazu, und zur 1440p auflösung gibts weit weniger tests als zu fhd. die vergleiche zu alten karten würde man ebenso verlieren. fhd wird noch lange als referenz dienen und wird erst wegfallen wenn 4k standard geworden ist.

das 4k leistungsranking ist zusätzlich arbeit welches man schon hätte früher bringen können wenns nicht unnötig mehrarbeit bedeutet hätte.

G3cko
2015-04-11, 11:29:44
Richtig gut ist hierbei die steigenden Performance-Tendenz der Radeon R9 290X unter höheren Auflösungen zu sehen, genauso auch wie die fallende Performance-Tendenz von GeForce GTX 780 Ti und 980 unter höheren Auflösungen

Sicherlich eine interessante Darstellung, aber ich glaube dir ist hier ein Fehler unterlaufen.

Ein 5960x mit Last auf nur einem Kern verbraucht entsprechend weniger.

Genau diesen Effekt gibt es auch bei Grafikkarten. Übertrieb dargestellt: Wenn du mit einer aktuellen High-End-Karte ein 10 Jahre altes Spiel spielst wird diese sich langweilen und deutlich weniger Strom ziehen. Vermutlich kaum über Idle.

Wenn du das mal auf deine Grafik überträgst merkst du, dass du nicht mit dem theoretischen Maximalverbrauch in allen Szenarien rechnen kannst.

MrSpadge
2015-04-11, 12:56:00
Sauber, Leo, so sieht das richtig gut aus!

Full-HD ist so Steinzeit, wäre besser der Performaceindex orientiert sich zumindest an 1440p.
Wenn das so ist, haben wir wahnsinnig viele Steinzeitmenschen. Außerdem zeigt dir der Skalierungsgraph doch eindeutig, dass du gut linear zwischen FHD und 4k interpolieren kannst. Wenn man 2 Werte nimmt (und dies ist inzwischen aufgrund der großen Bandbreite an Auflösungen nötig), dann sollten die nicht direkt nebeneinander liegen, sondern einen möglichst großen, repräsentativen Bereich abdecken. Laptops zum Zocken sind teilweise noch nicht bei FHD angekommen, und das aus gutem Grund. Auch wenn viele nur noch von 4k reden.. als praktische Lösung werden uns die niedrigeren Auflösungen noch lange erhalten bleiben.

Wenn du das mal auf deine Grafik überträgst merkst du, dass du nicht mit dem theoretischen Maximalverbrauch in allen Szenarien rechnen kannst.
Das stimmt, aber genau deshalb wird ja der mittlere, in Spielen gemessene Stromverbrauch angegeben. Statt "Perf./TDP" sollte "Perf./W" genommen werden, jeweils mit den gemessenen Durchschnittswerten.

MrS

G3cko
2015-04-11, 19:57:56
Das stimmt, aber genau deshalb wird ja der mittlere, in Spielen gemessene Stromverbrauch angegeben. Statt "Perf./TDP" sollte "Perf./W" genommen werden, jeweils mit den gemessenen Durchschnittswerten.

Das ändert nichts an der Problematik.

Bezogen auf den 5960x. Statt mit dem Verbrauch von 8 Kernen zu rechnen nimmst du nun 6 Kerne und weißt garnicht ob deine Anwendung nur 3 Threads nutzt.

Du müsstest wie bei ht4u direkte Verbrauchswerte der Karten haben für die jeweiligen Benches.

MrSpadge
2015-04-12, 10:20:50
Und wo soll Leo solche werte herbekommen? So detailliert misst das doch keine einzige Seite. Und selbst wenn man diese Werte hätte, dann müsste man für ne vernünftige Darstellung doch die ganzen einzelnen Tests & Messwerte präsentieren. Das ist genau das Gegenteil von dem, was man mit einem durchschnittlichen Wert anstrebt!

Bei GPUs ist der Unterschied in der Auslastung übrigens deutlich kleiner als bei CPUs, solange man nicht in's CPU-Limit läuft. Selbst in ultra-niedriger "HD"-Auflösung hat man deutlich über 1 Mio Pixel, die parallel bearbeitet werden können. Ohne, dass der Programmierer sich darum kümmern müsste (wie bei CPUs).

Falls dich dieser Punkt so interessiert, weil du meist ältere Spiele zockst, welche die GPU kaum fordern: hol dir ne mitelgroße Karte und freu dich darüber, dass der Stromverbrauch fast vernachlässigbar ist. Dafür muss man bestimmt nicht die 3DC-Bewertung umbauen.

MrS

G3cko
2015-04-12, 11:07:15
Das soll kein Angriff sein, ich finde die Darstellung interessant. Besonders da viele mit dem Stromverbrauch argumentieren ohne die Zusammenhänge zu kennen.

Und nein du kannst eben nicht auf der einen Seite einen durchschnittswert nehmen und auf der andernen Seite einen absolutwert für das jeweilige Szenario. Das ist schlicht Falsch!

Ich stelle mal eine Behauptung auf:
Ich fände es plausibler, wenn die AMD 290x ebenso einen linearen Verbrauch wie die anderen Modelle hat. Durch die höhere Auslastung unter hohen Settings wird die 290x durch Ihr 512Bit Speicherinterface stärker ausgelastet und verbraucht mehr. Unter niedrigen weniger.

Je stärker ein Chip in seinem gesamten Umfang auslgeastet wird, desto mehr verbraucht er.
Ein äquivalentes Beispiel:
http://www.computerbase.de/2014-09/intel-xeon-e5-2600-v3-erstmals-mit-avx-taktangaben/

Und nur weil einem Daten fehlen kann man sich nicht irgendwas zurecht zaubern.

MrSpadge
2015-04-14, 00:13:47
Stört dich an der neuen Bewertung, dass der durchschnittliche Stromverbrauch als 1 Wert für jede GPU angegeben wird? Wenn nicht, verstehe ich ehrlich gesagt nicht, was dich an dem Artikel überhaupt stört.

Wenn das der Punkt ist: möchtest du einen normalen und einen "4k-Stromverbrauch"? Bei nVidia seit Kepler wäre der allerdings denkbar langweilig: fast alle Karte erreichen das Power Target und passen die Geschwindigkeit so an, dass dieses gut getroffen wird. In dem Sinne ist es gerade bei diesen modernen GPUs einfacher denn je, den "typischen Stromverbrauch unter fordernden Spielen" festzustellen. Ein Blick in's BIOS der GPU genügt. Bei AMD ist die Regelung wesentlich grober und die TDP gerne mal eine reine Fantasie-Zahl bzw. ein oberes Limit. Hier braucht's in jedem Fall echte Messungen.

Allerdings: wie gesagt sind GPUs durch die vielen unabhängigen Pixel schon wesentlich stärker ausgelastet als CPUs es typischerweise sind. Ob nun 100 fps bei 1 MP Auflösung, oder 50 fps bei 2 MP Auflösung - unter'm Strich nimmt sich das nicht viel. Klar wird es mit unterschiedlichen Auflösungen auch Unterschiede im Verbrauch geben (zumindest bei AMD). Allerdings sind diese vermutlich kleiner als die Unterschiede von Spiel zu Spiel, die an sich schon mehrere 10% erreichen können. Das widerspricht auch nicht dem "sind eh gut ausgelastet", denn schon die Balance zwischen Speicher-, Shader- und Fixed-Function-Operationen ist von Spiel zu Spiel unterschiedlich und beeinflusst den Stromverbrauch. So wie ne CPU mit mehr verbraucht, je höher der Anteil an Vektorbefehlen ist (dein AVX-Beispiel). Bei genauer Betrachtung kommen natürlich noch viel mehr Abhängigkeiten vom Code hinzu. Shader-Programme mit bedingten Sprüngen schmecken GPUs z.B. überhaupt nicht.

MrS

Gast
2015-04-14, 18:59:33
ich finde 100% für die TitanX macht nur bei 2560x1440 Sinn
Für 4K würde ich noch warten ...