PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 4k Gaming - einfacher Dreisatz von FullHD möglich?


seba86
2017-01-11, 00:40:15
Liebe 3dcentler',

geht die einfache Rechnung auf: Da 4k = 4fache Pixelmenge von FullHD.

D.h. eine Titan 12GB (1120%) leistet im worst-case soviel in 4k wie eine 3 GB Variante mit einem Performance-Index von 280% in FullHD (Werte alle geviertelt) - also noch unter 950 Niveau (die ja LowEnd ist) - als würde man heute eine 660Ti auf FullHD einsetzen? Mit etwas Puffer wäre das also eine 4GB 670-680 für Spiele des Jahrgang 2017....

Hintergrund ist, dass ich dieses Jahr mein 22"-Monitor @ 1680x1050 mit 280x auf 32"-42" @4K@HDMI 2.0 aufrüsten will, aber befürchte, dass trotz einer Investion in einer 1080Ti o.ä. die Spieleleistung durch den Auflösungs-Shock niedriger sein wird... also nix mit butterweichen 60fps, sondern nach wie vor auf 30fps - reicht mir in der Regel dicke aus, aber von HighEnd erwartet man prinzipiell das doppelte.

aufkrawall
2017-01-11, 00:56:46
Man kommt im GPU-Limit tatsächlich meist bei ca. 1/3 der fps von 1080p heraus, so grob veranschlagen kann man das auf jeden Fall.
Edit: Für den VRAM kann man das aber nicht veranschlagen, mitunter verhalten sich die Spiele sehr unterschiedlich.

Hübie
2017-01-11, 03:02:43
Erfahrungsgemäß ist es so wie aufkrawall sagt. Hier und da gibt es Ausnahmen wie Doom oder Watch_Dogs 2, die besser skalieren. 1/3 war bisher jedoch die Regel.
VRAM ist wieder so eine Sache. Manche Spiele (Alien Colonial Marines z.B.) verballern teils das dreifache, während andere Faktor 2 von 1080p aus haben.

Du solltest in jedem Falle noch Vega abwarten. Bis dahin gibt es mehr Monitore und zumindest eine Alternative zur 1080 Ti, wenn die Gerüchte stimmen (Vega zwischen 1080 und Titan XP).

CD-LABS
2017-01-11, 14:19:00
Geviertelte Performance tritt in der Praxis quasi nie auf. Ob das gut oder schlecht ist, darüber könnte man sich lange streiten. (und haben sich auch schon diverse)

Das wichtigste ist eh, dass du dir einen Monitor mit FreeSync (falls du am Ende Vega nehmen solltest) oder GSYNC (falls du am Ende Pascal nehmen solltest) gönnst. Dann bist du nämlich die Problematik los, dass du entweder stable 30 oder stable 60 brauchst, sondern kannst je auch 40+-5 FPS, 45 +-5, 50+-5 oder 55 +-5 oder so nehmen und es fühlt sich je nach Spiel unterm Strich genauso flüssig an wie 60 stable. Wenn du Glück hast, sind bis dahin auch ENDLICH mal DP 1.4-Monitore draußen, dann könntest du sogar den gleichen Effekt noch nach oben ausdehen...

seba86
2017-01-11, 20:09:01
Ich merk schon, ich hätte die Spontanfrage auch ergoogeln können...

Danke allen fürs Feedback, dann weiß ich wo ich dran bin.

Leistung würde für Skyrim u.ä. ausreichen.


Nur eine Frage noch..

Geviertelte Performance tritt in der Praxis quasi nie auf. Ob das gut oder schlecht ist, darüber könnte man sich lange streiten.

Warum sollte es auch schlecht sein, dass man weniger Perfomance verliert..

Ben Carter
2017-01-13, 10:24:12
Weil es im Grunde bedeutet, dass bei 1080p nicht die volle Leistung abgerufen werden kann, weil irgendetwas (meist dann wohl die CPU) limitiert.

Mit meiner 1080er bin ich vor wenigen Tagen auf 4k umgestiegen. In den Spielen, die ich spiele, haben sich die FPS im Schnitt halbiert zu 1920x1200 (Auflösungsfaktor 3,6). Je nach Monitorgröße kann man aber im Zweifel auch mit der 1920x1080 Interpolation ganz gut leben.

Bei Black Desert Online habe ich für Screenshots auch mal 4k + DSR, also mehr oder weniger 8k Renderauflösung (7680x4320) getestet und zu 4k sind hier die FPS dann um ca. 60% gefallen, also etwas zwischen 1/2 und 1/3 der Leistung.

Was die Speichermenge betrifft: ein nicht gerade kleiner Teil wird von den Spieltexturen belegt und die ändern sich meistens nicht mehr gegenüber 1080p.

lg Ben

Palpatin
2017-01-13, 10:38:14
Weil es im Grunde bedeutet, dass bei 1080p nicht die volle Leistung abgerufen werden kann, weil irgendetwas (meist dann wohl die CPU) limitiert.

Klar gibts auch CPU limits, aber dafür das 1080p nicht gleich Frames von 2160p x 4 sind ist in der Regel schon die GPU verantwortlich. Geometry, Tessalation, Vertex Berechnungen etc brauch bei einer höheren Auflösung nicht die 4x Leistung. Oder ganz vereinfacht die Anzahl der Polygone bleibt ja auch bei höherer Auflösung gleich.

vinacis_vivids
2017-01-13, 15:11:21
Klar gibts auch CPU limits, aber dafür das 1080p nicht gleich Frames von 2160p x 4 sind ist in der Regel schon die GPU verantwortlich. Geometry, Tessalation, Vertex Berechnungen etc brauch bei einer höheren Auflösung nicht die 4x Leistung. Oder ganz vereinfacht die Anzahl der Polygone bleibt ja auch bei höherer Auflösung gleich.

Der Rechenaufwand für jedes Polygon steigt parallel mit der Auflösung, die dargestellt werden muss.

Fusion_Power
2017-01-13, 15:15:32
Ich hoffe da auch ehr auf gute Interpolation, hab "nur" eine GTX 1050 Ti, total ausreichend für meinen HD Monitor aber wenns irgend wann nur noch 4K+ Monitore gibt, muss ich mir wohl was einfallen lassen, dann kann man nur hoffen dass Spiele/Monitore sauber interpolieren mit z.B.halber Auflösung. Overwatch ist da vorbildlich, das Spiel kann die Menüs glasklar nativ darstellen während die 3D Szenerie skaliert wird z.B. auf 75%, das kann leider nicht jedes Game.
Hat jemand Erfahrung mit den High Res Monitoren und gaming in niedrigerer Auflösung? Wie sieht das so aus?

aufkrawall
2017-01-13, 15:18:37
Auflösung kann im GPU-Limit mitunter sehr seltsam skalieren. Besonders eine hohe Anzahl an Alphatests (in Spielen meist Wälder) sind so ein Fall, da brechen die fps z.B. bei Witcher 3 von 1080p auf 1440p manchmal nur um 20-30% ein. Hab das auch schon in anderen Spielen festgestellt, z.B. Dying Light Add On.
Andere Effekte wie Partikelwolken schlagen dafür dann wieder voll durch.

Geldmann3
2017-01-14, 10:02:42
Ich habe gerade die folgenden Games für jeweils 2 Minuten mit Random Gameplay gebenchmarkt, je einmal in 4K und einmal in Full HD:

Watchdogs 2: 4K zu FullHD Performance = 1 zu 2,1
GTA V: 4K zu FullHD Performance = 1 zu 2,3
The Division: 4K zu FullHD Performance = 1 zu 2,3
Battlefield 1: 4K zu FullHD Performance = 1 zu 2,3

Hardware war eine auf 1,6Ghz übertaktete GTX 980 Ti in Verbindung mit einem auf 4,5Ghz übertakteten 5820K und 32GB DDR4 2666 Ram

Dabei kommen wir bei aktuellen Games auf einen relativ stabilen Wert von der ca. 2,25 fachen Performance bei Full HD. Natürlich war das jetzt nur eine sehr kleine Stichprobe aller verfügbaren Games, sollte jedoch als grober Richtwert verwertbar sein. Mich wundert es, dass das so nah an nur einer Halbierung der Performance ist. Hätte auch eher mit einer Drittelung gerechnet.

BlacKi
2017-01-14, 10:14:24
Hintergrund ist, dass ich dieses Jahr mein 22"-Monitor @ 1680x1050 mit 280x auf 32"-42" @4K@HDMI 2.0 aufrüsten will
hört sich so an als willst du dir einen tv auf den schreibtisch stellen.

wenn das so ist, dann rate ich dir davon ab. tv geräte sind für mousesports jeglicher art untauglich. selbst die besten tv geräte mit dem geringsten inputlag. mit controller kann man drauf zocken, mit maus nervt die verzögerung.

Geldmann3
2017-01-14, 10:21:53
Kann ich nach jahrelanger TV Erfahrung so nicht unterschreiben. Das einzige was ich an aktuellen TV's vermisse sind Bildwiederholungsraten von mehr als 60Hz und FPS-Sync. Man sollte jedoch schon darauf achten, dass der Input-Lag bei unter 40ms liegt. Denn 80ms spüre ich in Shootern bereits leicht, sodass sie sich zähflüssiger anfühlen, sogar die Maus auf dem Desktop reagiert dann ungewohnt träge. Ab ca. 100ms wird es für mich deutlich spürbar und bei ca. 120ms ist es auf dem Weg zu unspielbar, wenn es nicht gerade ein RTS ist. Daher kommen auch game streaming services für mich nicht in Frage.

Vieles ist Einbildung.
Nach einigen Messungen die ich letztens durchgeführt habe, sollte man sich mit einem PC Monitor übrigens auch nicht völlig befreit von der Problematik fühlen. Habe da bei PC Monitoren Input-Lags von bis zu 30ms ermittelt. Tablet Screens lagen übrigens sehr oft bei diesem Wert. Meistens sind PC-Monitore allerdings bei unter 10ms. Es ist zu beachten, dass viele Hersteller die Reaktionszeit angeben, die allerdings nicht dem Input-Lag entspricht...

Naja, ich sage mal, wenn ich viel Geld mit E-Sports verdienen würde, würde ich auch darauf achten, dass der Input-Lag bei unter 5ms liegt. Doch wer tut das schon. Bei 40ms anstatt 5ms verliert man vielleicht einen von 300 Kills, das halte ich schon für möglich. Bei 120ms verliert man vielleicht sogar einen von fünf, da wird es für mich schon signifikanter. Skill ist noch am wichtigsten.

Tobalt
2017-01-14, 10:50:50
Ich hoffe da auch ehr auf gute Interpolation, hab "nur" eine GTX 1050 Ti, total ausreichend für meinen HD Monitor aber wenns irgend wann nur noch 4K+ Monitore gibt, muss ich mir wohl was einfallen lassen, dann kann man nur hoffen dass Spiele/Monitore sauber interpolieren mit z.B.halber Auflösung. Overwatch ist da vorbildlich, das Spiel kann die Menüs glasklar nativ darstellen während die 3D Szenerie skaliert wird z.B. auf 75%, das kann leider nicht jedes Game.
Hat jemand Erfahrung mit den High Res Monitoren und gaming in niedrigerer Auflösung? Wie sieht das so aus?

Die exakte 1 -> 2x2 Pixel aufweitung funktioniert ohne diverses Rumgetweake kaum out of the box.

ABER:
High DPI Monitore machen nicht-native Auflösung um ein vielfaches erträglicher! Je nach Sehschärfe und Sensibilität würde ich sagen, dass ab ca 150-300 dpi auf PC Monitoren die Interpolationsergebnisse so gut werden, dass man die leichte Interpolationsunschärfe neben der zunehmende Granularität bei niedrigen Auflösungen nicht mehr merkt -> beliebige Auflösungen nutzbar

Mr.Magic
2017-01-14, 11:34:59
Vieles ist Einbildung.

Eher Gewöhnung. Der Mensch ist sehr anpassungsfähig.

Als ich überlegte meinen aktuellen 4K-60Hz-Monitor zu kaufen, habe ich erstmal getestet, ob ich damit überhaupt noch klarkommen würde. Als ich auf dem alten Gerät von 120Hz mit BFI auf 60Hz umstellte fand ich es gruselig. Nach ein paar Tagen dachte ich gar nicht mehr daran.

BFI (und mehr Hertz) vermisse ich hauptsächlich bei älteren 3D Titeln. Aktuelles 3D hat 1000 Blurfilter, und olles 2D wird durch die damals niedrigen Auflösung gut genug kompensiert.
Der größte Unterschied ist der Mauszeiger. Der ist mit BFI viel leichter zu verfolgen.

Geldmann3
2017-01-14, 11:48:01
Ja, ich erinnere mich noch an die Umstellung von meinem damaligen CRT, welcher 120Hz beherrschte auf meinen ersten TFT. Ich dachte der Monitor wäre kaputt, weil der Mauszeiger so geruckelt hat, doch es waren die 60Hz. Unglaublich eigentlich, dass sich heute 99% der Leute damit zufrieden geben. :rolleyes:

Ich werde erst mit 8K@120Hz@HDR@50Zoll zufrieden sein, am besten mit einem Input-Lag von unter 10ms. :freak: Wie lange dauert das noch?

BlacKi
2017-01-14, 11:59:20
Kann ich nach jahrelanger TV Erfahrung so nicht unterschreiben. Das einzige was ich an aktuellen TV's vermisse sind Bildwiederholungsraten von mehr als 60Hz und FPS-Sync. Man sollte jedoch schon darauf achten, dass der Input-Lag bei unter 40ms liegt. Denn 80ms spüre ich in Shootern bereits leicht, sodass sie sich zähflüssiger anfühlen, sogar die Maus auf dem Desktop reagiert dann ungewohnt träge. Ab ca. 100ms wird es für mich deutlich spürbar und bei ca. 120ms ist es auf dem Weg zu unspielbar, wenn es nicht gerade ein RTS ist. Daher kommen auch game streaming services für mich nicht in Frage.

Vieles ist Einbildung.
Nach einigen Messungen die ich letztens durchgeführt habe, sollte man sich mit einem PC Monitor übrigens auch nicht völlig befreit von der Problematik fühlen. Habe da bei PC Monitoren Input-Lags von bis zu 30ms ermittelt. Tablet Screens lagen übrigens sehr oft bei diesem Wert. Meistens sind PC-Monitore allerdings bei unter 10ms. Es ist zu beachten, dass viele Hersteller die Reaktionszeit angeben, die allerdings nicht dem Input-Lag entspricht...

Naja, ich sage mal, wenn ich viel Geld mit E-Sports verdienen würde, würde ich auch darauf achten, dass der Input-Lag bei unter 5ms liegt. Doch wer tut das schon. Bei 40ms anstatt 5ms verliert man vielleicht einen von 300 Kills, das halte ich schon für möglich. Bei 120ms verliert man vielleicht sogar einen von fünf, da wird es für mich schon signifikanter. Skill ist noch am wichtigsten.
nö, bei mir geht das garnicht. mein LG tv hat eine differenz von 35ms zwischen tv vs monitor. also ca 40-45ms nur der tv.

unspielbar mit maus ab der ersten sekunde. ich wollte mir ebenfalls vor kurzem einen neuen tv zulegen und habe mich dazu etwas umgesehen, dabei liegen die samsung tv mit bis zu 18ms scheinbar im tollerierbaren bereich, aber der reviewer meinte im satz danach gleich das der tv noch lange nicht auf monitor niveau liegt, und der inputlag mit maus definitiv spürbar ist.

Fusion_Power
2017-01-14, 15:31:39
Die exakte 1 -> 2x2 Pixel aufweitung funktioniert ohne diverses Rumgetweake kaum out of the box.

ABER:
High DPI Monitore machen nicht-native Auflösung um ein vielfaches erträglicher! Je nach Sehschärfe und Sensibilität würde ich sagen, dass ab ca 150-300 dpi auf PC Monitoren die Interpolationsergebnisse so gut werden, dass man die leichte Interpolationsunschärfe neben der zunehmende Granularität bei niedrigen Auflösungen nicht mehr merkt -> beliebige Auflösungen nutzbar
Klingt doch schon mal gut. :)

Ja, ich erinnere mich noch an die Umstellung von meinem damaligen CRT, welcher 120Hz beherrschte auf meinen ersten TFT. Ich dachte der Monitor wäre kaputt, weil der Mauszeiger so geruckelt hat, doch es waren die 60Hz. Unglaublich eigentlich, dass sich heute 99% der Leute damit zufrieden geben. :rolleyes:

Beim Filme gucken auf meinem PC Monitor denk ich das auch, es vertragen sich 24 FPS Filme nicht wirklich mit 60Hz Monitoren, gerade Schwenks und hohe Kontraste erzeugen doch so einiges an rucklern bzw. "Ghosting", egal was man am Videoplayer einstellt. Dachte erst ich hab den VLC falsch eingestellt aber ist auch bei anderen Playern so. Ich werd mal den MPC-HC mit dem SVP plugin probieren, das kann angeblich 24FPS Videos auf 60FPS und mehr interpolieren, unter Einsatz von exorbitanter Rechenzeit natürlich. :rolleyes:

Ultron
2017-01-15, 10:14:01
Ja, ich erinnere mich noch an die Umstellung von meinem damaligen CRT, welcher 120Hz beherrschte auf meinen ersten TFT. Ich dachte der Monitor wäre kaputt, weil der Mauszeiger so geruckelt hat, doch es waren die 60Hz. Unglaublich eigentlich, dass sich heute 99% der Leute damit zufrieden geben. :rolleyes:

Ich werde erst mit 8K@120Hz@HDR@50Zoll zufrieden sein, am besten mit einem Input-Lag von unter 10ms. :freak: Wie lange dauert das noch?

lol dito

dito ;D (2020?) ^^

seba86
2017-01-15, 20:56:02
Deswegen liebe ich 3dcenter: Wieder einen Rekurs und neues Wissen von (nahezu) jedem Posting aufgesaugt samt praxisorientierten Werten ohne zuviel Drumherum.

Geometry, Tessalation, Vertex Berechnungen etc brauch bei einer höheren Auflösung nicht die 4x Leistung
Imho war es immer so, das die langsamste Operation (Bandbreite, ROP-Leistung, Texturierleistung, Rechenleistung etc.) das gesamte Tempo vorgibt, egal wie gut die anderen skalieren.

@Blacki: Gut zugehört! War/ist tatsächlich meine Intention. Dann gehe ich auf die Nummer sicher und bestelle es via Versand. Ich hoffe es i.O. wenn ich von einigen hunderten Bestellungen mal eine Probe-Bestellung zwecks 14-tägiger Widerrufsrecht. Dann eben vlt. doch den 3-4* so teuren Monitor...