PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste Gfx-Benchmarks unter 8K zeigen enormen Performance-Hunger ...


Leonidas
2017-09-04, 18:30:46
Link zur News:
https://www.3dcenter.org/news/erste-grafikkarten-benchmarks-unter-8k-zeigen-enormen-performance-hunger-dieser-aufloesung

Geldmann3
2017-09-04, 20:56:00
Ich finde etwas wichtiges wird in diesen Artikeln meistens übersehen. Nämlich, dass sich ältere Spiele hervorragend mit 60FPS lock bei 8K zocken lassen. Ich spiele die meisten älteren Games auf meinem 4K TV via DSR in 8K und ich kann versprechen, wer diese Bildqualität einmal erlebt hat, geht bei modernen Spielen sehr ungern wieder zurück. Auch wenn man in diesem Forum oft dafür fertig gemacht wird, wenn man 8K propagiert, weil es ja unnötig sein soll. Doch auf einem sehr großen Monitor sieht man den Unterschied überdeutlich und würde sogar gerne zu 16K wechseln, so lächerlich und realitätsfern das auch klingt.

In The Division ist mir hingegen das hervorragende temporale Supersampling aufgefallen, das erreicht in vielen Szenen bereits in Full HD die flimmerfreiheit, die man sonst nur in 8K+ erlebt. Die Engine hat definitiv Zukunft. Doch man merkt auch direkt, warum Ubisoft nicht voll-umfänglich darauf setzt. Denn wenn man die Features voll ausfährt, kostet die Bildqualität heftig Leistung. Erreicht allerdings auch entsprechende Ergebnisse. An The Division habe ich zum ersten Mal gesehen, welch Potential in temporalen AA steckt. Natürlich erreicht man dennoch nicht die Schärfe von höheren Auflösungen, die in meinen Augen bei 4K allerdings auch schon ausreichend sein kann.

Und ich kann bestätigen, es hängt bei modernen Games selbst mit meiner 1080 Ti heftig an VRam Menge und vor allem Speicherbandbreite. Watchdogs 2 und Rise of the Tomb Raider hätten am liebsten mindestens 16GB Vram um ihre Texturen in 8K auszubreiten. Natürlich würde selbst bei mehr und deutlich schnellerem Vram noch immer die schiere Rechenleistung begrenzen, doch der Performanceverlust wäre sicher nur halb so groß.

LnjdWcnPWtE

Platos
2017-09-05, 00:08:16
Ich finde etwas wichtiges wird in diesen Artikeln meistens übersehen. Nämlich, dass sich ältere Spiele hervorragend mit 60FPS lock bei 8K zocken lassen. Ich spiele die meisten älteren Games auf meinem 4K TV via DSR in 8K und ich kann versprechen, wer diese Bildqualität einmal erlebt hat, geht bei modernen Spielen sehr ungern wieder zurück. Auch wenn man in diesem Forum oft dafür fertig gemacht wird, wenn man 8K propagiert, weil es ja unnötig sein soll. Doch auf einem sehr großen Monitor sieht man den Unterschied überdeutlich und würde sogar gerne zu 16K wechseln, so lächerlich und realitätsfern das auch klingt.

In The Division ist mir hingegen das hervorragende temporale Supersampling aufgefallen, das erreicht in vielen Szenen bereits in Full HD die flimmerfreiheit, die man sonst nur in 8K+ erlebt. Die Engine hat definitiv Zukunft. Doch man merkt auch direkt, warum Ubisoft nicht voll-umfänglich darauf setzt. Denn wenn man die Features voll ausfährt, kostet die Bildqualität heftig Leistung. Erreicht allerdings auch entsprechende Ergebnisse. An The Division habe ich zum ersten Mal gesehen, welch Potential in temporalen AA steckt. Natürlich erreicht man dennoch nicht die Schärfe von höheren Auflösungen, die in meinen Augen bei 4K allerdings auch schon ausreichend sein kann.

Und ich kann bestätigen, es hängt bei modernen Games selbst mit meiner 1080 Ti heftig an VRam Menge und vor allem Speicherbandbreite. Watchdogs 2 und Rise of the Tomb Raider hätten am liebsten mindestens 16GB Vram um ihre Texturen in 8K auszubreiten. Natürlich würde selbst bei mehr und deutlich schnellerem Vram noch immer die schiere Rechenleistung begrenzen, doch der Performanceverlust wäre sicher nur halb so groß.

http://youtu.be/LnjdWcnPWtE

Das ist überhaupt nicht lächerlich. Sorry, aber die, die sagen, dass mehr als 4K keinen Sinn macht (oder AA bei 4K), die sehen den Unterschied einfach nicht oder es liegt an der Entfernung bzw. Grösse des Bildschirms. Eigentlich sollte das für jeden klar sein, dass ein grosser Fernseher einfach eine höhere Auflösung braucht, um die selbe Bildqualität zu liefern (wenn man denn nicht 100 Meter davon entfernt sitzt).

Ich z.B habe seit ein paar Monaten einen 4K 55" Fernseher (vorher 50" FullHD) und ich muss sagen, wow, das Bild ist einfach viel besser. Aber wenn ich z.B The Witcher 3 in 4K spiele und dann mit DSR auf 8K stelle, siehe ich einfach immer noch einen rieesen Unterschied (und selbst da würde noch mehr von Vorteil sein. Ich sehe nämlich auch da noch manches "körnig" selbst mit Kantenglättung auf 8K per DSR). Natürlich ist die Framerate unspielbar bei The Witcher, aber wenn ich stehen bleibe und einfach mal z.B einen Busch anschaue (oder so), dann sehe ich den Unterschied ja trotzdem. Ich sitze halt auch 1.5-2m entfernt, aber ich finde das eben geil. Wer jetzt sagt, es ist unnötig, so nah am Fernseher zu sitzen, der hat es nicht verstanden, denn für mich ist es genau so ideal. Also in der Grösse 55" würde ich sagen, ist bis 16K für mich noch ein grosser optischer Gewinn drinn.

Ach man, warum muss es so eine schlechte Unterstützung für SLI geben und warum gibt es Mikro-Ruckler. Ich hätte sonst schon längst 4 GTX 1080 TI drinn :)

Edit: Witcher 3 auf 8K scheint auch gerne 10GB zu fressen. https://www.youtube.com/watch?v=XNz-CLzEcCs
(Meine 40 MBit/s scheinen da sehr mühe zu haben das Video in 8K abzuspielen).

Ben Carter
2017-09-05, 09:04:08
Wenn unter Full HD mehr als doppelt soviel FPS wie unter Ultra HD erreicht werden, kann ich mir da keine CPU Limitierung vorstellen. Ich denke, der große Abfall bei 8K liegt einfach an anderen Effekten, wie eben Speicherinterface, Speicherverbrauch, etc.

Ich finde es auch richtig, dass die Auflösung weiter gepusht wird. Für meinen Geschmack bräuchte ich jetzt zwar kein 8k (auf 27"), aber unter 4k hätte ich gerne ordentliches AA. Und das ist derzeit (leider) fast nur mit DSR zu erreichen. Ich verstehe aber vollkommen, dass man für größere Anzeigegeräte auch gerne mehr Auflösung hätte.

SW Battlefront sieht in 4k und intern höherer Auflösung richtig, richtig gut aus und in diese Richtung sollte es gehen. Denn wenn das Downsampling in die Engine integriert ist, dann gibt's auch keine negativen Nebeneffekte beim UI.

lg Ben

Gast
2017-09-05, 11:29:49
8k ist doch reines Zukunftsgeschwafel, die sollen erstmal 4k auch nur ansatzweise lauffähig bekommen. Von Nvidia gibt es gerade einen einzige Karte die Das bei 45-60 fps stemmt und AMD kann schon gar nichts liefern, was in dieses fps Fenster passt.

Ich habe inen 4k hier stehen, da ruckelt jeder AAA Titel bei 20-40 fps vor sich hin. Da muss man schon massiv die Qualität runterfahren damit man überhapt Vsyncen kann.

Die Hersteller versuchen einem für immer mehr Geld sinnlose Ansätze zu verkaufen, die breitflächig nicht lauffahig sind. Mann gaukelt so Fortschritt vor der nicht existiert. 8K mag in der Medizin oder Bildbearbeitung Sinn machen, auf Gamingsystemen in keinen Fall. Da fehlt schlicht die Hardware die das ausführen könnte.

Gast
2017-09-05, 18:23:07
-75% ist exakt der Performanceeinbruch den man beim Sprung von 4k auf 8k erwarten würde.

Vielmehr sind es andere Limitierungen, sei es auf CPU- oder Geometrie-Seite die den Einbruch von FullHD auf 4k noch relativ gnädig aussehen lassen.

4k dürfte dann in den meisten Fällen schon praktisch komplett Pixellimitiert sein, also ist es logisch dass mit 4x mehr Pixel nur in etwa 1/4 der Performance rauskommt.

Gast
2017-09-05, 21:29:46
8k + Ultra Details zeigen heute schon das Ende der singel-GPU uArch.
Um eine vervielfachung der Speichenbandbreite zu erreichen, braucht man mGPU+SFR. Rohpower gibs schon genug (siehe Mining rigs), Durchbruch im LL-API fehlt.

Ob bei dem Test auch mal HBBC "on" für Vega geschaltet wurde? Gerade in speicherhunrigen Szenen soll der ja was bringen. Vega FE 16GB wäre hochinteressant gewesen.