PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie will man 4k und 5k befeuern?


=Floi=
2014-10-18, 14:58:46
Hallo

wie wollen in zukunft ati und nvidia solche monitoren befeuern? Der endkunde kann diese monitoren ja auch nicht wirklich (in 3D) nützen!

http://www.computerbase.de/2014-09/erster-5k-monitor-mit-5.120-x-2.880-von-dell/

5.120 × 2.880 14,7 Mio. 218 ppi
3.840 × 2.160 8,3 Mio. 163 ppi
2.560 × 1.440 3,7 Mio. 109 ppi
1.920 × 1.080 2,1 Mio. 82 ppi


Heute sind die 3,7 mio pixel schon eine ordentlich hürde, aber 14,7 mio sind dagegen schon eine andere hausnummer.
Werden da die zukünftigen highend chips in dieser richtung noch aufgebohrt?

solche monitore sind doch gerade beim gamen genial und da scheitert es doch brachial an der leistung für solch einen monitor, wenn man 60fps in einem aktuellen titel haben möchte.

PatkIllA
2014-10-18, 15:04:15
Der reine Faktor von Pixeln ist auch nicht größer als Konsole zu HighEnd Graka.

Man kann ja auch immer noch in niedrigerer Auflösung spielen. Dank kleinerer Pixel fällt das auch nicht so krass auf.

Die Spiele könnten sicherlich auch unterschiedliche Bereiche in unterschiedlicher Qualität rendern, um dort Performance zu sparen, wo es visuell nicht so stark auffällt.

Matrix316
2014-10-18, 15:14:32
Ja es sind 4 Mal mehr Pixel von 2560 zu 5120 aber wenn Smartphones mit einem Adreno Chip 2560 handeln können, dann sollte eine Desktop GTX980 zum Beispiel locker mehr als 4 Fache Performance haben. http://versus.com/de/nvidia-geforce-gtx-980-vs-qualcomm-adreno-306

PatkIllA
2014-10-18, 15:20:56
Ist ja auch nicht nur eine Frage der Auflösung. Einen Pixarfilm kann man auch in FullHD nicht mal ansatzweise in Echtzeit berechnen.

Wenn die Fertigungstechnik endlich mal wieder einen Sprung macht, dann kann auch die Performance entsprechnend erhöhen. Leider stagniert das ja schon länger als üblich und selbst Intel kann nicht ganz dem Plan folgen.

HisN
2014-10-18, 15:26:15
Für Tetris reichen auch aktuelle Systeme, und mein Titanen-Gespann schafft auch in hoher Auflösung noch ein paar FPS

http://abload.de/thumb/evilwithin_2014_10_147cs9g.jpg (http://abload.de/image.php?img=evilwithin_2014_10_147cs9g.jpg) http://abload.de/thumb/bf4_2014_10_09_10_30_p3swy.jpg (http://abload.de/image.php?img=bf4_2014_10_09_10_30_p3swy.jpg) http://abload.de/thumb/eflc_2014_10_09_00_15h5pap.jpg (http://abload.de/image.php?img=eflc_2014_10_09_00_15h5pap.jpg) http://abload.de/thumb/elitedangerous32_2014nkrh0.jpg (http://abload.de/image.php?img=elitedangerous32_2014nkrh0.jpg) http://abload.de/thumb/aqua_2014_10_08_20_50jpjcu.jpg (http://abload.de/image.php?img=aqua_2014_10_08_20_50jpjcu.jpg) http://abload.de/thumb/ai_2014_10_08_01_00_17mq5j.jpg (http://abload.de/image.php?img=ai_2014_10_08_01_00_17mq5j.jpg)

In 12 Monaten gibts die Leistung auf einem Chip, und es muss nicht immer Ultra sein.

aufkrawall
2014-10-18, 15:27:44
Ist ja auch nicht nur eine Frage der Auflösung. Einen Pixarfilm kann man auch in FullHD nicht mal ansatzweise in Echtzeit berechnen.

Offline-Renderer sind aber auch nicht auf Effizienz getrimmt. Ende 2016 könnten PC-Spiele gar nicht so viel schlechter als Filme aussehen, zumindest nicht mehr in vergleichbarer Relation wie heute.

Hab übrigens Risen 3 maxed out in 5k durchgespielt. Niedriger Input Lag machts möglich, wenn auch natürlich nicht flüssig.

dildo4u
2014-10-18, 15:27:56
Pascal soll angeblich mit 1TB Speicherbandbreite kommen also ich würde 2016 mit fps Raten um 60 rechnen.

http://www.enterprisetech.com/2014/03/25/future-nvidia-pascal-gpus-pack-3d-memory-homegrown-interconnect/

Lowkey
2014-10-18, 15:29:48
In den aktuellen OC Tests limitiert beim 9xx der Chiptakt und nicht der Speicher.

Man stelle sich 4k Notebooks vor und dann versuch mal deren Käufern klarzumachen, dass sie nicht in 4k bei max Details zocken können.

aufkrawall
2014-10-18, 15:33:55
Kann man ohne AA eigentlich immer. Bräuchte nur variablen Vblank ohne Einschränkungen nach unten, dann würde es nicht so ruckelig aussehen.

PatkIllA
2014-10-18, 15:37:52
Offline-Renderer sind aber auch nicht auf Effizienz getrimmt.Da wird sicher auch nicht verschwendet und der Aufwand steigt halt schneller als die Qualität.

Ende 2016 könnten PC-Spiele gar nicht so viel schlechter als Filme aussehen, zumindest nicht mehr in vergleichbarer Relation wie heute.Glaube ich nicht mal ansatzweise.
Man kann Demos mit einzelnen schicken Bildern zeigen, aber gerade in Bewegung und mit mehr Objekten fehlt da noch sehr sehr viel.

aufkrawall
2014-10-18, 16:04:44
Da wird sicher auch nicht verschwendet und der Aufwand steigt halt schneller als die Qualität.

Es wird schonmal ganz viel für SSAA verschwendet, was man "online" in 4k mit gutem Temp-AA wahrscheinlich quasi gar nicht braucht.
Gibt dann zwar mehr Aliasing, das dürfte aber auf einem akzeptablen Niveau sein und dafür hat man halt auch volle Farbauflösung.


Glaube ich nicht mal ansatzweise.
Man kann Demos mit einzelnen schicken Bildern zeigen, aber gerade in Bewegung und mit mehr Objekten fehlt da noch sehr sehr viel.
In CGI bist du auf Raytracing angewiesen und das gibt es bisher in keinem erhältlichen Spiel in irgendeiner Form (nur Lightmaps).
Mit VXGI konnte man schon Reflexionen sehen, die offenbar nicht völliger Müll sind (was imho alle bisherigen screenspace, cubemap und mirror-Ansätze sind).
Wart erstmal ab, was mit Big Pascal in 16nm geht oder irgendein AAA-Spiel mit VXGI.

Demirug
2014-10-18, 16:10:57
Ja es sind 4 Mal mehr Pixel von 2560 zu 5120 aber wenn Smartphones mit einem Adreno Chip 2560 handeln können, dann sollte eine Desktop GTX980 zum Beispiel locker mehr als 4 Fache Performance haben. http://versus.com/de/nvidia-geforce-gtx-980-vs-qualcomm-adreno-306

Die allgemeine Empfehlung bei Smartphones ist allerdings in kleineren Auflösungen zu rendern und dann hoch zu skalieren.

-/\-CruNcher-/\-
2014-10-18, 16:20:45
Es wird schonmal ganz viel für SSAA verschwendet, was man "online" in 4k mit gutem Temp-AA wahrscheinlich quasi gar nicht braucht.
Gibt dann zwar mehr Aliasing, das dürfte aber auf einem akzeptablen Niveau sein und dafür hat man halt auch volle Farbauflösung.


In CGI bist du auf Raytracing angewiesen und das gibt es bisher in keinem erhältlichen Spiel in irgendeiner Form (nur Lightmaps).
Mit VXGI konnte man schon Reflexionen sehen, die offenbar nicht völliger Müll sind (was imho alle bisherigen screenspace, cubemap und mirror-Ansätze sind).
Wart erstmal ab, was mit Big Pascal in 16nm geht oder irgendein AAA-Spiel mit VXGI.

Ehh wir sind schon bei Hybrid angekommen wenn es dir noch nicht in so vielen titeln aufgefallen sein sollte mischen wir gerade Rasterization mit Raytracing ;)

Jedes GI ist Raytracing SSAO (und alle incarnations) ist Raytracing SSR ist Raytracing ;)

und wir sind auch schon bei Lightprobes ;)

Coda
2014-10-18, 16:25:28
Da wird sicher auch nicht verschwendet und der Aufwand steigt halt schneller als die Qualität.
Du irrst dich. Die haben ein völlig anderes Anforderungsprofil. Arbeitsstunden sind viel teurer als Hardware, deshalb macht man alles um das zu reduzieren. Sprich, keine Optimierungen am Code die ihn komplexer machen.

Das heißt natürlich nicht, dass man nicht Algorithmen optimiert, aber Real-Time-Code ist wesentlich hardwarenaher geschrieben.

RLZ
2014-10-18, 17:07:25
Ich zitiere mal Alphatier:
Ich denke dass Next Gen Sampling Frequenz und Rasterization voneinander trennt. Es bringt einfach nur Vorteile wie beispielsweise importance Sampled Edges. Damit sind 4K dann auch keine Kunst mehr.

aufkrawall
2014-10-18, 17:27:26
Jedes GI ist Raytracing SSAO (und alle incarnations) ist Raytracing SSR ist Raytracing ;)

Man kann jeden Scheiß RT nennen. Dir sollte klar sein, dass es um path tracing ging, oder welcher Pixar-Film hat SSAO? :rolleyes:

PatkIllA
2014-10-18, 17:41:09
Du irrst dich. Die haben ein völlig anderes Anforderungsprofil. Arbeitsstunden sind viel teurer als Hardware, deshalb macht man alles um das zu reduzieren. Sprich, keine Optimierungen am Code die ihn komplexer machen.Aber die meisten Mannstunden gehen doch wohl in die Contenterstellung.
Und da spart es auch jede Menge wenn man eine Iteration schon nach einer halben Stunde Mittagspause sehen kann und nicht bis zum nächsten Tag warten muss. Idealerweise könnte man das hier ja auch in Echtzeit sehen und direkt anpassen.
Da werben doch auch die ganzen Spieleengines mit, dass die Entwickler direkt sehen und sogar spielen können was sie gerade tun.

Aber auch mit jeder Menge Optimierung fehlt noch einiges von dem was man in Echtzeit auf einer Grafikkarte sehen kann und dem was man im Kino geboten bekommt.

Das hat zwar auch damit zu tun, dass man da jede Menge Aufwand für diverse Kleinigkeiten treibt auch wenn man das Ergebnis nur wenige Sekunden aus einem Blickwinkel sieht.

Aber selbst wenn man den den perfekten Content hätte, würde man das nicht interaktiv in Echtzeit auf den Bildschirm bekommen.

Coda
2014-10-18, 17:49:36
Ich hab das so gehört. Kann aber sein dass du recht hast und sich die Zeiten gerade etwas ändern wegen Previs.

PatkIllA
2014-10-18, 18:01:26
Ich hab das so gehört. Kann aber sein dass du recht hast und sich die Zeiten gerade etwas ändern wegen Previs.
Die Aussage, das schnelle Renderzeiten oder gute Echtzeitvorschau extrem hilft habe ich schon mehr als einmal in Making Ofs gesehen. Die Szene wird ja nicht einmal modelliert und dann ausgerechnet sondern da wird ja Tage oder wochenlang an Kleinigkeiten gefeilt.
Und gerade was die zu Anfang der CGI-Filmen als Vorschau hatten waren nicht mehr als ein paar schattierte Flächen. Da braucht man schon viel Vorstellungskraft um sich das fertige Ergebnis vorzustellen.

-/\-CruNcher-/\-
2014-10-18, 18:29:59
Kein CGI Studio kann es sich mehr leisten ohne Path Tracing das Lighting zu previewen das ist enormer Zeitgewinn bei den Iterations wie du schon sagtest.

Realtime Engine kommt dann beim Previs zum Einsatz und hier ist ja auch CryEngine bei einigen schon im Einsatz als CineBox (zugeschnitten auf Hollywood Workflow daher kommt auch der Alembic support).

http://vimeo.com/88119491

http://vimeo.com/user4402047/videos

Man kann gespannt sein wie die Adaption von Unity und Unreal sein wird für Previs ;)

Frozone
2014-10-18, 20:08:19
5.120 × 2.880 14,7 Mio. 218 ppi
3.840 × 2.160 8,3 Mio. 163 ppi
2.560 × 1.440 3,7 Mio. 109 ppi
1.920 × 1.080 2,1 Mio. 82 ppi

Die ppi kannst du entfernen, das ist von der Displaygrösse Abhängig.

Rente
2014-10-19, 00:55:49
Die ppi kannst du entfernen, das ist von der Displaygrösse Abhängig.
Die Rechnung bezieht sich auf 27'', steht auch im Link.

HisN
2014-10-20, 01:29:20
Ich hab gerade noch ein paar Schätzchen auf meiner Platte mit DSR ausprobiert. Das meiste läuft auch in 14Mpx klaglos.
Thief z.b.
http://abload.de/thumb/shipping-thiefgame_20kkqr8.jpg (http://abload.de/image.php?img=shipping-thiefgame_20kkqr8.jpg)
Oder Dishonored
http://abload.de/thumb/dishonored_2014_10_19soqrd.jpg (http://abload.de/image.php?img=dishonored_2014_10_19soqrd.jpg) http://abload.de/thumb/dishonored_2014_10_1999qoj.jpg (http://abload.de/image.php?img=dishonored_2014_10_1999qoj.jpg)

Deus Ex
http://abload.de/thumb/dxhr_2014_10_19_20_485kq0c.jpg (http://abload.de/image.php?img=dxhr_2014_10_19_20_485kq0c.jpg) http://abload.de/thumb/dxhr_2014_10_19_20_47wtrng.jpg (http://abload.de/image.php?img=dxhr_2014_10_19_20_47wtrng.jpg)

The Walking Dead kommt sehr geil rüber
http://abload.de/thumb/walkingdead101_2014_1o9oeo.jpg (http://abload.de/image.php?img=walkingdead101_2014_1o9oeo.jpg) http://abload.de/thumb/walkingdead101_2014_16irv9.jpg (http://abload.de/image.php?img=walkingdead101_2014_16irv9.jpg)

Space Run
http://abload.de/thumb/ospacegame_2014_10_19d1plh.jpg (http://abload.de/image.php?img=ospacegame_2014_10_19d1plh.jpg) http://abload.de/thumb/ospacegame_2014_10_19taqug.jpg (http://abload.de/image.php?img=ospacegame_2014_10_19taqug.jpg)

Resident Evil 6
http://abload.de/thumb/bh6_2014_10_19_22_11_8wpba.jpg (http://abload.de/image.php?img=bh6_2014_10_19_22_11_8wpba.jpg) http://abload.de/thumb/bh6_2014_10_19_22_08_k5ry3.jpg (http://abload.de/image.php?img=bh6_2014_10_19_22_08_k5ry3.jpg)

Remember Me
http://abload.de/thumb/rememberme_2014_10_19uyo6f.jpg (http://abload.de/image.php?img=rememberme_2014_10_19uyo6f.jpg) http://abload.de/thumb/rememberme_2014_10_19kypzt.jpg (http://abload.de/image.php?img=rememberme_2014_10_19kypzt.jpg)

Tomb Raider macht in 14MPX noch ne gute Figur.
http://abload.de/thumb/tombraider_2014_10_20vfskd.jpg (http://abload.de/image.php?img=tombraider_2014_10_20vfskd.jpg)

Mr. Lolman
2014-10-20, 05:15:42
Die allgemeine Empfehlung bei Smartphones ist allerdings in kleineren Auflösungen zu rendern und dann hoch zu skalieren.

Und genau das geht mir ziemlich am Sack. Real Racing 3 würd am SGS4 locker in FullHD laufen, darfs aber nicht. Bei Asphalt 8 ists ähnlich aber zumindest haben die mittlerweile AA aktiviert. Am besten sieht immernoch Deadtrigger 2 aus, Nicht zuletzt wegen den über die Config aktivierten Ultradetails, aber hauptsächlich durch Full-HD @5". Da brauchts dann auch kein AA mehr.

Aktuelle Smartphones stemmen mehr, als man ihnen zutraut. Nova3 zB hab ich in Ermangelung eines anisotropen Filters am SGS4 mit Downsampling (2560->1920) gespielt.

john carmack
2014-10-21, 15:03:47
@ Thread Titel

Und ich frage mich wie man 8K befeuern will :freak:

http://www.gulli.com/news/24902-nvida-und-amd-arbeiten-an-8k-gaming-2014-10-20
http://www.hartware.de/news_61999.html

Also Grundsätzlich sollte man langsam mit 20nm bzw. 16nm GPUs auf den Markt bringen.............................

Matrix316
2014-10-21, 15:31:08
Wenn man einen Weg finden könnte alles super zu skalieren, wäre es doch eigentlich kein Problem alles in 1920x1080 zu rendern um es dann in 3840x2160 auszugeben, oder?

Godmode
2014-10-21, 17:15:05
Wenn man einen Weg finden könnte alles super zu skalieren, wäre es doch eigentlich kein Problem alles in 1920x1080 zu rendern um es dann in 3840x2160 auszugeben, oder?

Hoch skalieren ist kein Problem, das beherrscht jeder Monitor.

Ich frage mich das auch schon länger wie man 4k und 4+ befeuern will. Beim testen der GTX 980 wurde mir wieder klar, dass auch diese GPU für Ultra deutlich zu langsam ist. Man kann jetzt natürlich die Details absenken und statt Ultra nur auf High spielen, aber das wollen die meisten ja nicht hören. Ich will kein Spiel mit 30 fps spielen, das ist für mich keine Option und fühlt sich komisch an.

Geldmann3
2014-10-25, 12:28:05
Ist alles auch ein wenig Kopfsache. Habe gestern eine Runde Star Wars Battlefront 2 gezockt und hatte vergessen im MSI Afterburner den 30FPS lock herauszunehmen. Ist mir eine halbe Stunde nicht aufgefallen, bis ich dann doch mal auf die Framerate geschaut habe.

Habe den lock dann deaktiviert und aus Interesse mal hin und her geswitched. Der Unterschied fällt mir zwar eindeutig auf, doch wenn das Gameplay einen mitreißt, was in einem guten Spiel der Fall ist, stören 30FPS mich nicht.

Gäbe es keine Programme um die FPS zu visualisieren, wären wahrscheinlich 80% der Diskussionen aus dem Raum. Weil keiner drauf achtet.


Konsolenspieler regen sich in der Regel auch nicht darüber auf. Jedenfalls kenne ich keinen. Sonst würde er sich erst gar nicht mit einer Konsole zufrieden geben. Habe mal bei einem Freund Far Cry 3 auf der PS3 gezockt. Das lief geschätzt mit 20-30FPS mich hat das Ruckeln und Flimmern die ganze Zeit gestört. Dann habe ich das Ruckeln mal angesprochen und er meinte nur etwas in der Art wie:,,Aha"!
So als findet er das Thema zwar mäßig interessant, doch hat noch kaum etwas davon gehört und stören tut es ihn ganz bestimmt nicht. Wobei das in meinen Augen schon arg geruckelt hat (https://www.youtube.com/watch?v=L4HAMXHJ-kw).

Es sind die technisch versierten PC'ler, die sich über die Konsolen Frameraten aufregen. :freak:

-/\-CruNcher-/\-
2014-10-25, 12:31:41
Wenn man den Unterschied nicht kennt vermisst man ihn auch nicht aber so gesehen hast du vollkommen recht Shading steht über Performance und wenn stabile Performance und besseres Shading bei 30 FPS erreicht werden kann würde ich das immer bevorzugen wobei bei Speed Racern würde ich nochmal drüber nachdenken ;)

Bei VR rappeln wir da auf ein Mega Problem zu ;)

Aber auch Open World bei stabilen 60 FPS mit guter Physik ist schon etwas ganz anderes vom Spielgefühl :)

aths
2014-10-25, 13:03:36
Ist alles auch ein wenig Kopfsache. Habe gestern eine Runde Star Wars Battlefront 2 gezockt und hatte vergessen im MSI Afterburner den 30FPS lock herauszunehmen. Ist mir eine halbe Stunde nicht aufgefallen, bis ich dann doch mal auf die Framerate geschaut habe.

Habe den lock dann deaktiviert und aus Interesse mal hin und her geswitched. Der Unterschied fällt mir zwar eindeutig auf, doch wenn das Gameplay einen mitreißt, was in einem guten Spiel der Fall ist, stören 30FPS mich nicht.

Gäbe es keine Programme um die FPS zu visualisieren, wären wahrscheinlich 80% der Diskussionen aus dem Raum. Weil keiner drauf achtet.


Konsolenspieler regen sich in der Regel auch nicht darüber auf. Jedenfalls kenne ich keinen. Sonst würde er sich erst gar nicht mit einer Konsole zufrieden geben. Habe mal bei einem Freund Far Cry 3 auf der PS3 gezockt. Das lief geschätzt mit 20-30FPS mich hat das Ruckeln und Flimmern die ganze Zeit gestört. Dann habe ich das Ruckeln mal angesprochen und er meinte nur etwas in der Art wie:,,Aha"!Das kann nicht unser Maßstab sein, dass wir zurück in die Zeiten der Voodoo 1 gehen.

Erinnern wir uns an die GeForce 4: Diese Karte war dazu da, in hoher Auflösung, in 60+ fps (je nach Monitormodell) und mit aktivem Antialiasing zu zocken. Auf dem PC darf man rund zwölf Jahre später imo nix mehr ohne Antialiasing und ohne stabile 60 fps zocken. Alles andere ist Verrat an der eigenen Herkunft.

-/\-CruNcher-/\-
2014-10-25, 13:14:56
Naja bei 1080p haben wir das doch jetzt gut erreicht für durchaus akzeptabelen Preis und mit DX12 wird es nochmal schöner für relativ kleinen Aufpreis im Vergleich zum theoretischen Gewinn :)

FlashBFE
2014-10-25, 14:59:38
Das kann nicht unser Maßstab sein, dass wir zurück in die Zeiten der Voodoo 1 gehen.

Erinnern wir uns an die GeForce 4: Diese Karte war dazu da, in hoher Auflösung, in 60+ fps (je nach Monitormodell) und mit aktivem Antialiasing zu zocken. Auf dem PC darf man rund zwölf Jahre später imo nix mehr ohne Antialiasing und ohne stabile 60 fps zocken. Alles andere ist Verrat an der eigenen Herkunft.
Wir haben aber auch nicht mehr die Spiele von damals. Da die Auflösung lange Zeit quasi stagniert ist, wurde die ganze Rechenleistung in mehr Details/Bildqualität gesteckt. Und das oftmals auch ziemlich ineffizient. Die Spieler müssen bei einem Auflösungssprung wieder lernen, die Regler nicht immer auf Max zu stellen (vorausgesetzt, die Spieleengine skaliert gut nach unten).

-/\-CruNcher-/\-
2014-10-25, 15:11:40
Jep auch der Overhead an anderen ecken nimmt zu gegenüber damals ;)

gnomi
2014-10-26, 15:37:57
Wir haben aber auch nicht mehr die Spiele von damals. Da die Auflösung lange Zeit quasi stagniert ist, wurde die ganze Rechenleistung in mehr Details/Bildqualität gesteckt. Und das oftmals auch ziemlich ineffizient. Die Spieler müssen bei einem Auflösungssprung wieder lernen, die Regler nicht immer auf Max zu stellen (vorausgesetzt, die Spieleengine skaliert gut nach unten).

Ja, völlig richtig.
Die ganzen Umsetzungen der letzten Konsolengeneration liefen ja bereits mit Mainstream Karten mit Post AA & AF in Full HD bei 60 fps.
Mit starken Karten nutzte man dann eben SGSSAA & MSAA mit Bits oder Downsampling.
Crysis 3 und andere moderne Spiele (Ryse, Metro Redux, AC Unity, Witcher 3, Dragon Age Inquisition) haben (vermutlich) deutlich höhere Anforderungen.
Hinzu kommt, dass jetzt WQHD & 4k nativ am Markt sind.
60 fps konstant sind da auch mit den stärksten Single GPU's leider Wunschdenken außerhalb von Full HD.
Ich denke, mit 30-50 Frames plus GSync spielt man aktuell aber auch prima.
Das wird denke ich neuer Standard für SP Games.

Felixxz2
2014-10-26, 18:25:55
Kann Alpha Tier das auf Seite 1 beschriebenw Trennen von Raster und Sampling Frequenz nochmal erklären?

Nightspider
2014-10-26, 18:38:07
60 fps konstant sind da auch mit den stärksten Single GPU's leider Wunschdenken außerhalb von Full HD.

Für die meisten Singleplayer Games reichen ja zum Glück schon 30-50fps aus. Ryse läuft mit 30fps zB. schon sehr flüssig mit einer R9 290X.

Und das ist noch die alte Generation. Wenn jetzt innerhalb der nächsten 6 Monate die R9 390X aufschlägt werden wir sicherlich nochmal einen guten Sprung erleben. Oder mit Big Maxwell eben.

Die werden da nochmal 50% drauflegen. Bei zwei Karten hättest du in Ryse schon 80-90fps in 4K bei max. Details.
Damit ließen sich sogar Multiplayer-Spiele hervorragend spielen. :)

gnomi
2014-10-26, 20:38:51
Da hast du natürlich Recht. =)
Die Zeit spricht hier klar für den PC.
Und die aktuellen High End GPU's werden wohl innerhalb eines Jahres schon wieder abgelöst werden.
Hinzu kommt, dass auch DX 12 und technisch besser optimierte Spiele im Verlaufe des nächsten Jahres veröffentlicht werden.
Mittelfristig werden die 60 fps dann sicher wieder erreichbar.
Für die oben aufgeführten Spiele im nächsten halben Jahr sehe ich aber keine Chance...

Coda
2014-10-26, 20:56:18
Kann Alpha Tier das auf Seite 1 beschriebenw Trennen von Raster und Sampling Frequenz nochmal erklären?
Bisher führt man den Shader für jeden Pixel aus. Was er meint ist ihn nur für jeden zweiten oder vierten Pixel auszuführen und die Pixel dazwischen mit einem interpolierten Wert zu beschreiben.

Die Kanten der Dreiecke würden aber weiterhin mit voller Auflösung abgetastet. Man erhält also die Schärfe der Geometrie, aber nicht die der gefüllten Flächen. Das wäre vor allem für sowas wie Ambient Occlusion nützlich, wo die Frequenz der Füllung sehr niedrig ist.

PHuV
2014-10-26, 21:03:33
Ist alles auch ein wenig Kopfsache. Habe gestern eine Runde Star Wars Battlefront 2 gezockt und hatte vergessen im MSI Afterburner den 30FPS lock herauszunehmen. Ist mir eine halbe Stunde nicht aufgefallen, bis ich dann doch mal auf die Framerate geschaut habe.

Habe den lock dann deaktiviert und aus Interesse mal hin und her geswitched. Der Unterschied fällt mir zwar eindeutig auf, doch wenn das Gameplay einen mitreißt, was in einem guten Spiel der Fall ist, stören 30FPS mich nicht.

Gäbe es keine Programme um die FPS zu visualisieren, wären wahrscheinlich 80% der Diskussionen aus dem Raum. Weil keiner drauf achtet.
:
Es sind die technisch versierten PC'ler, die sich über die Konsolen Frameraten aufregen. :freak:
Zustimmung. Ich spiele aktuell Dead Rising 3 mit dem FPS-Lock auf 30. Stört mich überhaupt nicht, und läuft in 4k hervorragend flüssig. Selbst Testspielen mit Crysis 3, was bei diesem Setting bei mir aktuell nur mit ca 21 FPS läuft, vergißt man das nach einer Weile einfach, daß es ruckelt.

Ich sehe es im Bereich 3D und VR wie beim OR viel kritischer. Hier eine höhere FPS-Rate in einer sehr hohen Auflösung zu halten, um Motion Sickness zu vermeiden, ist IMHO eine größere Herausforderung.

del_4901
2014-10-26, 22:24:08
Bisher führt man den Shader für jeden Pixel aus. Was er meint ist ihn nur für jeden zweiten oder vierten Pixel auszuführen und die Pixel dazwischen mit einem interpolierten Wert zu beschreiben.
Von Pixeln wuerde ich nicht reden, da interpoliert wird ist die Verwandschaft zu Texeln naeher, aber auch dass ist nicht ganz korrekt. Stark Vereinfacht kann man sich das aber so vorstellen wie du geschrieben hast.

Die Kanten der Dreiecke würden aber weiterhin mit voller Auflösung abgetastet. Man erhält also die Schärfe der Geometrie, aber nicht die der gefüllten Flächen. Das wäre vor allem für sowas wie Ambient Occlusion nützlich, wo die Frequenz der Füllung sehr niedrig ist.Ich denke dabei eher an DoF und MotionBlur, wozu dass ganze erst scharf rendern, wenn es am Ende eh wieder durch einen LowPass Filter geschickt wird.

Tressa
2014-10-26, 23:31:35
Habe gestern eine Runde Star Wars Battlefront 2 gezockt und hatte vergessen im MSI Afterburner den 30FPS lock herauszunehmen. Ist mir eine halbe Stunde nicht aufgefallen, bis ich dann doch mal auf die Framerate geschaut habe.

Ryse läuft mit 30fps zB. schon sehr flüssig mit einer R9 290X.

Ich versteh hier was nicht: Einerseits sagen zb. Nightspider & Geldmann das 30 FPS gar nicht so schlecht sind.

Anderesteis hab ich hier in diesem Forum schon öfters in Monitorthreads gelesen das 144 Mhz ein riesen Unterschied sei, man sieht es sogar unter Windows am Mauszeiger, "nie wieder zurück zu 60 Mhz", etc...

Analog dazu schwören jetzt Poster auf 144 Mhz panels (die glaub ich ja alle TN sind), anderseits wird (ebenfalls in diesem Forum) von "TN-Müll" gesprochen und nur IPS überhaupt in betracht gezogen.

Das passt ja alles nicht zusammen. Wer hat jetzt recht und wer labert nur Blödsinn, um es salopp zu sagen?:confused:

Tut mir Leid für das off-topic, ab das brennt mir schon länger beim mitlesen hier unter den Fingern...

Tressa

Nightspider
2014-10-26, 23:36:09
Ja und? Beides schließt sich nicht gegenseitig aus. Ich zocke auch Multiplayer in 120Hz und möchst >100fps.

Trotzdem kann man ja wohl langsame Singleplayer Spiele in 4K genießen mit nur 30-50fps oder?

Man muss eben fähig sein sich anzupassen. Wenn man nur stur 120fps oder stur nur 4K will dann kommt man nicht weit.

Coda
2014-10-26, 23:39:07
Ich versteh hier was nicht: Einerseits sagen zb. Nightspider & Geldmann das 30 FPS gar nicht so schlecht sind.

Anderesteis hab ich hier in diesem Forum schon öfters in Monitorthreads gelesen das 144 Mhz ein riesen Unterschied sei, man sieht es sogar unter Windows am Mauszeiger, "nie wieder zurück zu 60 Mhz", etc...

Analog dazu schwören jetzt Poster auf 144 Mhz panels (die glaub ich ja alle TN sind), anderseits wird (ebenfalls in diesem Forum) von "TN-Müll" gesprochen und nur IPS überhaupt in betracht gezogen.

Das passt ja alles nicht zusammen. Wer hat jetzt recht und wer labert nur Blödsinn, um es salopp zu sagen?:confused:

Tut mir Leid für das off-topic, ab das brennt mir schon länger beim mitlesen hier unter den Fingern...

Tressa
Alle haben Recht. TN hat schlechte Farben, schält aber sehr schnell. 144Hz sind für Actionspiele wirklich butterweich, aber für ein RPG reichen vielleicht auch 30.

Tressa
2014-10-27, 00:01:32
Alle haben Recht. TN hat schlechte Farben, schält aber sehr schnell. 144Hz sind für Actionspiele wirklich butterweich, aber für ein RPG reichen vielleicht auch 30.

Ja, das ist auch mein Verständnis. Darum hätte ich im Moment beim Monitorkauf immer das Gefühl etwas "falsch" zu machen, egal welches Produkt/Technologie genommen wird.

Zum eigentlich Thema: Aus sicht von Nicht-Enthusisten ist IMHO für den Durchbruch von 4k Montioren das Problem das Grafikarten in der Leistung immer hinterher laufen.

Multi-GPU und 999$-Karten sind ja nicht massentauglich. Siehe Rhyse of Rome: Mit ner GTX 980 auf 3840 x 2160 gerade mal 23 FPS.

MartinB
2014-10-27, 02:23:05
Ich kann mir aber durchaus vorstellen das 4k zum Arbeiten sehr geil ist. Nur leider ist das den meisten Leuten egal, die tun sich ja auch 1366*768 an. Langsam halten wenigstens 1080p Panels den Einzug in den guenstigen Massenmarkt.

Geldmann3
2014-10-27, 10:47:41
Ich versteh hier was nicht: Einerseits sagen zb. Nightspider & Geldmann das 30 FPS gar nicht so schlecht sind.

Anderesteis hab ich hier in diesem Forum schon öfters in Monitorthreads gelesen das 144 Mhz ein riesen Unterschied sei, man sieht es sogar unter Windows am Mauszeiger, "nie wieder zurück zu 60 Mhz", etc...

Analog dazu schwören jetzt Poster auf 144 Mhz panels (die glaub ich ja alle TN sind), anderseits wird (ebenfalls in diesem Forum) von "TN-Müll" gesprochen und nur IPS überhaupt in betracht gezogen.

Das passt ja alles nicht zusammen. Wer hat jetzt recht und wer labert nur Blödsinn, um es salopp zu sagen?

Tut mir Leid für das off-topic, ab das brennt mir schon länger beim mitlesen hier unter den Fingern...

Tressa

Ich würde sagen, 30FPS sind zum Zocken "genug". Doch man bemerkt natürlich durchaus noch einen Unterschied bis mindestens 120Hz. Da muss man sich wirklich nur mal den Mauszeiger unter Windows angucken. Und auch in Games schätze ich es, wenn höhere Frameraten als 30Hz anliegen. Doch in meinen Augen sind 30FPS genug, mit mehr zocke ich eigentlich nur in wirklich kompetitiven Multiplayer Games, oder wenn ich die Leistung nicht mehr in eine bessere Optik umsetzen kann.

Ich kann mir aber durchaus vorstellen das 4k zum Arbeiten sehr geil ist. Nur leider ist das den meisten Leuten egal, die tun sich ja auch 1366*768 an. Langsam halten wenigstens 1080p Panels den Einzug in den guenstigen Massenmarkt.

Spätestens von der Arbeit weiß ich, dass die, die 4K wollen auch ganz genau wissen, wozu sie es wollen. Die anderen wissen meist nicht mal genau was es ist.

PHuV
2014-10-27, 10:57:53
Ich kann mir aber durchaus vorstellen das 4k zum Arbeiten sehr geil ist. Nur leider ist das den meisten Leuten egal, die tun sich ja auch 1366*768 an. Langsam halten wenigstens 1080p Panels den Einzug in den guenstigen Massenmarkt.
Es liegt auch daran, daß viele Märkte noch genau diese perverse Größe verkaufen. Ich bin letztes Mal auch voll darauf reingefallen, ich wollte eine TV/Monitor-Kombination bei MM für Sohnemann kaufen, und hab in der Computerabteilung bei den Computermonitoren (!) so ein Teil erwischt, und habs erst zu Hause gemerkt. Die MM-Mitarbeiter haben das Gerät auch falsch mit FullHD gekennzeichnet, dann war ein Umtausch ohne weiteres möglich.

Da frage ich mich auch, wer kauf so ein Mist heute noch? Anscheinend viele, um eben 20 € zu FullHD zu sparen.
Spätestens von der Arbeit weiß ich, dass die, die 4K wollen auch ganz genau wissen, wozu sie es wollen. Die anderen wissen meist nicht mal genau was es ist.
Und dann wundern sich User bei Computerbase, warum sie als Monitor so eine pixelige Darstellung haben, kein Witz. :facepalm:

ChaosTM
2014-10-27, 12:01:32
Alle haben Recht. TN hat schlechte Farben, schält aber sehr schnell. 144Hz sind für Actionspiele wirklich butterweich, aber für ein RPG reichen vielleicht auch 30.

Die neueren TN`s mit 10bit Farbtiefe sind schon recht brauchbar.
Ich gehörte auch zur "Niemals TN!" Fraktion, bis ich meinen derzeitigen Monitor in Aktion sah.. ;)

Der "perfekte" Monitor wird, wenn überhaupt, erst mit OLED möglich.

Edit.: Der letzte/perfekte Monitor.: 30-35Zoll, 8k, 144+(+)Hz, >10bit Farbraum , ∞ Kontrast, <1ms Reaktionszeit und Black Frame Insertion oder ähnliches.
Sollte so um 2020 verfügbar sein.. hoffe ich zumindest.

FlashBFE
2014-10-27, 12:50:39
Edit.: Der letzte/perfekte Monitor.: >10bit Farbraum
Das ist aber eine ganz eigene Baustelle. 10Bit pro Kanal sind nur eine Farbtiefe, aber noch kein Farbraum. Wir brauchen zum "perfekten Monitor" noch einen Farbraum, der alle sichtbaren Farben ausgeben kann, inklusive echtem Violett. Und eine ausreichend feine Quantisierung eines solch großen Farbraums, für den drei Farbkanäle auch nicht mehr reichen werden, wird eine kräftige Datenratensteigerung benötigen. Zusammen mit der Auflösung und der hohen Bildfrequenz werden die Datenraten bis 2020 vermutlich längst nicht handelbar sein.

aths
2014-10-27, 14:24:19
Alle haben Recht. TN hat schlechte Farben, schält aber sehr schnell. 144Hz sind für Actionspiele wirklich butterweich, aber für ein RPG reichen vielleicht auch 30.
60.

aufkrawall
2014-10-27, 14:42:06
Das ist eine willkürliche Zahl.

TobiWahnKenobi
2014-10-27, 14:59:31
als es noch keine 120+ Hz lightboost-geräte gab, führte auch nicht wirklich ein weg um IPS herum, wenn man ein tolles display haben wollte. die krux ist dann halt das spielgefühl, denn wo ein IPS tolle winkel und farben hat, schaltet ein TN einfach ungleich schneller und bietet ein sehr viel angenehmeres handling was die schwuppdizität angeht. auch tearing ist weniger oft störend, wenn man ohne sync spielt. daran gewöhnt man sich in der tat so schnell, dass einem 60Hz auf dem desktop als abgehackt vorkommen. noch geringere frequenzen wie 50 oder 23Hz sind dann schier unbedienbar.

wo man sich bei den "andersartigen" TN-farben umgewöhnen oder selbige in bestimmten maßen anpassen kann, kann man ein IPS einfach nicht schneller oder 3d-fähiger machen.

insofern spielt der spieler mit dem schnellen panel, der bild- oder videoarbeiter nimmt das langsame und wer in beiden revieren wildert hat hat 2-3 bildschirme.

in meiner spielergunst kommt ganz vorn TN, dann DLP, dann OLED und irgendwo ganz weit hinten VA und IPS.


(..)

mfg
tobi

Sven77
2014-10-27, 15:06:19
Ich würde sagen, 30FPS sind zum Zocken "genug".

Bin ich anderer Meinung.. bei der letzten Konsolengeneration war es am Ende ein Graus mit 30fps, man rührte in Butter und das obwohl die Controllersteuerung einem dabei noch entgegenkam.. ich dreh lieber die Auflösung runter bevor ich mich wieder in diese Untiefen begebe

Argo Zero
2014-10-27, 15:06:56
Bei mir sind 60FPS Maßstab als Durchschnitt, wobei die Zahl 40 in heftigen Szenen nicht unterschritten werden darf. Schafft das die Karte nicht werden als erstes Details herunter gedreht, die man auf den ersten Blick nicht vermisst.
Auch aus diesem Grund geht die 4k Auflösung z.Z. völlig an mir vorbei. Es fehlt einfach die Leistung. Vielleicht sitzen wir aber auch zu nah am Monitor und machen unsere Augen noch weiter kaputt.

Coda
2014-10-27, 15:14:13
Das ist aber eine ganz eigene Baustelle. 10Bit pro Kanal sind nur eine Farbtiefe, aber noch kein Farbraum. Wir brauchen zum "perfekten Monitor" noch einen Farbraum, der alle sichtbaren Farben ausgeben kann, inklusive echtem Violett. Und eine ausreichend feine Quantisierung eines solch großen Farbraums, für den drei Farbkanäle auch nicht mehr reichen werden, wird eine kräftige Datenratensteigerung benötigen. Zusammen mit der Auflösung und der hohen Bildfrequenz werden die Datenraten bis 2020 vermutlich längst nicht handelbar sein.
Ich würde schätzen, dass 30 bit reichen für den vollen sichtbaren Farbraum. Das sind 1 Milliarde Farben.

aufkrawall
2014-10-27, 15:30:45
Bin ich anderer Meinung.. bei der letzten Konsolengeneration war es am Ende ein Graus mit 30fps, man rührte in Butter und das obwohl die Controllersteuerung einem dabei noch entgegenkam.. ich dreh lieber die Auflösung runter bevor ich mich wieder in diese Untiefen begebe
Auf der Konsole sieht es ja auch gleichzeitig igitt aus.
Bei 30 feinsten fps auf dem PC geht das Belohnungssystem im Gehirn ganz anders an die Sache ran. :D
Kommt halt auf die Anwendung an.

Tesseract
2014-10-27, 17:36:25
144Hz sind für Actionspiele wirklich butterweich, aber für ein RPG reichen vielleicht auch 30.
mir reichen 30 nicht mal für rundenbasierte strategiespiele wie civilization. ich will diesen mist einfach nicht haben und im zweifelsfall werden dafür die effekte runtergeschraubt. mir ist absolut unerklärlich wie man sich mit 30 zufrieden geben kann.

del_4901
2014-10-27, 17:43:04
Zieht bitte Renderfrequenz nicht mit Simulations- und UpdateFrequenz ueber einen Kamm. Es ist richtig, dass bei vielen GameEngines hier Abhaenigkeiten bestehen, aber mittel und langfristig wird sich das aendern.

aufkrawall
2014-10-27, 17:43:50
Wofür brauchst du 60fps, wenn du dir eine Landschaft anschauen willst?
Sind beinahe Stillleben und so etwas wie Wasserfälle ist häufig auch mit gar nicht mehr fps animiert.

Tesseract
2014-10-27, 18:22:58
kein spiel ist ein stillleben sonst wär es kein spiel sondern ein bild. nenn mir bitte ein modernes spiel in dem es keine bewegliche kamera gibt. nichtmal in spielen wie hearthstone halte ich 30fps aus. mag sein, dass es langsam fließende wassereffekte gibt, bei denen (in weiter entfernung) eine 30Hz updaterate unter umständen ausreicht damit das ganze nicht sofort ins auge sticht, aber das ist dann eher ein sonderfall als die regel.

aufkrawall
2014-10-27, 18:57:48
Was bringt dir eine flüssige Kamera, wenn z.B. bei Panoramen Alphatests auf Entfernung nur noch klebriger Pixelmüll sind?
Ich habe Risen 3 mit ziemlich niedrigen fps durchgespielt und es war eine Wohltat im Vergleich zur verpixelten Vegetation.
Ich möchte Details schon ganz gerne erkennen, anstatt sie erahnen zu müssen.

Tesseract
2014-10-27, 19:05:49
in so einem fall würde ich das spiel wohl einfach auf das nächste hardwareupgrade verschieben. oft tun es auch ein paar treiberupdates in kombination mit ein paar patches.
es gibt definitiv genug gute spiele um sich nicht durch alles sofort zu release durchquälen zu müssen, mal abgesehen davon dass die spiele in diversen sales dann sowieso wesentlich billiger sind.

dungeonlight
2014-11-06, 13:23:40
Jo mei, kommt Zeit kommt Rat. 4k wird sich kurzfristig auf ganzer Linie durchsetzen, aber nicht das Ende der Fahnenstange bleiben...

CyLord
2014-11-06, 13:57:58
,,Kurzfristig" halte ich für ziemlich übertrieben. Das wird beileibe nicht so schnell gehen, wie bei 1920x1080.

THUNDERDOMER
2014-11-06, 14:00:48
Ich bin mit 720p und 1080p zufrieden und 4K ist total unnötig. Ich sehe beim zocken kaum ein Unterschied!

Nur Marketingquatsch ist in der Rede :(

Ich spiele lieber 720p, aber höhere Framerate +30FPS als 4K mit -15FPS :ugly2:

robbitop
2014-11-06, 14:33:28
Ich empfinde >45-50 fps mit G-Sync als butterweich. Danach wird es nicht mehr flüssiger (gefühlt) sondern die Bewegungsschärfe nimmt zu.
Ohne G-Sync brauche ich eher 60 fps. Alles andere wirkt eher ein wenig hakelig, unsmooth. Wird aber, wie Alphatier schon sagt, auch mit den internen Abtastraten der Engine zusammenhängen.

Ich habe Spiele erlebt, die waren bei 30 fps fast perfekt flüssig und andere, die brauchten eher 60 fps.

PHuV
2014-11-09, 01:50:21
Ich bin mit 720p und 1080p zufrieden und 4K ist total unnötig. Ich sehe beim zocken kaum ein Unterschied!

Nur Marketingquatsch ist in der Rede :(
Sind wieder die Blinden, die von Farben faseln, die sie nie gesehen haben. :rolleyes:

Und ich sehe einen Unterschied zwischen 4k und HD.

ilibilly
2014-11-09, 09:21:37
Der Unterschied ist definitiv groß,natürlich ist der Sprung von sagen wir 800x600 auf Fhd größer als von Fhd zu UHD ,obwohl Verhältnis genauso 1 zu 4 ist.
Aber langsam kommt man wohl an den Punkt an wo man es nicht mehr wahrnimmt,was auch mit dem sitzabstand entscheidend ist.
Bei 5m zum UHD tv sieht man zB fast keinen Unterschied ,bei 2m dagegen isses sehr deutlich.
Irgendwann limitiert das menschliche Auge,und bei 8k muss man warscheinlich direkt mit der Nase am Display kleben :)

Guest83
2014-11-09, 11:19:38
Irgendwann limitiert das menschliche Auge,und bei 8k muss man warscheinlich direkt mit der Nase am Display kleben :)
AKA Oculus Rift. Für VR sind solche hohen Auflösungen von entscheidender Bedeutung.

Wurde hier im Thread eigentlich schon Foveated Rendering erwähnt? Dabei werden die Augenbewegungen von einer Kamera getrackt und nur in dem Bereich wo man wirklich gerade hinschaut, wird mit der vollen Auflösung gerendert, während man das restliche Bild mit deutlich weniger Pixel rendert und upscalt. Da wir nur in einem kleinen Bereich wirklich scharf sehen können, würden wir das nicht mitkriegen, solange die Latenz für das Eye-Tracking niedrig genug ist.

CD-LABS
2014-11-09, 11:26:39
Der Unterschied ist definitiv groß,natürlich ist der Sprung von sagen wir 800x600 auf Fhd größer als von Fhd zu UHD ,obwohl Verhältnis genauso 1 zu 4 ist.
Aber langsam kommt man wohl an den Punkt an wo man es nicht mehr wahrnimmt,was auch mit dem sitzabstand entscheidend ist.
Bei 5m zum UHD tv sieht man zB fast keinen Unterschied ,bei 2m dagegen isses sehr deutlich.
Irgendwann limitiert das menschliche Auge,und bei 8k muss man warscheinlich direkt mit der Nase am Display kleben :)
Ich halte den Sprung für ziemlich ähnlich groß, solange die Texturen entsprechend aufgelöst sind und das Seitenverhältnis bei . Letztendlich ist es dann im kleinen Bildausschnitt nämlich sogar 1:1 die gleiche Situation wie bei 960x540 vs. 1920x1080.
Frage ist halt nur, wie groß das Display sein soll---einige sind ja der Meinung, dass es dafür ein großes Display braucht---müsste dafür mal ausgiebig 2160P@15 Zoll testen können, bevor ich mich in ein verfrühtes Urteil stürze!
So oder so glaube ich, dass eine breitenabdeckende 2160P-Durchdringung und ein guter OS-Support genau wie entsprechend starke Hardware zeitlich nah beieinander liegen werden!