PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47

M4xw0lf
2015-01-30, 20:54:40
Was ist mit Samus Aran? :D

Ravenhearth
2015-01-31, 00:17:13
Off-Topic?

DinosaurusRex
2015-01-31, 09:40:01
Was ist mit Samus Aran? :D

Ich bin ein SEGA-Kind. ;)

Ich fand Blaze Fielding toll. Die ist zwar auch sehr knapp bekleidet, aber im Setting von Streets of Rage macht das durchaus Sinn.

Ein Streets of Rage Remake im God of War Stil (fixierte Kamera, 3D-Arena, Co-op) wäre mal genial. Das Setting ist absolut unverbraucht und Brawler sind die coolsten co-op Spiele, wenn ihr mich fragt. Es muss richtig brutal sein, da muss Blut fließen, wenn man den Gegner mit dem Messer absticht oder ihm den Schädel mit nem Brecheisen zertrümmert... (Hotline Miami Style!!!) Am besten noch mit Attacken, die auf die Umgebung eingehen (Autotür -> Kopf). Auf der PS1 hatte sich EIDOS an sowas versucht, Fighting Force hieß das, aber das war nicht wirklich toll. Da waren zu viele Schußwaffen.

Für mich ist Streets of Rage 2 auf jeden Fall in den Top 5 der besten Videospiele aller Zeiten. Richtig schön arcadig und progressiv. Darüber hinaus hat es einen der besten Soundtracks (https://www.youtube.com/watch?v=Mk2Id1xIdVE) überhaupt. Es ist natürlich Geschmackssache, aber genau so will ich Gaming Soundtracks haben. Heute ist das viel zu orchestral und orientiert sich zu stark an Hollywood. Ein guter Soundtrack peitscht dich beim Zocken nach vorne. Das hast du heute kaum noch. Soundtracks dienen leider nur noch der Atmosphäre und nicht mehr dem Gameplay. Platinum Games ist da zum Glück eine Ausnahme. Ich denke auch bei Hotline Miami ist der Soundtrack ein Gameplay-Element und wesentlich für den Erfolg des Spiels verantwortlich. Das alte Shinobi-Spiel (https://www.youtube.com/watch?v=SJDmGuyd__4) für Mega Drive ist auch nen super Beispiel, wie Videospiel-Soundtracks sein sollten. Und das hier (https://www.youtube.com/watch?v=FgBl7I6bIV8) ist vermutlich jedem Zocker geläufig.

mbee
2015-01-31, 10:12:19
Interessiert in dem Thread, wie schon jemand geschrieben hat, glaube ich recht wenig.
Macht doch bitte einen neuen für unpassende oder passende Wichsvorlagen und Soundtracks in Japan-Games auf...;)

DinosaurusRex
2015-01-31, 10:20:01
Wenn du mal nochmal genau nachsiehst, dann wirst du merken, dass die Anzahl der Personen, die mitdiskutiert haben, deutlich höher ist, als die Anzahl der Personen, die sich beschwert haben. ;)

mbee
2015-01-31, 10:26:47
Wirklich ein Spitzenargument...;)

DinosaurusRex
2015-01-31, 10:30:51
http://media.tumblr.com/1def6fdba35ca8c516e2e108e7a0bdf0/tumblr_inline_mpj91fXgsR1qz4rgp.gif

---

Aber um vom OT mal wieder zum Thema zu kommen; hier gibts brandneues Street Fighter 5 Gameplay mit Chun Li:

FzwZdp7QJI0

Ich erkenne da ehrlich gesagt keinen wirklichen Unterschied zum Vorgänger. Es wird sicher mit 1080p60fps laufen, aber grundsätzlich frage ich mich, warum sich die Grafik bei Fighting Games so langsam entwickelt? Das ist genau das gleiche beim neuen Mortal Kombat X:

wQf7_gqF7o0

Oder das neue Guilty Gear:

Sd0EHJHQhv8

Gibt es dafür eine technische Erklärung? Vielleicht um den Input Lag so niedrig wie möglich zu halten?

][immy
2015-02-01, 00:52:28
Auch dying light hat auf der PS4 kein AF. Liegt das wirklich daran, das ihr häufiger einfach die Bandbreite aus geht? Kann doch so langsam kein Zufall mehr sein.

dildo4u
2015-02-01, 01:11:31
[immy;10508195']Auch dying light hat auf der PS4 kein AF. Liegt das wirklich daran, das ihr häufiger einfach die Bandbreite aus geht? Kann doch so langsam kein Zufall mehr sein.
Eher unvermögen der Entwickler Infamous hat z.b AF und bietet imo ne deutlich besser Optik.

abload.de/image.php?img=i0fwvusnpwg9jn8ruz.jpg

Rizzard
2015-02-02, 09:11:31
Ich erkenne da ehrlich gesagt keinen wirklichen Unterschied zum Vorgänger. Es wird sicher mit 1080p60fps laufen, aber grundsätzlich frage ich mich, warum sich die Grafik bei Fighting Games so langsam entwickelt? Das ist genau das gleiche beim neuen Mortal Kombat X:


Was will sich bei Street Fighter auch großartig ändern.
Es wird immer den Comic Look behalten. Potential sehe ich da eher bei MK.
Deren Style ist ja recht realistisch.

DinosaurusRex
2015-02-02, 10:24:11
[immy;10508195']Auch dying light hat auf der PS4 kein AF. Liegt das wirklich daran, das ihr häufiger einfach die Bandbreite aus geht? Kann doch so langsam kein Zufall mehr sein.

Liegt wohl eher am Entwickler. Das spiel läuft auf allen Plattformen unter aller Kanone. Einfach mal NeoGAF PC Performance Thread lesen.

Ich finde diese Argumentation immer hochgradig heuchlerisch: Wenn jemand mit einem topmodernen i7 und einer 500€ Grafikkarte klagt, dass er regelmäßig Framerate-Einbrüche auf 20fps oder gar 1fps hat, dann liegt das natürlich sofort am Entwickler. Hat eine der Konsolen bei dem selben Titel ebenfalls Performance-Probleme, wird direkt mit dem Finger auf die "veraltete low-end Tablet Hardware" gezeigt und "ZOMFG FAIL!!!!111" geschrien. Dabei wird natürlich ignoranterweise ausgeblendet, dass es längst Konsolenspiele gibt, die erheblich besser aussehen und dabei auch noch erheblich besser laufen. Dying Light sieht in keinster Weise nach einem next-gen Titel aus. Der Entwickler ist entweder unfähig oder das Projekt ist ihm über den Kopf gewachsen. Oder beides.

Es ist einfach nur dumm. Wenn man mit seinen Posts eine Agenda voranpeitschen will, dann sollte man das wenigsten auf eine möglichst geistreiche Art und Weise machen. Dann haben wenigstens alle etwas davon. Und nur damit wir uns richtig verstehen: Das ist kein Vorwurf an dich. Ich hab mir hier dreisterweise nur einen Strohmann gebaut.

Grundsätzlich wird bei den PC vs Konsole Vergleichen NIEMALS auf die PC Performance eingegangen. Es werden immer Screenshots verglichen und dann wird eine Framerate-Analyse durchgeführt, allerdings ausschließlich bei den Konsolen. Sobald die Konsolen einmal auf 29,9fps droppen, wird direkt losgeschimpft, aber wenn ein topmoderner high-end Gaming PC mit 400Watt Verlustleistung das Spiel ebenfalls nicht über 30fps halten kann, dann erfährt das niemand, weil das in solchen Vergleichen nie berücksichtigt wird. Da werden entscheidende Informationen bewusst ausgesiebt und ein Urteil kann dementsprechend nur unter einer weiterführenden, differenzierten Analyse der Ergebnisse gefällt werden. Aber die Leute, die diese Vergleiche regelmäßig verlinken, tun das nicht, weil sie überhaupt nicht in der Lage sind, differenziert an so ein Thema heranzugehen. Die hatten ihr Urteil schon gefällt, bevor sie den Vergleich überhaupt gelesen haben und picken sich dann nur noch die Rosinen raus, um dieses Urteil bestätigen zu können.

Sven77
2015-02-02, 10:36:17
Der Entwickler ist entweder unfähig oder das Projekt ist ihm über den Kopf gewachsen.

Techland ist dafür bekannt.. die Projekte sind imho zu ambitioniert für so ein kleines bis mittleres Studio. Ich seh auch schon den nächsten grossen Bummer bei Witcher 3, CD-Projekt könnte in die gleiche Falle tappen. Vorbestellen würde ich es zumindest nicht...

DinosaurusRex
2015-02-02, 10:40:23
Jup. Witcher 3 sieht für mich im direkten Vergleich mit konsolenexklusiven Produktionen auch nicht wie ein next-gen Spiel aus. Da hab ich deutlich mehr erwartet. Ich mag CD Projekt allerdings sehr gerne und deswegen werde ich es trotzdem vorbestellen. :D

Aber eine R9 290 für mittlere bis hohe Settings bei 1080p und 30fps klingt bei der gebotenen Grafik alles andere als vielversprechend. Meine HD5870 entspricht nichtmal den Minimalanforderungen...

Botcruscher
2015-02-02, 11:07:56
Grundsätzlich wird bei den PC vs Konsole Vergleichen NIEMALS auf die PC Performance eingegangen. Es werden immer Screenshots verglichen und dann wird eine Framerate-Analyse durchgeführt, allerdings ausschließlich bei den Konsolen. Sobald die Konsolen einmal auf 29,9fps droppen, wird direkt losgeschimpft, aber wenn ein topmoderner high-end Gaming PC mit 400Watt Verlustleistung das Spiel ebenfalls nicht über 30fps halten kann, dann erfährt das niemand, weil das in solchen Vergleichen nie berücksichtigt wird.

Wenn wir mal bei DL bleiben dann ist das eine sehr selektive Meinung. Die Beschwerden sind auch mit 400Watt Maschinen voll. Wobei die Vergleichbarkeit auch nicht gegeben ist. Dafür müsste extra der Einstellungspunkt Konsolenoptik gegeben sein. Damit gibt sich auf den PC aber keiner ab. Mit leicht minimierten Einstellungen läuft es in 4K sehr angenehm. Auf dem PC beschwert sich die "Alle Regler Rechts Ultra Fraktion", bei der Konsole ist mangels Optionen einfach Ende.

Ob bei den "freien" Entwicklern ohne Sony/MS Geldcheat Optimierungsarbeit fehlt? Ja klar aber erstens kostet das und zweitens ist der Masse der Konsoleros dann nach Upgrade X auch egal ob da AF fehlt. "Sieht doch nach 1, 2, 3 oder 4 Metern eh keiner mehr..." Das ist halt die Schattenseite von "Hardware" ausnutzen. Unter harten Ökonomischen Zwängen gibt es nur Standardkost.

DinosaurusRex
2015-02-02, 11:25:26
Wenn wir mal bei DL bleiben dann ist das eine sehr selektive Meinung. Die Beschwerden sind auch mit 400Watt Maschinen voll. Wobei die Vergleichbarkeit auch nicht gegeben ist. Dafür müsste extra der Einstellungspunkt Konsolenoptik gegeben sein. Damit gibt sich auf den PC aber keiner ab. Mit leicht minimierten Einstellungen läuft es in 4K sehr angenehm. Auf dem PC beschwert sich die "Alle Regler Rechts Ultra Fraktion", bei der Konsole ist mangels Optionen einfach Ende.

Wenn jemand trotz 400Watt PC mit Grafikeinstellungen spielt, die denen der 150W Konsolen entsprechen, dann findet doch lediglich Symptombekämpfung statt, bei der ein mies optimimiertes Spiel mit teurer Hardware erschlagen wird. Das sorgt zwar beim Betroffenen Gamer für Linderung, zumindest sofern er über dieses "Allheilmittel" verfügt, aber es entkräftet nicht die Kritik am Entwickler.

Ich finde diesen Ansatz schrecklich. Das sollte gar nicht erst als Alternative akzeptiert werden, denn das so etwas für AAA Gaming Gift ist, sollte jedem einleuchten.

Ob bei den "freien" Entwicklern ohne Sony/MS Geldcheat Optimierungsarbeit fehlt? Ja klar aber erstens kostet das und zweitens ist der Masse der Konsoleros dann nach Upgrade X auch egal ob da AF fehlt. "Sieht doch nach 1, 2, 3 oder 4 Metern eh keiner mehr..." Das ist halt die Schattenseite von "Hardware" ausnutzen. Unter harten Ökonomischen Zwängen gibt es nur Standardkost.

Wir erleben gerade etwas, dass von sehr vielen Branchen-Insidern im Vorfeld angekündigt wurde: Geld ist der primäre, limitierende Faktor für Videospielgrafik und dieses Phänomen wird sich in Zukunft noch viel deutlicher zeigen. Das das Budget pro Plattform bei AAA Exklusivspielen höher ist, als bei AAA Multiplats, ist logisch, aber als "Geldcheat" würde ich es nicht bezeichnen. Das ist zu viel der Polemik, denn PC Gamer sind aufgrund ihrer fehlenden Bereitschaft, für Videospiele den seit Jahrzehnten beinahe unverändert gebliebenen Vollpreis zu zahlen, selber Schuld an dieser Situation. Es ist nicht so, dass die Konsolen-Exclusives sich am PC "vorbeicheaten". Vielmehr bremst sich der PC durch die Einstellung der PC Gamer selber aus. Aber hey, solange man in den Multiplats dann wenigstens einen auf dicke Hose machen kann, ist das ganze doch halb so schlimm, nicht wahr?

Martin K.
2015-02-02, 11:28:55
Liegt wohl eher am Entwickler. Das spiel läuft auf allen Plattformen unter aller Kanone. Einfach mal NeoGAF PC Performance Thread lesen.

Ich finde diese Argumentation immer hochgradig heuchlerisch: Wenn jemand mit einem topmodernen i7 und einer 500€ Grafikkarte klagt, dass er regelmäßig Framerate-Einbrüche auf 20fps oder gar 1fps hat, dann liegt das natürlich sofort am Entwickler. Hat eine der Konsolen bei dem selben Titel ebenfalls Performance-Probleme, wird direkt mit dem Finger auf die "veraltete low-end Tablet Hardware" gezeigt und "ZOMFG FAIL!!!!111" geschrien. Dabei wird natürlich ignoranterweise ausgeblendet, dass es längst Konsolenspiele gibt, die erheblich besser aussehen und dabei auch noch erheblich besser laufen. Dying Light sieht in keinster Weise nach einem next-gen Titel aus. Der Entwickler ist entweder unfähig oder das Projekt ist ihm über den Kopf gewachsen. Oder beides.

Es ist einfach nur dumm. Wenn man mit seinen Posts eine Agenda voranpeitschen will, dann sollte man das wenigsten auf eine möglichst geistreiche Art und Weise machen. Dann haben wenigstens alle etwas davon. Und nur damit wir uns richtig verstehen: Das ist kein Vorwurf an dich. Ich hab mir hier dreisterweise nur einen Strohmann gebaut.

Grundsätzlich wird bei den PC vs Konsole Vergleichen NIEMALS auf die PC Performance eingegangen. Es werden immer Screenshots verglichen und dann wird eine Framerate-Analyse durchgeführt, allerdings ausschließlich bei den Konsolen. Sobald die Konsolen einmal auf 29,9fps droppen, wird direkt losgeschimpft, aber wenn ein topmoderner high-end Gaming PC mit 400Watt Verlustleistung das Spiel ebenfalls nicht über 30fps halten kann, dann erfährt das niemand, weil das in solchen Vergleichen nie berücksichtigt wird. Da werden entscheidende Informationen bewusst ausgesiebt und ein Urteil kann dementsprechend nur unter einer weiterführenden, differenzierten Analyse der Ergebnisse gefällt werden. Aber die Leute, die diese Vergleiche regelmäßig verlinken, tun das nicht, weil sie überhaupt nicht in der Lage sind, differenziert an so ein Thema heranzugehen. Die hatten ihr Urteil schon gefällt, bevor sie den Vergleich überhaupt gelesen haben und picken sich dann nur noch die Rosinen raus, um dieses Urteil bestätigen zu können.

*** DAUMEN HOCH ***

Bin da ebenfalls deiner Meinung. :)

Jupiter
2015-02-02, 11:29:40
Ich finde diese Argumentation immer hochgradig heuchlerisch: Wenn jemand mit einem topmodernen i7 und einer 500€ Grafikkarte klagt, dass er regelmäßig Framerate-Einbrüche auf 20fps oder gar 1fps hat, dann liegt das natürlich sofort am Entwickler.

Hat eine der Konsolen bei dem selben Titel ebenfalls Performance-Probleme, wird direkt mit dem Finger auf die "veraltete low-end Tablet Hardware" gezeigt und "ZOMFG FAIL!!!!111" geschrien.

Grundsätzlich wird bei den PC vs Konsole Vergleichen NIEMALS auf die PC Performance eingegangen.

Aber die Leute, die diese Vergleiche regelmäßig verlinken, tun das nicht, weil sie überhaupt nicht in der Lage sind, differenziert an so ein Thema heranzugehen.

Das liegt evt. daran das man stets zu hören bekommt, das Konsolenspiele so gut optimiert seien. In der Praxis lässt sich das nicht bestätigen, wie es behauptet wird. Auf den Konsolen habe ich kein Spiel gesehen, dass mit 60 Bildern läuft und eine top moderne Grafik hat. Stattdessen sehe ich auf der PlayStation 4 viele Spiele die wie Destiny, Knack, Evil Within etc. eine veraltete Grafik haben, und mit 30 Bilder in der Sekunde (wenn überhaupt) gerendert werden. Das ist sogar die Mehrheit der Spiele. Durchschnittliche bis gute Grafik mit 25 bis 30 Bildern in der Sekunde.

DinosaurusRex
2015-02-02, 11:31:45
30fps vs 60fps hat in erster Linie nichts mit Optimierung zu tun, sondern ist eine Design-Entscheidung seitens des Entwicklers (und wie man hört gibt es da wohl auch "Empfehlungen" der Plattforminhaber). Das haben die Pros hier schon zigfach erklärt. Wären diese Konsolen doppelt so leistungsfähig, würden die meisten Spiele sicher immer noch mit 30fps laufen.

Jupiter
2015-02-02, 11:34:20
Gilt das auch für Einbrüche bis auf 20 Bilder in der Sekunde? Das habe ich auch häufiger gesehen.

Das ist nicht immer eine Designentscheidung. Oft fehlt die Leistung, das Geld oder die Zeit. Das ein Spiel wie Destiny nur 30 Bilder liefert, lässt sich nicht mit "Designentscheidung" erklären. Das ist ein Kompromiss. Genau wie 900p oder ähnliches.

][immy
2015-02-02, 11:43:14
Gilt das auch für Einbrüche bis auf 20 Bilder in der Sekunde? Das habe ich auch häufiger gesehen.

Das ist nicht immer eine Designentscheidung. Oft fehlt die Leistung, das Geld oder die Zeit. Das ein Spiel wie Destiny nur 30 Bilder liefert, lässt sich nicht mit "Designentscheidung" erklären. Das ist ein Kompromiss. Genau wie 900p oder ähnliches.
natürlich sind das Design-Entscheidungen. Die Hardware an Konsolen ändert sich ja nicht. D.h. man kann mit einem festen Ziel arbeiten. Wenn die Framerate einbricht hat man bei seinem Design einen Fehler, da man die Hardware offensichtlich überfordert hat. Man hätte also beim Design darauf achten müssen, das nicht zu viel auf dem Bildschirm passiert. Fällt trotzdem unter "Design-Entscheidung".
Bei dem PC gibt es noch die Entschuldigung von verschiedenen Hardware-Konfigurationen. Bei Konsolen gibt es das nicht.

Das mit dem AF macht mich trotzdem stutzig. Ist ja nicht das erste Spiel das auf der PS4 kein AF bietet, auf der schwächeren One allerdings schon. Die Auflösung allein kann es ja nicht ausmachen, die wird ja schon reduziert um die schwächere GPU auszugleichen.

DinosaurusRex
2015-02-02, 11:43:18
Gilt das auch für Einbrüche bis auf 20 Bilder in der Sekunde? Das habe ich auch häufiger gesehen.

Das ist nicht immer eine Designentscheidung. Oft fehlt die Leistung, das Geld oder die Zeit. Das ein Spiel wie Destiny nur 30 Bilder liefert, lässt sich nicht mit "Designentscheidung" erklären.

Doch, ist es. Destiny ist ein MMO. Ein Entwickler von Square Enix hat bei FFXIV (ebenfalls ein MMO) erklärt, dass ein 60fps Target bei dieser Art von Spiel praktisch nicht umsetzbar ist, es sei denn man instanziert alles und grenzt so die Anzahl der Chars ein, die maximal an einem Ort sein können. Das hat also unmittelbar Einfluss auf das Gameplay und ist dementsprechend sehr wohl eine Designentscheidung.

Framerate-Einbrüche sind selbstverständlich nicht geplant, darauf hättest du auch selber kommen können. Allerdings darf man hier bei dem immensen Aufwand und dem riesigen Umfang moderner Videospiele als Gamer ruhig ein wenig kulant sein: Kommt es wirklich selten vor -> drauf geschissen! Das wird dann doch eh nur als Kanonenfutter in den nächsten System Wars verballert. Kommt es hingegen regelmäßig zu Framerate-Einbrüchen, dann muss man dem Entwickler oder Publisher auf jeden Fall einen Vorwurf machen. Ich sage bewusst Publisher, weil wenn man sich mal Ubisoft ansieht, dann waren sehr viele Spiele dieses Publishers in der jüngeren Vergangenheit technisch fragwürdig bis unzumutbar und das obwohl sie von verschiedenen Teams entwickelt wurden. Da darf man die Schuld also durchaus bei den "Suits" suchen und nicht bei den Entwicklern.

Der große Witz ist ja, dass Ubisoft am lautesten rumgeheult hat, dass die letzte Konsolengeneration zu lange gedauert hat. Die hätten sich also schon früher neue Hardware gewünscht und diese wäre dann womöglich nicht so leistungsfähig gewesen. Dass Ubisoft dann trotz längerer Wartezeit keine ordentliche Arbeit abliefern konnte, ist eigentlich eine Frechheit den Plattforminhabern gegenüber. Nichtmal der Item Shop hat funktioniert.

Jupiter
2015-02-02, 12:02:18
[immy;10509649']natürlich sind das Design-Entscheidungen. Die Hardware an Konsolen ändert sich ja nicht. D.h. man kann mit einem festen Ziel arbeiten. Wenn die Framerate einbricht hat man bei seinem Design einen Fehler, da man die Hardware offensichtlich überfordert hat. Man hätte also beim Design darauf achten müssen, das nicht zu viel auf dem Bildschirm passiert. Fällt trotzdem unter "Design-Entscheidung".
Bei dem PC gibt es noch die Entschuldigung von verschiedenen Hardware-Konfigurationen. Bei Konsolen gibt es das nicht.


Doch, ist es. Destiny ist ein MMO. Ein Entwickler von Square Enix hat bei FFXIV (ebenfalls ein MMO) erklärt, dass ein 60fps Target bei dieser Art von Spiel praktisch nicht umsetzbar ist, es sei denn man instanziert alles und grenzt so die Anzahl der Chars ein, die maximal an einem Ort sein können. Das hat also unmittelbar Einfluss auf das Gameplay und ist dementsprechend sehr wohl eine Designentscheidung.

Framerate-Einbrüche sind selbstverständlich nicht geplant, darauf hättest du auch selber kommen können. Allerdings darf man hier bei dem immensen Aufwand und dem riesigen Umfang moderner Videospiele als Gamer ruhig ein wenig kulant sein: Kommt es wirklich selten vor -> drauf geschissen! Das wird dann doch eh nur als Kanonenfutter in den nächsten System Wars verballert. Kommt es hingegen regelmäßig zu Framerate-Einbrüchen, dann muss man dem Entwickler oder Publisher auf jeden Fall einen Vorwurf machen. Ich sage bewusst Publisher, weil wenn man sich mal Ubisoft ansieht, dann waren sehr viele Spiele dieses Publishers in der jüngeren Vergangenheit technisch fragwürdig bis unzumutbar und das obwohl sie von verschiedenen Teams entwickelt wurden. Da darf man die Schuld also durchaus bei den "Suits" suchen und nicht bei den Entwicklern.

Für Destiny sehe ich es als einen Kompromiss. Das muss selbstverständlich nicht zwangsläufig an der Hardware liegen. Im Anbetracht der Grafik denke ich an ein älteres Videospiel. Beim Design haben sie schon darauf geachtet, dass es auf der PlayStation 3 mit etwa 30 Bildern in der Sekunde läuft. Viel besser sieht es auf der PlayStation 4 grafisch ebenfalls nicht aus. Demnach wären 60fps denkbar. Nun weiß ich nicht, wie viel Prozessorleistung Destiny denn überhaupt benötigt. Für die Umgebung wird es wenig sein. Unmengen an Charakteren habe ich nicht gesehen. Ist das wirklich ein MMO? In Battlefield 4 ist mehr los (hat auch 64 Spieler) und das läuft auf der PlayStation 4 schätzungsweise mit 50 bis 60 Bildern in der Sekunde.

Sven77
2015-02-02, 12:08:44
Ist das wirklich ein MMO?

Nein, aber es gibt Gegenden in denen mehrere Spieler aktiv sind, das geht dann fliessend in die Instanzen über

In Battlefield 4 ist mehr los (hat auch 64 Spieler) und das läuft auf der PlayStation 4 schätzungsweise mit 50 bis 60 Bildern in der Sekunde.

Aber hat massive Slowdowns die in Destiny beim Boss oder ähnlichem einfach nur tödlich werden.. wenn ein Raidteam mit Raketenwerfern/Clusterbomben den Boss eindeckt und es ein massives Effektgewitter gibt bleibt man auf soliden 30fps.. anders wäre das Spiel sonst nicht spielbar da oft mm über Tod oder Leben der Party entscheiden.

Technisch ist Destiny 1a, was man von allen anderen Spielen die ich bisher auf der PS4 gespielt habe nicht sagen kann. Optisch ist es zumindest mehr als okay was aber auch an dem guten Art-Design liegt..

DinosaurusRex
2015-02-02, 12:11:46
Battlefield 4 hat mich aber auch sehr positiv überrascht. Launch-Titel + 64 Spieler + 60fps Target + gleichzeitige Entwicklung für fünf verschiedene Plattformen. Einfach war das sicher nicht. Ich hab es selber auf der PS4 gezockt und fand das Ergebnis sehr ansehnlich. Ich freue mich auf das erste echte current-gen Battlefield. Hoffentlich dann ohne Upscaling.

Botcruscher
2015-02-02, 12:19:30
Wenn jemand trotz 400Watt PC mit Grafikeinstellungen spielt, die denen der 150W Konsolen entsprechen, dann findet doch lediglich Symptombekämpfung statt, bei der ein mies optimimiertes Spiel mit teurer Hardware erschlagen wird.

Qualität hat nichts mit der Leistung gemein. Ich kann mir auch einen PC mit 150W basteln und der sieht noch immer um Lichtjahre besser aus.
Die Konsolenhardware ist auch nicht auf Energiesparen ausgelegt. Die war nur zum richtigen Zeitpunkt billig genug.

Das sorgt zwar beim Betroffenen Gamer für Linderung, zumindest sofern er über dieses "Allheilmittel" verfügt, aber es entkräftet nicht die Kritik am Entwickler.

Der Entwickler hat erst mal ein ordentlich lauffähiges Spiel zu liefern. Danach kommt die Kritik an Finanzen, Optik, Fähigkeiten... Da haben wir in der Regel null Einblick. Meckern geht immer...

Ich finde diesen Ansatz schrecklich. Das sollte gar nicht erst als Alternative akzeptiert werden, denn das so etwas für AAA Gaming Gift ist, sollte jedem einleuchten.

Wirtschaftlichkeit ist schrecklich?!? Das Prinzip Entwicklungsaufwand gegen Leistung zu stellen wird bis zum Ende aller Tage gelten. Den richtigen Weg gibt es dabei nicht. Das hängt alles vom Zeitpunkt ab.

Wir erleben gerade etwas, dass von sehr vielen Branchen-Insidern im Vorfeld angekündigt wurde: Geld ist der primäre, limitierende Faktor für Videospielgrafik und dieses Phänomen wird sich in Zukunft noch viel deutlicher zeigen.

Nach der Machbarkeit(Rechenleistung) kommt immer Geld...

Das das Budget pro Plattform bei AAA Exklusivspielen höher ist, als bei AAA Multiplats, ist logisch, aber als "Geldcheat" würde ich es nicht bezeichnen.

Genau das ist. Dazu nimmt er das Risiko vom Entwickler. Solche Eintagsfliegen wie Titanfall würden sonst nicht in der Form existieren. Der Titel wäre sonst in der F2P Liga zu finden.

Das ist zu viel der Polemik, denn PC Gamer sind aufgrund ihrer fehlenden Bereitschaft, für Videospiele den seit Jahrzehnten beinahe unverändert gebliebenen Vollpreis zu zahlen, selber Schuld an dieser Situation.

Wozu?!? Für den Aufpreis kann ich mir locker alle 2 Jahre eine Graka im Hochbereich kaufen. Die gut 50% mehr Leistung kann der Entwickler überhaupt nicht her optimieren. Dazu gibt es das exponentiell alle Jahre.

Es ist nicht so, dass die Konsolen-Exclusives sich am PC "vorbeicheaten".
Bei was? Geld ja, Grafik hinten und vorne nicht. Bei Gameplay und CO tut sich bei den AAA seit Jahren nichts. Eher werden günstige Konzepte vom PC adaptiert. Beispiel: Lootshooter Borderlands -> Destiny. Als nächstes kommen die MOBA.

Vielmehr bremst sich der PC durch die Einstellung der PC Gamer selber aus. Aber hey, solange man in den Multiplats dann wenigstens einen auf dicke Hose machen kann, ist das ganze doch halb so schlimm, nicht wahr?

Welche Einstellung? Die PCler nehmen vom Agrarsimulator über Starcraft, DotA bis CoD alles mit. Die Plattform ist offen und gerade jenseits des Mainstreamabfalls so viel neues.
Dazu kommt neben dem größten Absatzmarkt für Spiele auch noch das Zugpferd für die Hardware.

DinosaurusRex
2015-02-02, 12:24:55
Du wirst mir sicher nachsehen, dass ich darauf nicht eingehen werde. Ich mach mir die Mühe, stringent und schlüssig zu argumentieren, ob ich dabei Recht habe, sei mal dahingestellt, aber ich denke nicht, dass es angemessen ist, diese Argumentation anschließend so dermaßen zu zerpflücken. Damit machst du es dir selbst zu einfach, weil du jeden einzelnen Punkt aus dem Zusammenhang gerissen kommentierst.

Sven77
2015-02-02, 12:41:33
Wozu?!? Für den Aufpreis kann ich mir locker alle 2 Jahre eine Graka im Hochbereich kaufen. Die gut 50% mehr Leistung kann der Entwickler überhaupt nicht her optimieren. Dazu gibt es das exponentiell alle Jahre.


Das impliziert das der Konsolenspieler alle Spiele neu kauft und auf ewig behält. Zudem wieder OT

Deathcrush
2015-02-02, 13:23:14
Battlefield 4 hat mich aber auch sehr positiv überrascht. Launch-Titel + 64 Spieler + 60fps Target + gleichzeitige Entwicklung für fünf verschiedene Plattformen. Einfach war das sicher nicht. Ich hab es selber auf der PS4 gezockt und fand das Ergebnis sehr ansehnlich. Ich freue mich auf das erste echte current-gen Battlefield. Hoffentlich dann ohne Upscaling.

Auf der PS4 werden die 60FPS im MP aber so gut wie nie gehalten, weshalb ich max. auf 40 Mann Server spiele. Auch so lief das Spiel anfangs alles andere als Rund und war auf jeder Plattform eine herbe Entäuschung.

Lurtz
2015-02-02, 16:06:20
Jup. Witcher 3 sieht für mich im direkten Vergleich mit konsolenexklusiven Produktionen auch nicht wie ein next-gen Spiel aus. Da hab ich deutlich mehr erwartet. Ich mag CD Projekt allerdings sehr gerne und deswegen werde ich es trotzdem vorbestellen. :D
Man muss auch mal die Budgets vergleichen, für 34 Millionen USD kriegt Ubisoft wahrscheinlich nichtmal eine Sequenz eines ACs entwickelt:
http://www.neogaf.com/forum/showthread.php?t=586441

Nebenbei sieht das Spiel IMO fantastisch aus, aber du hast ja meist auch eine recht eingeschränkte Definition was next -> current-Gen ist.
Schwarze Balken und viel DoF anscheinend mehr als viele NPCs und Weitsicht ;D

Ravenhearth
2015-02-02, 16:15:31
Beim Vergleich der Entwicklungskosten muss man aber einbeziehen, dass die Lohnstückkosten in Polen viel niedriger sind. Das kann man nicht 1:1 vergleichen. Dennoch beeindruckend.

Und ich finde auch, dass The Witcher 3 einem Next-Gen-Spiel würdig ist.

Lurtz
2015-02-02, 16:18:40
Beim Vergleich der Entwicklungskosten muss man aber einbeziehen, dass die Lohnstückkosten in Polen viel niedriger sind. Das kann man nicht 1:1 vergleichen. Dennoch beeindruckend.

Und ich finde auch, dass The Witcher 3 einem Next-Gen-Spiel würdig ist.
Klar, aber dass große Publisher mittlerweile billige Mitarbeiter in China beschäftigen, die dann irgendwelche einfacheren Aufgaben erledigen, ist auch kein wirkliches Geheimnis mehr, oder?

Budget und Team sind beim Witcher nach wie vor relativ klein für die Ambitionen...

aufkrawall
2015-02-02, 16:18:45
Das schon, aber es kommt auch Mitte 2015.
Schätze, es wird recht alt gegen Star Wars oder Mirror's Edge aussehen, wenn schon AC: U oder Ryse mitunter technisch wesentlich beeindruckender sind.

DinosaurusRex
2015-02-02, 16:21:54
Nebenbei sieht das Spiel IMO fantastisch aus, aber du hast ja meist auch eine recht eingeschränkte Definition was next -> current-Gen ist.

Was ist denn meine Definition von "next -> current-Gen"?

Sven77
2015-02-02, 16:26:53
Also Witcher 3 sieht schon verdammt gut aus, wie es performen wird ist eine andere Sache ;)

DinosaurusRex
2015-02-02, 16:35:06
Es sieht für mich aus wie ein last-gen Spiel:


http://i.imgur.com/kWkGigE.jpg
http://i.imgur.com/ohy2Rke.jpg


Verglichen hiermit:


http://cdn3-www.playstationlifestyle.net/assets/uploads/gallery/uncharted-4-cover-art-and-images/uncharted-4-a-thiefs-end_2015_01-29-15_005.jpg
http://cdn3-www.playstationlifestyle.net/assets/uploads/gallery/uncharted-4-cover-art-and-images/uncharted-4-a-thiefs-end_2015_01-29-15_011.jpg


Und das Budget ändert daran nichts. Selbstverständlich kann man sagen "Für das Budget ist das ja wohl gut!", aber das ist ja automatisch ein Eingeständnis, dass es im Vergleich zu anderen Produktionen eben nicht so gut aussieht.

Okay, Uncharted ist schlauchiger, klar, aber bei FF15 gefällt mir das Shading und die Beleuchtung auch besser und das hat ebenfalls eine enorme Weitsicht:


http://i1.ruliweb.daumcdn.net/uf/original/U01/ruliweb/54C5AF2F47031B0015
http://i1.ruliweb.daumcdn.net/uf/original/U01/ruliweb/54C5AF2D477D3D001D
http://i1.ruliweb.daumcdn.net/uf/original/U01/ruliweb/54C5AF3547044F0013


Witcher wirkt sehr "platt". Alle Oberflächen sehen gleich aus, abgesehen von der Farbe.

Rente
2015-02-02, 16:38:11
Open-World gegen mehr oder weniger offenen Schlauch? Darüber hinaus haben wir bisher nur ein Level von Uncharted gesehen und es kommt erst Ende des Jahres...

DinosaurusRex
2015-02-02, 16:49:57
Wenn ich etwas als "current-gen Grafik" definieren müsste, dann wäre das sowas wie The Order 1886. Da sieht Holz aus wie Holz und Metall aus wie Metall. Du kannst direkt sehen, um welches Metall es sich handelt und zwar nicht nur wegen der Farbe, sondern auch daran wie es glänzt. Da gibt es rauhe Steine und glatte Steine, nasse Steine und trockene Steine. Du kannst erkennen, ob die Chars dicken, rauhen Stoff tragen, zum Beispiel bei den Uniformjacken, oder ob sie feinen Stoff tragen, zum Beispiel ein Seidenkragen. Genau das ist für mich "current-gen". Bei Witcher 3 hast du das überhaupt nicht.

aufkrawall
2015-02-02, 16:58:49
Das Oberflächenverhalten und Lighting allgemein ist wirklich nicht so toll in dem Spiel, nein.

Da kann ich aber drüber hinwegsehen, wenn es mir die bis dato beste OpenWorld-Erfahrung, abseits von GTA, bietet.

Hallo
2015-02-02, 17:10:46
Liegt wohl eher am Entwickler. Das spiel läuft auf allen Plattformen unter aller Kanone. Einfach mal NeoGAF PC Performance Thread lesen.

Ich finde diese Argumentation immer hochgradig heuchlerisch: Wenn jemand mit einem topmodernen i7 und einer 500€ Grafikkarte klagt, dass er regelmäßig Framerate-Einbrüche auf 20fps oder gar 1fps hat, dann liegt das natürlich sofort am Entwickler. Hat eine der Konsolen bei dem selben Titel ebenfalls Performance-Probleme, wird direkt mit dem Finger auf die "veraltete low-end Tablet Hardware" gezeigt und "ZOMFG FAIL!!!!111" geschrien. Dabei wird natürlich ignoranterweise ausgeblendet, dass es längst Konsolenspiele gibt, die erheblich besser aussehen und dabei auch noch erheblich besser laufen. Dying Light sieht in keinster Weise nach einem next-gen Titel aus. Der Entwickler ist entweder unfähig oder das Projekt ist ihm über den Kopf gewachsen. Oder beides.

Es ist einfach nur dumm. Wenn man mit seinen Posts eine Agenda voranpeitschen will, dann sollte man das wenigsten auf eine möglichst geistreiche Art und Weise machen. Dann haben wenigstens alle etwas davon. Und nur damit wir uns richtig verstehen: Das ist kein Vorwurf an dich. Ich hab mir hier dreisterweise nur einen Strohmann gebaut.

Grundsätzlich wird bei den PC vs Konsole Vergleichen NIEMALS auf die PC Performance eingegangen. Es werden immer Screenshots verglichen und dann wird eine Framerate-Analyse durchgeführt, allerdings ausschließlich bei den Konsolen. Sobald die Konsolen einmal auf 29,9fps droppen, wird direkt losgeschimpft, aber wenn ein topmoderner high-end Gaming PC mit 400Watt Verlustleistung das Spiel ebenfalls nicht über 30fps halten kann, dann erfährt das niemand, weil das in solchen Vergleichen nie berücksichtigt wird. Da werden entscheidende Informationen bewusst ausgesiebt und ein Urteil kann dementsprechend nur unter einer weiterführenden, differenzierten Analyse der Ergebnisse gefällt werden. Aber die Leute, die diese Vergleiche regelmäßig verlinken, tun das nicht, weil sie überhaupt nicht in der Lage sind, differenziert an so ein Thema heranzugehen. Die hatten ihr Urteil schon gefällt, bevor sie den Vergleich überhaupt gelesen haben und picken sich dann nur noch die Rosinen raus, um dieses Urteil bestätigen zu können.


Ja und nein.

Du bist Saga fan? Gut. Sonic Transformed Racing (2012) auf konsolen 30 fps/720p ohne alles.

So, der gleiche Spass auf meinem 4 Jahre alten 2600k/GTX570/8GB/1080p in 60fps mit 16AF und wenn nötig über Treiber 4xSSAA.

Was nun? Siehste...

Mein uralter PC hat mehr Dampf als der Krampf heute im Konsolenbereich, sorry.

FUCK wenn du 1080p haben willst dann gehören nindestens 8, nein 16 AF daher. was hab ich von der Res. wenn alles verschwommen ist????

Und ja, jeder Racer der heutzutage nicht 60 ist gehört erschossen und davor noch etwas gequält, Himmel...

DinosaurusRex
2015-02-02, 17:13:09
Das hier meine ich, das ist aus The Order 1886:

http://abload.de/img/wasserhahn147y3c.jpg

Du siehst halt genau wo Rost ist und das nicht nur weil die Farbe da anders ist, sondern weil das Licht ganz anders zurückgeworfen wird.

Oder hier:

http://abload.de/img/boden1s9a3x.jpg

Erstens mal sieht es aus wie Stein, weil es sehr rau ist, und dann hast du auch noch diesen Übergang von trocken über feucht bis nass.

Das ist für mich current-gen Grafik. Selbstverständlich erwarte ich nicht, dass ein open-world Spiel das genau so in dem Maße macht, aber bei Final Fantasy 15 hast du das auch viel ausgeprägter, bspw die organisch wirkende Haut des Monsters, die metallene Oberfläche der Waffen, die Klamotten der Jungs sind sehr faserig und reflektieren das Licht gar nicht, die Rüstungen der Gegner hingegen reflektieren und wirken wie ein Kunststoff. Bei Witcher 3 sieht alles gleich aus.

Oder hier bei Metal Gear Solid 5:

http://www.metalgearinformer.com/wp-content/uploads/2014/09/MGSV-The-Phantom-Pain-TGS-2014-Screen-Quiet-Enters-Mother-Base-5.jpg

Vergleich mal das Leder mit dem Stoff des Schals, das Metall des Gewehrs mit dem Holzgriff der Pistole, die regelrecht leuchtende Krücke, der kaum reflektierende Kunststoff am Nachtsichtgerät, etc...

---

Selbst Bloodborne kriegt das wesentlich besser hin und das ist von From Software, also einem Entwickler, der bei der Grafik immer auffallend schwache Ergebnisse abgeliefert hat (aber beim Gameplay dafür alle anderen in den Schatten stellt):

Tvi51MDOZTQ

Schau dir mal den Holzboden in dem Haus an oder den Matsch auf dem Boden oder die nassen Steine in der Stadt. Das leuchtet und glänzt, oder eben nicht. Bei Witcher hast du das gar nicht. Da hast du nur eine andere Textur.

Als Vergleich Witcher 3:

w-I5fGGFb9U

Alleine der Boden ganz am Anfang ist grausam...

Lurtz
2015-02-02, 18:51:33
Es sieht für mich aus wie ein last-gen Spiel:
[...]
Witcher wirkt sehr "platt". Alle Oberflächen sehen gleich aus, abgesehen von der Farbe.
OpenWorld gegen Schlauch ist jetzt auch nicht der fairste Vergleich. Klar kann das eine Charaktermodell von Nathan viel besser aussehen als vielleicht 50 NPCs die beim Witcher auf einmal im Bild sind.

Klar könnte man wie in Unity die Cutscenes nochmal gesondert rendern, aber ja, Budget und so. Klar, das darf man kritisieren, aber das entwertet TW3 nicht gleich als OpenWorld-Erfahrung.

Das ist für mich current-gen Grafik. Selbstverständlich erwarte ich nicht, dass ein open-world Spiel das genau so in dem Maße macht, aber bei Final Fantasy 15 hast du das auch viel ausgeprägter, bspw die organisch wirkende Haut des Monsters, die metallene Oberfläche der Waffen, die Klamotten der Jungs sind sehr faserig und reflektieren das Licht gar nicht, die Rüstungen der Gegner hingegen reflektieren und wirken wie ein Kunststoff. Bei Witcher 3 sieht alles gleich aus.
FF15 kommt irgendwann mal raus, erstmal abwarten wie das am Ende aussieht...

Und ja wahrscheinlich ist das was die Oberflächendarstellung angeht dann wesentlich weiter.

Oder hier bei Metal Gear Solid 5:

http://www.metalgearinformer.com/wp-content/uploads/2014/09/MGSV-The-Phantom-Pain-TGS-2014-Screen-Quiet-Enters-Mother-Base-5.jpg

Vergleich mal das Leder mit dem Stoff des Schals, das Metall des Gewehrs mit dem Holzgriff der Pistole, die regelrecht leuchtende Krücke, der kaum reflektierende Kunststoff am Nachtsichtgerät, etc...
IMO ist TW3 vom Gesamteindruck deutlich über MGS5, allein das LoD ist zum Brechen was da bisher zu sehen war auf Konsole, genau wie die flimmrige Schattendarstellung und die Texturen.
Ground Zeroes am PC war ganz ok aber IMO eine Klasse unter TW3, kein Wunder bei cross-gen :confused:

DinosaurusRex
2015-02-02, 19:01:50
Schau dir doch mal das Video oben an. Wenn Geralt aus der Höhle kommt, liegt da Schnee und das ist einfach nur eine platte Textur auf dem Boden. Du kannst mir nicht erzählen, dass du das als "current-gen würdig" erachtest.

So sieht Naughty Dog Schnee auf einer 512MB RAM Konsole mit runtergetakteter GeForce 7800 GTX aus:

9qzXUJqCTDU

Und wenn dir das schon gefällt, dann zieh dir mal den Naughty Dog Sand rein:

KmhmJ9nk6cY

Johnny Rico
2015-02-02, 19:11:13
DinosaurusRex, du passt hier prima hin. dein pedantismus ist erste sahne. mir gefällt das auge für die details. sowas hat die jungs hier schon vor vielen jahren ausgemacht. es musste immer das beste aa und truform und whatever sein :D

Armaq
2015-02-02, 19:14:15
Level gegen OpenWorld ist einfach nicht vergleichbar.

DinosaurusRex
2015-02-02, 19:21:22
DinosaurusRex, du passt hier prima hin. dein pedantismus ist erste sahne. mir gefällt das auge für die details. sowas hat die jungs hier schon vor vielen jahren ausgemacht. es musste immer das beste aa und truform und whatever sein :D


http://img.pandawhale.com/67037-Christian-Bale-oh-kiss-reactio-NZEo.gif

Lurtz
2015-02-02, 19:25:04
Schau dir doch mal das Video oben an. Wenn Geralt aus der Höhle kommt, liegt da Schnee und das ist einfach nur eine platte Textur auf dem Boden. Du kannst mir nicht erzählen, dass du das als "current-gen würdig" erachtest.

So sieht Naughty Dog Schnee auf einer 512MB RAM Konsole mit runtergetakteter GeForce 7800 GTX aus:

http://youtu.be/9qzXUJqCTDU

Und wenn dir das schon gefällt, dann zieh dir mal den Naughty Dog Sand rein:

http://youtu.be/KmhmJ9nk6cY
Dude ich brauch mir das nicht anschauen, ich hab das jeweils deutlich mehr als einmal durchgespielt :ugly:

Was jetzt der Vergleich der Sahnehäubchen des einen Spiels mit den relativen Schwächen des anderen bringen soll, wird mir trotzdem nicht klar.
Unity hat das beste Lighting, Uncharted 2 die beste Schneedarstellung und MGS 5 die beste Clothsimulation, wo kriege ich jetzt das perfekte Spiel, welches das alles vereint?

DinosaurusRex
2015-02-02, 19:26:26
Unity hat das beste Lighting, Uncharted 2 die beste Schneedarstellung und MGS 5 die beste Clothsimulation, wo kriege ich jetzt das perfekte Spiel, welches das alles vereint?

Knack 2

Shaft
2015-02-02, 20:20:46
Open-World gegen mehr oder weniger offenen Schlauch? Darüber hinaus haben wir bisher nur ein Level von Uncharted gesehen und es kommt erst Ende des Jahres...


Yup, weiß gar nicht warum er jetzt nochmal einen derartige Vergleich bringt.

Muss sagen, im ganzen gefällt mir Witcher 3 sehr gut, sieht hervorragend aus.

Und überragend sieht U3 nun wirklich nicht aus, hatte da mehr erwaret.

Jupiter
2015-02-02, 20:47:19
Nein, aber es gibt Gegenden in denen mehrere Spieler aktiv sind, das geht dann fliessend in die Instanzen über

Aber hat massive Slowdowns die in Destiny beim Boss oder ähnlichem einfach nur tödlich werden.. wenn ein Raidteam mit Raketenwerfern/Clusterbomben den Boss eindeckt und es ein massives Effektgewitter gibt bleibt man auf soliden 30fps.. anders wäre das Spiel sonst nicht spielbar da oft mm über Tod oder Leben der Party entscheiden.

Technisch ist Destiny 1a, was man von allen anderen Spielen die ich bisher auf der PS4 gespielt habe nicht sagen kann. Optisch ist es zumindest mehr als okay was aber auch an dem guten Art-Design liegt..

Mit Destiny kenne ich mich nicht gut aus. In der Zeit welche ich dieses Videospiel gesehen habe, waren nie sehr viele Spieler zu sehen. Mir kam es nicht so vor, als ob eine sehr hohe Präzision nötig wäre. Es ist allerdings korrekt, dass dieses Spiel eine sehr konstante Bildrate hat. Die PlayStation 4 ist auch sehr ruhig.


Das hier meine ich, das ist aus The Order 1886:

http://abload.de/img/wasserhahn147y3c.jpg

Du siehst halt genau wo Rost ist und das nicht nur weil die Farbe da anders ist, sondern weil das Licht ganz anders zurückgeworfen wird.

Oder hier:

http://abload.de/img/boden1s9a3x.jpg

Erstens mal sieht es aus wie Stein, weil es sehr rau ist, und dann hast du auch noch diesen Übergang von trocken über feucht bis nass.

Das ist für mich current-gen Grafik. Selbstverständlich erwarte ich nicht, dass ein open-world Spiel das genau so in dem Maße macht, aber bei Final Fantasy 15 hast du das auch viel ausgeprägter, bspw die organisch wirkende Haut des Monsters, die metallene Oberfläche der Waffen, die Klamotten der Jungs sind sehr faserig und reflektieren das Licht gar nicht, die Rüstungen der Gegner hingegen reflektieren und wirken wie ein Kunststoff. Bei Witcher 3 sieht alles gleich aus.


Ein Problem ist das Videospiele nicht immer so wie auf speziellen Screens aussehen. In The Order 1886 habe ich bisher einige Stellen gesehen, in denen Polygongrad und Texturauflösung mich nicht überzeugen könnten. Die Beleuchtung gefällt mir im Moment noch nicht. Das sieht einfach aus. Materialeigenschaften und die Charaktermodelle sind dagegen wirklich fantastisch. Tesselation scheint auch zu fehlen.

The Witcher III sieht gut aus, von einen neuen Grafikmaßstab ist es dennoch entfernt. Im Vergleich zu MGS 4 sieht es nach meiner Meinung deutlich besser aus. MGS 5 hat allein einen viel geringeren Polygongrad. Allgemein wirkt die Levelgeometrie in MGS 5 sehr einfach gehalten.

Uncharted 4 ist bisher ein gut aussehendes Spiel, aber bei der Auswahl an grafisch starken Titeln nicht beeindruckend. Es ist kein Launch-Titel, es kommt nicht für die Xbox One (die den Fortschritt zurückhalten würde) und dahinter steht einer der bekanntesten Entwickler der Branche. Besser sollte es doch eigentlich nicht gehen. Doch dann ist festzustellen, dass es optisch nicht heraussticht oder großartig besser aussehen würde, als diverse andere Konsolenspiele oder gar Multiplattformspiele.

Am meisten bin ich von Beleuchtung, Shading und der Schatten enttäuscht. Auffällige Pop Ups gibt es noch immer. Das AF scheint nur Faktor 2 zu haben. Allgemein sind die Texturen nicht beeindruckend. Tesselation und Parallax Oclussion Mapping scheinen auch komplett zu fehlen, was Objekte flach erscheinen lässt. Mehr Details könnte es auch gebrauchen. Gerade die Höhle sah "schwach" aus. Am besten haben mir grafisch die flüssigen und ineinander übergehenden Animationen und das Modell von Drake gefallen. Die Konkurrenz ist für Naughty Dog auch auf den Konsolen stärker geworden. Grafisch bietet es bislang nichts, was es bereits gegeben hat. Wenn Naughty Dog es aber schaffen sollte, das in 60 Bildern in der Sekunde zu realisieren, wäre ich deutlich zufriedener. Denn für ein Spiel mit 30 Bildern in der Sekunde ist das Gelieferte technisch keinesfalls aufregend.

M4xw0lf
2015-02-02, 20:53:18
Bei The Witcher ist content > Technik. War schon im ersten Teil so - trotz Biowares uralter Aurora-Engine sieht das Spiel insgesamt deutlich besser aus als das jüngere Dragon Age Origins. Die Detailverliebtheit bei Architektur, Kleidung und Gegenständen ist sogar ohne die topaktuellste Technik beeindruckend und macht den visuellen Gesamteindruck großartig.

DinosaurusRex
2015-02-02, 21:17:57
Mir ist das eigentlich eh egal. Selbst wenn die Grafik noch vielfach schlechter wäre, würde ich mir Witcher 3 trotzdem kaufen. Ich find das Alchemie-System so genial. Geralt ist bei mir die ganze Zeit vollgepumpt mit irgendwelchen Substanzen... :D

M4xw0lf
2015-02-02, 21:19:56
Mir ist das eigentlich eh egal. Selbst wenn die Grafik noch vielfach schlechter wäre, würde ich mir Witcher 3 trotzdem kaufen.
+1
Alles (abgesehen von reinem Textadventure vielleicht) würde ich nehmen um Geralt bis zum Ende des Wegs zu begleiten :freak:

Air Force One
2015-02-02, 23:44:20
Naja man muss halt auch unterscheiden.
Ein Witcher (ich mag das Spiel wohlgemerkt nicht, keines davon), ist viel komplexer aufgebaut, gerade bei den Open World Games.
Ist doch logisch das man bei einem gewissen Budget sich zu 60% auf den Content konzentriert. Statt 80% Grafik und 20% Content. (War jetzt nur fiktiv, gibt ja noch mehr drumherum.

Das was Witcher Abliefert ist ganz ok/gut, nur die Performance könnte wohl besser sein.

][immy
2015-02-03, 00:14:24
Naja man muss halt auch unterscheiden.
Ein Witcher (ich mag das Spiel wohlgemerkt nicht, keines davon), ist viel komplexer aufgebaut, gerade bei den Open World Games.
Ist doch logisch das man bei einem gewissen Budget sich zu 60% auf den Content konzentriert. Statt 80% Grafik und 20% Content. (War jetzt nur fiktiv, gibt ja noch mehr drumherum.

Das was Witcher Abliefert ist ganz ok/gut, nur die Performance könnte wohl besser sein.
wobei man bei den vorheringen Witcher Teilen auch sagen muss, das die Areale zwar offen aber doch überschaubar waren. Aber natürlich nicht zu vergleichen mit Schlauchspielen. Hatte vermutlich auch etwas mit dem damals verfügbaren Speicher zu tun. Vergleichen lässt sich da nicht viel. Ist auch ein anderer Grafikstil als bei den anderen Beispielen.

dildo4u
2015-02-03, 16:26:23
The Order 1886 – Real London

http://youtu.be/89tIFaylMCk

Ich liebe diese Gen nach Drivelcub im Regen jetzt das,die ganzen kleineren Teams spielen ganz vorne mit was Technik angeht.

DinosaurusRex
2015-02-03, 17:12:20
Das ist angeblich Mark Cernys Verdienst. Die SCE 1st-Party Studios haben bis zur PS3 mehr oder weniger auf sich allein gestellt operiert. Durch die prekäre Situation mit dem Cell war es dann wohl Cerny, der als Lösung eine gemeinschaftliche Nutzung von erarbeitetem Know How vorangetrieben hat. Bis ihm die Stelle als Systemarchitekt der PS4 angeboten wurde, hat Cerny ja auch das Naughty Dog ICE Team geleitet (der muss wohl ein brillianter Coder sein..). Sony Computer Entertainment erntet jetzt die Früchte, die sie mit den Reformen in der letzten Gen gesäht haben.

00-Schneider
2015-02-03, 19:14:35
Battlefield Hardline may not hit its 1080p target on PS4 and Xbox One, according to new comments reportedly made by EA.

In a statement provided to Australian site Games.on.net, EA states that Visceral is now aiming to get the PS4 and Xbox One versions of Hardline "playing at 60 FPS using the same resolution settings as [Battlefield 4]".

While VideoGamer.com had been unable to determine the resolution of today's beta at the time of writing, comments online point to worse-than-expected visuals, with Xbox One users complaining of a "sub 720p" resolution and "murky textures".

-------------

720p auf One, was ne Verarsche... :eek:

Rente
2015-02-03, 19:16:45
Für die One ein schlechter Witz, auch wenn sie 60 FPS bieten wollen...
Soll das nur für den MP sein, oder ist der SP davon auch betroffen?

€: Liest sich etwas unglaubwürdig.

00-Schneider
2015-02-03, 19:20:02
Ein schlechter Witz, auch wenn sie 60 FPS bieten wollen...
Soll das nur für den MP sein, oder ist der SP davon auch betroffen?


Bis jetzt ist das nur die Auflösung für die MP-Beta. Gehe aber zu 95% davon aus, dass sich bei One und PS4 nichts mehr tun wird in Sachen Auflösung bis zur Full.

Schon die E3-Beta hatte auf PS4 900p. Wenn sich also in mehr als einem halben Jahr nichts getan hat, wird sich auch ein Monat vor Release nichts mehr ändern.

Martin K.
2015-02-03, 19:20:54
The Order 1886 – Real London

http://youtu.be/89tIFaylMCk

Ich liebe diese Gen nach Drivelcub im Regen jetzt das,die ganzen kleineren Teams spielen ganz vorne mit was Technik angeht.

Das sieht schon wirklich klasse aus. Wohl grafisch bisher Referenz. :up:

aufkrawall
2015-02-03, 19:50:54
[immy;10510591']wobei man bei den vorheringen Witcher Teilen auch sagen muss, das die Areale zwar offen aber doch überschaubar waren. Aber natürlich nicht zu vergleichen mit Schlauchspielen. Hatte vermutlich auch etwas mit dem damals verfügbaren Speicher zu tun. Vergleichen lässt sich da nicht viel. Ist auch ein anderer Grafikstil als bei den anderen Beispielen.
Gothic 3 hatte riesige Open Wolrd mit jede Menge Zeugs (Städte, Höfe, NPCs, Viechern, Höhlen...) drin.
War aber halt unfertiger shice, spielerisch wie technisch.

Trotzdem ist vieles von heute im Vergleich einfach nur arm, wenn man den technischen Fortschritt und die erhöhten Budgets miteinberechnet.

][immy
2015-02-03, 20:23:18
Battlefield Hardline may not hit its 1080p target on PS4 and Xbox One, according to new comments reportedly made by EA.

In a statement provided to Australian site Games.on.net, EA states that Visceral is now aiming to get the PS4 and Xbox One versions of Hardline "playing at 60 FPS using the same resolution settings as [Battlefield 4]".

While VideoGamer.com had been unable to determine the resolution of today's beta at the time of writing, comments online point to worse-than-expected visuals, with Xbox One users complaining of a "sub 720p" resolution and "murky textures".

-------------

720p auf One, was ne Verarsche... :eek:
war zu erwarten, wegen der 60fps, dann noch für mehrere Systeme und eine bestehende engine, die auch für die last-gen genutzt wurde.
Ich weiß aber ehrlich nicht was ihr immer auf den Auflösungen herumreitet. Mir ist die allgemeine Bildqualität viel wichtiger und da spielt die Auflösung keine so große Rolle. Hier wird gerne so getan als wenn man durch die Auflösung eine völlig unzumutbare Grafik aus PS2 Zeiten hätte. Die Auflösung befindet sich aber schon auf einem recht hohen Niveau, so das andere Aspekte eher eine Rolle spielen. Qualität geht halt vor Quantität.
Die 1080p wird sich diese Generation nicht lange halten können. Bei 1st Party vielleicht schon, aber bei allen anderen nicht mehr lange. Besonders wenn es um 60fps geht.

Atma
2015-02-03, 20:34:00
[immy;10511556']war zu erwarten, wegen der 60fps, dann noch für mehrere Systeme und eine bestehende engine, die auch für die last-gen genutzt wurde.
Ich weiß aber ehrlich nicht was ihr immer auf den Auflösungen herumreitet. Mir ist die allgemeine Bildqualität viel wichtiger und da spielt die Auflösung keine so große Rolle. Hier wird gerne so getan als wenn man durch die Auflösung eine völlig unzumutbare Grafik aus PS2 Zeiten hätte. Die Auflösung befindet sich aber schon auf einem recht hohen Niveau, so das andere Aspekte eher eine Rolle spielen. Qualität geht halt vor Quantität.
Die 1080p wird sich diese Generation nicht lange halten können. Bei 1st Party vielleicht schon, aber bei allen anderen nicht mehr lange. Besonders wenn es um 60fps geht.
Nichts steigert die allgemeine Bildqualität so sehr wie eine hohe Auflösung. 720p auf XB1 und 900p auf PS4 im Jahre 2015 sind ein schlechter Witz.

PS4 Beta Screens: http://www.neogaf.com/forum/showpost.php?p=150441356&postcount=143 :freak: ;D

Rente
2015-02-03, 20:43:13
Nichts steigert die allgemeine Bildqualität so sehr wie eine hohe Auflösung. 720p auf XB1 und 900p auf PS4 im Jahre 2015 sind ein schlechter Witz.

PS4 Beta Screens: http://www.neogaf.com/forum/showpost.php?p=150441356&postcount=143 :freak: ;D
Ach du sch... hoffentlich ist das Build für die Beta uralt oder extrem runter gedreht...

][immy
2015-02-03, 20:55:41
Nichts steigert die allgemeine Bildqualität so sehr wie eine hohe Auflösung. 720p auf XB1 und 900p auf PS4 im Jahre 2015 sind ein schlechter Witz.

PS4 Beta Screens: http://www.neogaf.com/forum/showpost.php?p=150441356&postcount=143 :freak: ;D
willst du mal Doom in 1080p sehen ;)
Die Anzahl der Pixel ist nicht alles, es sind inzwischen nur die Inhalte die zählen.
Die Auflösung zu erhöhen ist nur die "leichteste" Möglichkeit die Bildqualität zu erhöhen, aber bei weitem nicht die effektivste.

zu den Screens... naja "Hardline" ist vielleicht nicht ganz der richtige Name.

Benedikt
2015-02-03, 22:27:26
Und wenn dir das schon gefällt, dann zieh dir mal den Naughty Dog Sand rein:
http://youtu.be/KmhmJ9nk6cY
OT, aber: Das ist... wow... bin hingerissen! :eek: Ich hatte ja keine Ahnung, welch' atemberaubende Inszenierung die bei Naughty Dog draufhaben - ehrlich, mit der Uncharted-Serie ist mir wohl etwas entgangen. Oder ist das Level ein Vorzeigebeispiel, und der Rest bewegt sich nicht auf demselben Niveau?
Erinnert mich an diesen Film: http://www.imdb.com/title/tt1023114/?ref_=nm_flmg_dr_1

Blediator16
2015-02-03, 23:48:41
Nichts steigert die allgemeine Bildqualität so sehr wie eine hohe Auflösung. 720p auf XB1 und 900p auf PS4 im Jahre 2015 sind ein schlechter Witz.

PS4 Beta Screens: http://www.neogaf.com/forum/showpost.php?
p=150441356&postcount=143 (http://www.neogaf.com/forum/showpost.php?p=150441356&postcount=143) :freak: ;D

Alsob das an den Konsolen liegen würde. Das sieht aus wie PS3 Grafik. Jeder sollte wissen, dass das besser geht.

DinosaurusRex
2015-02-04, 10:14:40
Oder ist das Level ein Vorzeigebeispiel, und der Rest bewegt sich nicht auf demselben Niveau?


Ne, das bewegt sich wirklich durchgehend auf dem selben Niveau. Die Stelle fand ich gar nicht mal die beste, da gibt es hinterher noch viel mehr Rambazamba. Und grundsätzlich finde ich Uncharted 2 noch besser als Uncharted 3, die Szene mit der Wüste ist aus letzterem.

Wenn Naughty Dog etwas absolut meisterhaft beherrscht, dann ist das "Pacing". Die Uncharted Spiele, allen voran der zweite Teil, haben eine unerreichte Qualität was die Balance zwischen Handlung, Rätseln, Plattforming und Action angeht. Es wird einfach nie langweilig. In einem Moment machen die Protagonisten noch Witze übereinander und dann bricht auf einmal ganz unerwartet totales Chaos aus, das ganze Level fliegt dir um die Ohren und irgendwie schaffst du es dann am Ende dadurch und befindest dich ganz plötzlich in einem riesigen, erkletterbaren Puzzle mit hammermäßigem Art Design soweit das Auge reicht.

Falls du die Spiele noch nicht gespielt hast, ist dir auf jeden Fall etwas entgangen. Mit einer Metascrore von 96 liegt Uncharted 2 sogar noch vor The Last of Us (95).

Jupiter
2015-02-04, 10:34:21
Wenn Naughty Dog etwas absolut meisterhaft beherrscht, dann ist das "Pacing". Die Uncharted Spiele, allen voran der zweite Teil, haben eine unerreichte Qualität was die Balance zwischen Handlung, Rätseln, Plattforming und Action angeht. Es wird einfach nie langweilig.

Das sehe ich anders. Ich habe vor etwa einen Monat Uncharted 2 nochmal gespielt. Es wurde aufgrund des stundenlangen Schießens und Abschlachten von Gegnerhorden (besonders nach der Stelle in der Eishöhle), welches zudem schlecht umgesetzt ist, bis zum Ende sehr langweilig. Uncharted 3 war da bereits etwas besser. Vorher dachte ich auch, das Uncharted 2 das überlegene Videospiel wäre. Doch nachdem ich beide zeitnahe gespielt habe, hat sich meine Meinung geändert.

Unerreicht ist das mit Sicherheit nicht. The Last of Us ist dagegen eine ganz andere Klasse.

Coda
2015-02-04, 10:39:40
Alsob das an den Konsolen liegen würde. Das sieht aus wie PS3 Grafik. Jeder sollte wissen, dass das besser geht.
Kann es sein das Hardline 60 FPS ist? Dann würde ich das so nicht sagen.

Auch der ganze Bullshit in dem Thread wieder. Als ob "SDK Updates" was an der GPU-Leistung ändern würden Gngrgrgghhh :facepalm: so hard

y33H@
2015-02-04, 10:59:24
Hardline peilt 60 fps an, ja - wie bei BF4 und das klappt wohl weiterhin nur mit 900p und 720p halbwegs.

DinosaurusRex
2015-02-04, 11:11:15
Was meinst du mit "klappt halbwegs"? Dann sollen sie halt die Grafik runter schrauben. Aber da hat sicher jeder andere Vorlieben.

Was machst du denn, wenn du auf dem PC 60fps haben willst und nicht genug Leistung vorhanden ist? Reduzierst du die Auflösung oder drehst du ein paar Grafikoptionen runter? Moment, lass mich raten: Du kaufst dir 'ne neue Grafikkarte...

Benedikt
2015-02-04, 12:17:24
Was machst du denn, wenn du auf dem PC 60fps haben willst und nicht genug Leistung vorhanden ist? Reduzierst du die Auflösung oder drehst du ein paar Grafikoptionen runter? Moment, lass mich raten: Du kaufst dir 'ne neue Grafikkarte...
Interessante Frage: Die für meinen Bildschirm native Auflösung (1080p) würd ich absolut zu Allerletzt reduzieren...

dargo
2015-02-04, 12:24:39
Was meinst du mit "klappt halbwegs"? Dann sollen sie halt die Grafik runter schrauben. Aber da hat sicher jeder andere Vorlieben.

Was machst du denn, wenn du auf dem PC 60fps haben willst und nicht genug Leistung vorhanden ist? Reduzierst du die Auflösung oder drehst du ein paar Grafikoptionen runter? Moment, lass mich raten: Du kaufst dir 'ne neue Grafikkarte...
Tja, das sind halt die Freiheiten die man am PC hat und ich niemals missen möchte. Ich entscheide selbst was ich mache und kein Entwickler für mich. Im übrigen werden diese Freiheiten neuerdings noch wunderbar ergänzt. Stichwort G-Sync, Freesync. Da reichen auch schon 40-45fps für ein sichtbar und fühlbar flüssiges Spielerlebnis.

00-Schneider
2015-02-04, 12:42:06
Kann es sein das Hardline 60 FPS ist? Dann würde ich das so nicht sagen.


Naja, selbst das mit heißer Nadel gestickte BF4 sieht besser aus.

Bei BF frage ich mich, ob es dort eher eine GPU- oder ein CPU-Limitierung bei den neuen Konsolen gibt.

Ich tippe auf Letzteres, und frage mich warum es nur mit 900p läuft.

Mr.Magic
2015-02-04, 12:43:56
Was machst du denn, wenn du auf dem PC 60fps haben willst und nicht genug Leistung vorhanden ist? Reduzierst du die Auflösung oder drehst du ein paar Grafikoptionen runter?

Das hängt doch vom Spiel ab. Hier läuft fast alles in 2160p flüssig. Ansonsten kann man oft SSAO und/oder Schatten ein paar Stufen runterschalten, ohne das es auffällt. Notfalls macht man einfach auf Konsole und deaktiviert vsync. :tongue:

DinosaurusRex
2015-02-04, 13:11:32
Tja, das sind halt die Freiheiten die man am PC hat und ich niemals missen möchte.

Ich denke hier projezierst du deine persönlichen Vorlieben zu stark auf die Allgemeinheit. Was du als "Freiheit" bezeichnest, ist für jemand anderes einfach nur lästig. Es gibt sicher zig Millionen leidenschaftliche Zocker, die sich nicht mit solchen Dingen herumschlagen und stattdessen einfach nur spielen wollen. Und mal ehrlich: Wer kann es ihnen verdenken? Genau diese Gamer sind die primäre Zielgruppe von Spielkonsolen.

Stell dir mal vor du müsstest das hochemotionale TLOU Intro damit verbringen, erstmal die richtigen Grafikeinstellungen zu finden... Das zerstört doch jegliche Immersion. Und meiner Erfahrung nach braucht man immer erst ein paar Spielstunden, bis man die perfekten Einstellungen hat, einfach weil nicht jede Szene gleichermaßen fordernd ist für die Hardware. Es sei denn du kaufst dir jedes Jahr die allerbeste Hardware, dann hast du das Problem (in den meisten Spielen) natürlich nicht. Aber das ist dann eine sauteuer erkaufte Lösung für ein Problem, dass es auf Konsolen überhaupt nicht gibt.

Auf den Konsolen hast du Profis, die dir diese Aufgabe abnehmen und wenn die ihren Job gut machen, dann gibt es da auch überhaupt nichts zu meckern. Ich denke nicht, dass irgendein x-beliebiger PC Gamer ein besseres Performance/Grafik-Feintuning hinbekommt als beispielsweise die Programmierer von Naughty Dog.

][immy
2015-02-04, 14:22:23
Was meinst du mit "klappt halbwegs"? Dann sollen sie halt die Grafik runter schrauben. Aber da hat sicher jeder andere Vorlieben.

Was machst du denn, wenn du auf dem PC 60fps haben willst und nicht genug Leistung vorhanden ist? Reduzierst du die Auflösung oder drehst du ein paar Grafikoptionen runter? Moment, lass mich raten: Du kaufst dir 'ne neue Grafikkarte...
waren damit automatisch (fast) alle Spiele der letzten Generation schlechter, weil sie keine Native Auflösung geboten haben?
Bei den heutigen Scalern merkst du es im Spielgeschehen kaum wenn die Auflösung reduziert ist. Das war auch bei der PS3 (wobei hier die Spiele selbst skaliert haben, oder eben nicht) und xbox 360 schon so.
Was mich nur ein wenig wundert ist, das man nicht aus den Erfahrungen der letzten paar xbox Spiele gelernt hat und nicht zumindest eine Achse nativ lässt. Diese 15xx*1080p erspart erspart ja zumindest schon mal die Skalierung in eine Richtung. Würde in etwa auf die gleiche Pixel-Menge hinauslaufen (man ist ja variabel).


Die Entwickler von Titanfall hatten doch mal Beispiele, welche Auflösungen + anschließende Skalierung wie gut wirken. Da hatte 900p eigentlich nicht so doll abgeschnitten.


Naja, ich bleibe dabei, Auflösung < Content, auch wenn das Bild anschließend skaliert werden muss. Die 900p sind mir z.B. bei Sunset Overdrive auch noch nie negativ aufgefallen. Nur die Titanfall-Auflösung wirkt ein wenig seltsam. Das Bild ist immer irgendwie ein wenig gestreift.


Und wer 60fps auf dieser Konsolengeneration erwartet, muss mit Opfern rechnen. Entweder dynamische Beleuchtung fehlt (Forza 5) oder die Auflösung wird geopfert. Wobei BF4 nicht mal eine besonders stabile 60er Framerate hatte.

Jupiter
2015-02-04, 14:37:16
Ich denke nicht, dass irgendein x-beliebiger PC Gamer ein besseres Performance/Grafik-Feintuning hinbekommt als beispielsweise die Programmierer von Naughty Dog.

In The Last of Us hatte ich auf der PlayStation 3 stellenweise 20 Bilder in der Sekunde. In Kampfabschnitten war es für mich praktisch ein 24-26fps-Spiel.

Coda
2015-02-04, 14:45:48
Naja, selbst das mit heißer Nadel gestickte BF4 sieht besser aus.
Ist BF4 60?

Dachte immer das wäre 30 FPS.

Sven77
2015-02-04, 14:47:26
Ist BF4 60?

Dachte immer das wäre 30 FPS.

ähm, nein.. natürlich sind es nicht immer 60fps, aber oft ;)

aufkrawall
2015-02-04, 14:50:17
Hardline läuft je nach Map auch auf dem PC beschissen. Nicht nur sind die fps mitunter zu niedrig, sondern die Frametimes allgemein können auch absolute Gülle sein.

Spielerisch und technisch ein erbärmlicher Haufen Scheiße.

Deathcrush
2015-02-04, 15:16:37
ähm, nein.. natürlich sind es nicht immer 60fps, aber oft ;)

Nö, auf 64 Mann Server ist das die Ausnahme! (PS4)

https://www.youtube.com/watch?v=dkjS4wLEQX0

Sven77
2015-02-04, 15:20:24
Nö, auf 64 Mann Server ist das die Ausnahme! (PS4)

https://www.youtube.com/watch?v=dkjS4wLEQX0

Sehe in dem Video nichts was meiner Aussage widerspricht

Deathcrush
2015-02-04, 15:21:58
"Oft" hast du geschrieben was einfach nicht stimmt. selten trifft es eher.

Sven77
2015-02-04, 15:24:59
Oft kann auch zweimal im Leben sein.. :rolleyes: Für einen der ersten Titel dieser Gen läuft und sieht es verdammt gut aus, auch angesichts der Konsolen-Specs.

Lurtz
2015-02-04, 15:26:12
Auf den Konsolen hast du Profis, die dir diese Aufgabe abnehmen und wenn die ihren Job gut machen, dann gibt es da auch überhaupt nichts zu meckern. Ich denke nicht, dass irgendein x-beliebiger PC Gamer ein besseres Performance/Grafik-Feintuning hinbekommt als beispielsweise die Programmierer von Naughty Dog.
->
In The Last of Us hatte ich auf der PlayStation 3 stellenweise 20 Bilder in der Sekunde. In Kampfabschnitten war es für mich praktisch ein 24-26fps-Spiel.
Auf Konsole wird dir der Kompromiss präsentiert, den der Entwickler für am besten hält. Ob das für mich als Spieler auch wirklich der beste Kompromiss ist, muss nicht so sein. Gerade nach dieser technisch teils katastrophalen Konsolengeneration (ich sage nur Bayonetta, GTA IV und RDR auf der PS3, Auflösung und Framerate aus der Hölle), ist die Aussage nicht haltbar.

Tlws sind die Entwickler nichtmal unbeeinflusst in ihrer Entscheidung sondern müssen aufgrund irgendwelcher Paritätsklauseln ihr Spiel künstlich ausbremsen.

Dass man bei jedem PC-Spiel erstmal stundenlang die Settings durchprobieren müsste, ist auch wieder völlig übertrieben :ugly:
Ich muss mich nicht lange damit beschäftigen. Ich habe aber die Option bspw. SMAA zu injecten, wenn ich möchte. Diese Freiheit habe ich am PC, die kann ich ergreifen oder einfach ignorieren.

Atma
2015-02-04, 15:29:02
Hardline läuft je nach Map auch auf dem PC beschissen. Nicht nur sind die fps mitunter zu niedrig, sondern die Frametimes allgemein können auch absolute Gülle sein.

Spielerisch und technisch ein erbärmlicher Haufen Scheiße.
Hart aber ehrlich. Dem kann ich mich nur anschließen. Die hätten Hardline letztes Jahr einfach direkt einstampfen sollen.

L.ED
2015-02-04, 15:29:23
Ich hatte mal kurz mit einer PS4 geliebäugelt aber sehr, sehr vermutlich werde mir keine Konsolen mehr kaufen (Kaufen können)? :frown: Das hängt davon ab ob es dort wieder maßgebliche Änderungen bei der Priorisierung geben wird!?

Ich verband mit Konsolen immer Arcade Maschinen die eher in der Tradition (so rein auf Spielen bezogen), was es früher auch noch in Form von @Home Computern gegeben wie dem Amiga. :heart: Das meint das es dort überhaupt kein Thema gewesen und 50/60FPs/Hz einfach Standard (wir sehen mal von eher HW Artfremden Experimenten ab, die es auch immer gegeben klar)!

Ich erwarte von einer Konsole nicht das sie Grafisch-technisch mit dem PC konkurriert sondern A mit Spielkonzepten hauptsächlich die nicht klassisch PC (FPS, RTS, Sim), B bei stabilen 50/60FPs/Hz (je nach Norm die man halt gerade hat), im sinne von Butterweich! Rein technisch ist das zu erreichen (überhaupt gar keine frage), es ist die falsche Priorisierung und solange sich das nicht mehr ändert und wir vermehrt nur noch über ~30FPs dort abgefallen/gefaselt/am Rumgurken, hat sich für mich das Thema erledigt! Denn das kann ich auch am PC haben und hat es dort auch schon immer gegeben (stellenweise und in letzterer auch wieder auffallend vermehrter), durch ggf. schlampigen/halbherzigen oder eben auch falsch priorisierenden Studios. :nono:

aufkrawall
2015-02-04, 15:32:51
Für einen der ersten Titel dieser Gen läuft und sieht es verdammt gut aus, auch angesichts der Konsolen-Specs.
Hm, läuft auf der PS4 in etwa wie mit einer ~7870?
Wenn man die fps im CPU-Limit mit Mantle vergleicht, auch absolut nix dolles.

Die hätten Hardline letztes Jahr einfach direkt einstampfen sollen.
Find ich auch, es wirkt einfach nur grotesk.
Immerhin gibts noch BF4 Update-Support.

][immy
2015-02-04, 16:03:23
Hm, läuft auf der PS4 in etwa wie mit einer ~7870?
Wenn man die fps im CPU-Limit mit Mantle vergleicht, auch absolut nix dolles.

Die 7870 hat für sich allein eine Speicherbandbreite von 154 GB/s (in der Standardversion). Davon kann die PS4 nur träumen so viel Bandbreite nur für die GPU zur Verfügung zu haben. Es sei denn die CPU wird absolut nicht genutzt. Bei CPU-Intensiven spielen (wenn die CPU auch den Speicher intensiv mitbenutzt) bleiben grad mal 100-110 GB/s übrig. Eine Auflösungsreduzierung kann da schon sehr viel Wert sein, besonders wenn man 60 fps erreichen will. Zudem wird man als Multi-Konsolen Titel nicht bis ins kleinste bisschen optimieren können. Auch naughty dog hat schon zugegeben das es mit 60fps bei 1080p nichts wird. Und Uncharted ist ein Schlauchspiel.

Atma
2015-02-04, 16:16:15
[immy;10512518']Auch naughty dog hat schon zugegeben das es mit 60fps bei 1080p nichts wird. Und Uncharted ist ein Schlauchspiel.
Angesichts der zu erwartenden Optik bei Uncharted 4 durchaus zu verschmerzen. Witcher 3 kommt schließlich auch mit 1080p30.

Auf lange Sicht 1080p60 halten zu wollen war angesichts der verbauten Hardware sowieso völlig unrealistisch. 1080p30 ist hingegen langfristig machbar.

Martin K.
2015-02-04, 16:18:58
und solange sich das nicht mehr ändert und wir vermehrt nur noch über ~30FPs dort abgefallen/gefaselt/am Rumgurken, hat sich für mich das Thema erledigt! Denn das kann ich auch am PC haben

Na was erwartest du? Den meisten Spielern ist es erstmals egal ob nun 30 oder 60 Bilder in der Sekunde. Sie merken es schlicht nicht. Außerdem hat es auch schon damals sehr viele Spiele mit teils deutlich unter 30fps gegeben. Wenn ich da an einige PS1-Titel denke die mit gefühlten 15fps rumgegurkt sind. Oder an paar SNES-Titel mit dem Super FX Chip. Das waren doch auch keine 30fps.

SEGA war hier noch der letzte Vorreiter für gute Arcade-Umsetzungen, speziell am Saturn/Dreamcast. Aber auch hier gab es schon viele 30fps Titel. Shenmue zB droppte auch ganz schön auf Dreamcast. Den aktuellen Weg finde ich gar nicht so schlecht.

Zudem gibt es wirklich sehr viele exklusiv Titel auf den Konsolen, die man sich so nicht entgehen lassen sollte. Die gibt es auf dem PC freilich auch. ;)

Deathcrush
2015-02-04, 16:18:59
Wenn auf 30FPS optimimiert wird, dann reichen auch die vollkommen aus. Merkt man bei vielen anderen Spielen.

Coda
2015-02-04, 16:21:30
Hm, läuft auf der PS4 in etwa wie mit einer ~7870?
Wenn man die fps im CPU-Limit mit Mantle vergleicht, auch absolut nix dolles.


Find ich auch, es wirkt einfach nur grotesk.
Immerhin gibts noch BF4 Update-Support.
Ich hab noch die Hoffnung, dass die SP-Kampagne ganz okay wird.

Ravenhearth
2015-02-04, 16:22:57
[immy;10512518']Die 7870 hat für sich allein eine Speicherbandbreite von 154 GB/s (in der Standardversion). Davon kann die PS4 nur träumen so viel Bandbreite nur für die GPU zur Verfügung zu haben. Es sei denn die CPU wird absolut nicht genutzt. Bei CPU-Intensiven spielen (wenn die CPU auch den Speicher intensiv mitbenutzt) bleiben grad mal 100-110 GB/s übrig. Eine Auflösungsreduzierung kann da schon sehr viel Wert sein, besonders wenn man 60 fps erreichen will. Zudem wird man als Multi-Konsolen Titel nicht bis ins kleinste bisschen optimieren können. Auch naughty dog hat schon zugegeben das es mit 60fps bei 1080p nichts wird. Und Uncharted ist ein Schlauchspiel.

Eine "normale" Desktop-CPU hat bei DDR3-1600 genau 25,6GB/s zur Verfügung. Ich bezweifle, dass die CPU der PS4 stolze 66-76 GB/s "verbraucht". Und die GPU der PS4 erreicht 72% der Rohleistung einer 7870 (154GB/s), die ganze Konsole kommt aber mit 176GB/s. Also die Speicherbandbreite sollte nun wirklich nicht das größte Problem sein.

][immy
2015-02-04, 16:25:37
Eine "normale" Desktop-CPU hat bei DDR3-1600 genau 25,6GB/s zur Verfügung. Ich bezweifle, dass die CPU der PS4 stolze 66-76 GB/s "verbraucht". Und die GPU der PS4 erreicht 72% der Rohleistung einer 7870 (154GB/s), die ganze Konsole kommt aber mit 176GB/s. Also die Speicherbandbreite sollte nun wirklich nicht das größte Problem sein.
vertraust du Folien von Sony, die hier auch schon öfters drin waren?



http://cdn.wccftech.com/wp-content/uploads/2014/08/PS4-GPU-Bandwidth-140-not-176-635x358.png

Bei einer Speicherauslastung der CPU von ~10GB/s steht nur noch ~110-115GB/s für die GPU zur Verfügung. Und scheinbar geht auch Sony von ~140GB/s realer Bandbreite aus.
Wenn also ein CPU-intensives Spiel (Battlefield ist das eigentlich meist) daher kommt, bleibt dem Entwickler nicht mehr all zu viel. Die PS4 mag die nötige Hardware für alles mögliche haben, aber die beste Hardware nützt nichts, wenn sie nicht mit Speicherbandbreite versorgt wird.

Ravenhearth
2015-02-04, 16:40:48
Wenn Sony das sagt, ist das natürlich was anderes. Aber selbst 110GB/s sollten für die GPU noch gerade ausreichen (die PS4 hat 72% der Rohleistung einer HD7870 und 72% von deren 154GB/s sind rein zufällig 110GB/s). Aber da kommt es natürlich auch immer auf die Engine an.

L.ED
2015-02-04, 16:47:12
Na was erwartest du? Den meisten Spielern ist es erstmals egal ob nun 30 oder 60 Bilder in der Sekunde. Sie merken es schlicht nicht. Außerdem hat es auch schon damals sehr viele Spiele mit teils deutlich unter 30fps gegeben. Wenn ich da an einige PS1-Titel denke die mit gefühlten ...

Ich bin da vielleicht nicht der richtige Ansprechpartner da hauptsächlich Amiga bewusst Spieltechnisch erlebte (in seiner glorreicheren zeit) und die Konsolen an mir vorbeigegangen bzw. Ich diese nicht mehr wirklich erinnere, gemeint Ära nach klassisch MegaDrive (Nintendo hatte ich nie) usw. Obgleich einige besessen (PSX, PS2, Xbox 360), mag mit dran liegen an der fehlenden Zeit und oder zunehmend anderen Interessen (sprich soweit erinnere habe damit nur vergleichsweise wenig gespielt und noch erlebt).

Aber habe das halt stellenweise in der Form noch Präsent wenn in die Retro Ecke und beispielsweise ein Turrican 2 angeworfen das es schlicht ein anderes Feeling, weiches Scrolling etc. zu haben (und zwar durchgehend ohne slow downs).

K.a. wieso man das heute nimmer erwarten können soll? Oder wenn eben halt nicht, brauch ich wie gesagt auch keine Konsole!? Die mehr schlecht als recht dem PC versuchen irgendwie nach zu eifern um am Ende es doch nie ganz ins Finale zu bekommen? Dann lieber der Grundsatz weniger (grafische Opulenz), ist mehr (dafür bombenfeste 50/60 Fps)! :smile:

DinosaurusRex
2015-02-04, 16:58:53
[immy;10512556']
Bei einer Speicherauslastung der CPU von ~10GB/s steht nur noch ~110-115GB/s für die GPU zur Verfügung. Und scheinbar geht auch Sony von ~140GB/s realer Bandbreite aus.


Kann man das nicht irgendwie umgehen in dem man GPGPU Rendering macht und dann diese coolen Zwiebel-Busse mit der Snoopy-Funktion nimmt?

Lightning
2015-02-04, 17:06:32
Wenn Sony das sagt, ist das natürlich was anderes. Aber selbst 110GB/s sollten für die GPU noch gerade ausreichen (die PS4 hat 72% der Rohleistung einer HD7870 und 72% von deren 154GB/s sind rein zufällig 110GB/s). Aber da kommt es natürlich auch immer auf die Engine an.

Erstens das, zweitens scheint das Diagramm Werte darzustellen, die in der Realität gemessen wurden. Die 154 GB/s der 7870 sind hingegen ein theoretischer Maximalwert, den man nie erreichen kann.

aufkrawall
2015-02-04, 17:06:38
Ich hab noch die Hoffnung, dass die SP-Kampagne ganz okay wird.
Könnte sein, bei dem Setting muss eigentlich Story besser als bei BF4 sein + mehr spielerischer Abwechslung.
Trotzdem bleibts halt ein BF4.x, was mir eigentlich nur 0-5€ wert ist, wenn es nur aus einer einer 5h Schlauch-Kampagne besteht.

Finds erstaunlich, wie suboptimal die Frostbite-Engine wieder läuft, wo Garden Warfare so rund war.

Locuza
2015-02-04, 17:10:15
Kann man das nicht irgendwie umgehen in dem man GPGPU Rendering macht und dann diese coolen Zwiebel-Busse mit der Snoopy-Funktion nimmt?
*Meine Spekulation*

Ich denke man kann das leider nicht direkt umgehen, da der Flaschenhals bei der unified-northbridge und dem memory-management liegt.
GPGPU und der Onion-Bus helfen einem dann nur, indem man Rechenaufgaben anders berechnet/verteilt, sodass man insgesamt an Bandbreite sparen könnte bzw. effektiver ausnutzen.

][immy
2015-02-04, 17:47:38
Erstens das, zweitens scheint das Diagramm Werte darzustellen, die in der Realität gemessen wurden. Die 154 GB/s der 7870 sind hingegen ein theoretischer Maximalwert, den man nie erreichen kann.
Naja Theorie und Praxis.
Kann die 7870 den 60fs halten?
Das dumme bei ist ja, wenn die Bandbreite z.b. bei den ROPs limitieren würde, kann ein wenig mehr Bandbreite schon einen großen unterschied machen. Die Auflösung zu reduzieren ist dabei der effektivste weg, das Problem zu lösen.
MS sagte ja in dem interview bei digital foundry, das mehr ROPs keinen Sinn machen, weil es an Bandbreite mangeln würde wenn diese ausgelastet sind. Kann mir also gut vorstellen das es irgendwo daran liegen könnte. Jetzt nicht unbedingt an den ROPs, sonder an einer anderen komponente der die Bandbreite ausgeht.

DinosaurusRex
2015-02-04, 18:00:28
[immy;10512659']
Das dumme bei ist ja, wenn die Bandbreite z.b. bei den ROPs limitieren würde, kann ein wenig mehr Bandbreite schon einen großen unterschied machen. Die Auflösung zu reduzieren ist dabei der effektivste weg, das Problem zu lösen.

SCEE argumentiert in der Präsentation (http://develop.scee.net/files/presentations/gceurope2013/ParisGC2013Final.pdf), aus der du das Diagramm entommen hast, genau anders herum. ;)

http://abload.de/img/sceeakcv3.jpg

Wie hast du es noch gleich ausgedrückt? "Vertraust du Folien von Sony, die hier auch schon öfters drin waren?"

][immy
2015-02-04, 18:06:40
SCEE argumentiert in der Präsentation (http://develop.scee.net/files/presentations/gceurope2013/ParisGC2013Final.pdf), aus der du das Diagramm entommen hast, genau anders herum. ;)

http://abload.de/img/sceeakcv3.jpg

Wie hast du es noch gleich ausgedrückt? "Vertraust du Folien von Sony, die hier auch schon öfters drin waren?"
Bringt nur nichts, wenn du so viel Füllrate hast, das du den Speicher überlastest. So schnell ist der,Speicher ja auch nicht. Es bringt ein wenig was, aber wenn du die caches etc verlässt, bleibt nur noch die Bandbreite des hauptspeichers. Und andere Komponenten benötigen die Ressourcen ja auch noch.

DinosaurusRex
2015-02-04, 18:12:16
Das ist übrigens meine Lieblingsfolie aus der Präsentation:

http://abload.de/img/scee1n8u9h.jpg


http://hugelolcdn.com/i/214712.gif

Coda
2015-02-04, 18:18:29
Könnte sein, bei dem Setting muss eigentlich Story besser als bei BF4 sein + mehr spielerischer Abwechslung.
Trotzdem bleibts halt ein BF4.x, was mir eigentlich nur 0-5€ wert ist, wenn es nur aus einer einer 5h Schlauch-Kampagne besteht.

Finds erstaunlich, wie suboptimal die Frostbite-Engine wieder läuft, wo Garden Warfare so rund war.
Es gibt erstaunlich viel technisches Know-How zu beachten auch auf Content-Seite bei so komplexen Engines. Da das ein externes Team ist kann da immer viel falsch laufen.

Sehr viel an Performance-Optimierung steckt auch in den Assets (ordentliche LODs, Texturverbrauch, etc.). Da hilft die beste Engine nicht, wenn da geschlampt wird.

Eigentlich wird man eine Engine immer nur dann optimal auslasten können wenn Artists und Programmierer unterm gleichen Dach sind.

aufkrawall
2015-02-04, 18:36:23
Interessanter Einblick, das erklärt die guten Resultate von einigen kleinen Teams mit eigener Engine (Frozenbyte...).
Irgendwie wird man den Verdacht nicht los, dass entweder EA extrem geknausert hat beim Hardline MP, oder, dass die Projektleitung sich komplett verrannt hat.
Halt einfach so ein Lückenbüßer.

drkohler
2015-02-04, 22:32:47
Erstens das, zweitens scheint das Diagramm Werte darzustellen, die in der Realität gemessen wurden. Die 154 GB/s der 7870 sind hingegen ein theoretischer Maximalwert, den man nie erreichen kann.Ich denke das Diagramm, das vor unseren Augen schwebt, ist ganz unglücklich gezeichnet. Um ein "schön proportioniertes, perspektivisches Bildchen" zeigen zu können, haben sie die y-Achse bei 140GB/s abgeschnitten. Das sieht dann so aus, als ob der eingezeichnete Klotz nicht mal bis 140GB/s geht. Aber aus dem Bild geht überhaupt nicht hervor, wie gross die Bandbreite/der Klotz nun wirklich ist/sein kann und was überhaupt gemessen wurde.

Was wir wisen ist die theoretische max. Datenrate von 176GB/s des GDDR5 Speichers in der PS4. Anders als []immy glaubt, wird diese Datenrate auch wirklich erreicht. Allerdings nur während eines Burstes, und da die Burstlänge 8 beträgt, kann die GPU maximal 256Bytes mit 176GB/s holen/senden. Das Gleiche gilt für die CPU, aber der Cachecontroller der PS4 wird wohl kaum die 25.6GByte/s eines Intels überschreiten. (Ganz naiv gesagt, wenn sich die gpu und cpu abwechseln mit Bursts, das gäbe dann 12.8GB/s für die cpu und 100GB/s für die gpu gemittelt. Blödes Beispiel, aber das sind so die Gegenden, wo sich die tatsächlichen Datenraten bewegen könnten). Das die tatsächlichen Datenraten deutlich weniger als die maximalen 176GB/s sind, ist halt einfach der Tatsache zuzuschreiben, dass zwei Chefs (mehr oder weniger dauernd) auf den gleichen Speicher zugreifen wollen und das kostet Verwaltungszyklen. Das ist der grosse Vorteil der X1, da kann die cpu ungestört aufs ram, während die gpu ungestört aufs esram ziehlt.

Wenn dann die cpu noch einen Integer dort und einen Boolean da holen will, dann geht der Bandbreite schnell die Bandbreite aus. Das Ganze läuft auf einen absolut unglaublichen Optimierungsaufwand hinaus für die Programmierer, wenn sie auch nur annähernd die Bandbreiten ausreizen wollen. Dafür scheinen nur die Wenigsten Producer das Geld zu haben.

dargo
2015-02-05, 09:11:42
Ich denke hier projezierst du deine persönlichen Vorlieben zu stark auf die Allgemeinheit.
Du hast gefragt was ich mache, wobei diese Frage direkt an y33H gerichtet war, ich habe dir ne ganz einfache Antwort darauf gegeben. Warum sollte mich die Allgemeinheit interessieren? Ich kaufe auch sonst im Leben alles nach meinen Ansprüchen und nicht weil die Allgemeinheit es gut heißt.

Stell dir mal vor du müsstest das hochemotionale TLOU Intro damit verbringen, erstmal die richtigen Grafikeinstellungen zu finden... Das zerstört doch jegliche Immersion. Und meiner Erfahrung nach braucht man immer erst ein paar Spielstunden, bis man die perfekten Einstellungen hat, einfach weil nicht jede Szene gleichermaßen fordernd ist für die Hardware.
Was soll man jetzt darauf antworten? Das verdient schon fast den hier :facepalm:. Apropo Immersion... 30 bzw. sub 30fps, keine native Auflösung, aufgezwungenes, mieses Post-AA, aufgezwungener Grain, Chromatic Aberration bis die Augen bluten etc... das sind alles Sachen die mir ebenfalls die Immersion zerstören. Und schon sind wir wieder bei den Freiheiten die ich am PC habe. Ich entscheide selbst mit welchen Frames, welcher Auflösung und welcher Grafik ich das Spiel genieße. Denn das...

Auf den Konsolen hast du Profis, die dir diese Aufgabe abnehmen und wenn die ihren Job gut machen, dann gibt es da auch überhaupt nichts zu meckern.
triff leider zu oft eben nicht zu. Aktuelles Beispiel wäre Dying Light mit völlig übertriebenem Chromatic Aberration und Grain. Letzteres kann man immerhin schon per Tweak abschalten.

mbee
2015-02-05, 09:15:02
Könnte man den "PC-Masterrace vs Grotten-Optik-Konsolenuser"-Scheiß hier bitte weglassen?
Es geht um Konsolen und interessiert eigentlich einen feuchten Kehricht, wer sich was wo und bei welchem Titel am PC tweakt...Danke!

IC3M@N FX
2015-02-05, 09:46:11
Schade das beide Konsolen nicht zusätzlich zu ihrer SoC nicht ein ARM SoC z.b Snapdragon 400 oder MediaTek mit 2GB RAM extra für Betriebssystem, Multimedia und andere Hintergrund Anwendungen hat. Dadurch hätte man sicherlich mehr Ressourcen für Spiele z.b volle 8 Kerne und komplette 8GB RAM. Ein ARM basierende SoC wäre sicher nicht teuer gewesen im EK Preis wenn es kein Highend wäre.

y33H@
2015-02-05, 10:15:17
Was meinst du mit "klappt halbwegs"? Dann sollen sie halt die Grafik runter schrauben.Es ist am Ende immer ein Tradeoff.

Crazy_Bon
2015-02-05, 10:35:13
Schade das beide Konsolen nicht zusätzlich zu ihrer SoC nicht ein ARM SoC z.b Snapdragon 400 oder MediaTek mit 2GB RAM extra für Betriebssystem, Multimedia und andere Hintergrund Anwendungen hat. Dadurch hätte man sicherlich mehr Ressourcen für Spiele z.b volle 8 Kerne und komplette 8GB RAM. Ein ARM basierende SoC wäre sicher nicht teuer gewesen im EK Preis wenn es kein Highend wäre.Dein Wunsch war Sonys Befehl, nicht ganz. ;)
http://www.redgamingtech.com/playstation-4-secondary-processor-2gb-ram-discovered/

DinosaurusRex
2015-02-05, 10:36:17
Warum sollte mich die Allgemeinheit interessieren? Ich kaufe auch sonst im Leben alles nach meinen Ansprüchen und nicht weil die Allgemeinheit es gut heißt.

Ich unterstelle dir jetzt dreisterweise einfach mal, dass du beim Zocken gerne gute Grafik genießt. Wenn du Spiele mit guter Grafik haben möchtest, dann gibt es dafür zwei Lösungsansätze: Entweder du überweist dem Entwickler 50 Mio Dollar und der macht dir dann ein Spiel nach deinen Vorstellungen oder du zahlst davon nur einen Bruchteil und nimmst dafür Kompromisse in Kauf, die darauf abzielen werden, die Allgemeinheit der Zocker anzusprechen.

Du kaufst dir eine superschnelle Grafikkarte und spielst damit Spiele, die zu 90% von den Systemen finanziert werden, die du hier die ganze Zeit in die Pfanne zu hauen versuchst. Deine "Ich bin eben ein Individualist"-Tour kannst du dir schenken, denn das ist ein Trugschluß und wird von Konzernen, die mit ihren Produkten in Konkurrenz zu Videospielkonsolen stehen, gezielt bedient. Du bist kein Individualist, du gehörst einfach nur zu einer anderen Allgemeinheit, die nicht deckungsgleich ist mit der Zielgruppe von Spielkonsolen. Aber du verarscht dich doch nur selbst, wenn du denkst, dass man mit so einer elitaristischen Attitüde über den anderen steht.

Nur weil man mehr Geld bezahlt als andere, heißt das nicht, dass man den besseren Deal gemacht hat. Tatsächlich verhält es sich genau gegensätzlich: Die Gewinnspannen bei Premiumprodukten sind gewaltig und das muss auch so sein, weil die Zielgruppen für derartige Produkte erheblich kleiner sind als in anderen Marktsegmenten. Und nur bei Hardware aus dem Premiumsegment hast du diese "Freiheit", es sei denn, du zählst das konsequente Runterschrauben von Grafikeinstellungen in modernen AAA-Spielen ebenfalls dazu. Das ist es aber nicht. Du erkaufst dir die Erfüllung deiner Vorlieben mit viel Geld und das das nicht jeder kann oder will, würde dir vermutlich auch einleuchten, wenn du bereit wärst, dich in andere Menschen hinein zu versetzen und zu hinterfragen, welche Motivation hinter deren Handlungen steckt.

Eines solltest du dir für dein ganzes Leben hinter die Löffel schreiben: Nur ein verschwindend kleiner Teil der Menschen schädigt sich absichtlich selbst. Die überwältigende Mehrheit versucht immer das beste aus der Situation zu machen, in der sie sich befindet und die können auf abwertende Kommentare von komplexbehafteten Klugscheißern verzichten. Nur weil du eine Entscheidung getroffen hast, heißt das nicht, dass es der Königsweg ist. Für wen hälst du dich überhaupt, dass du die Entscheidungen der anderen Menschen in Frage stellst und dich so sehr von ihnen abzugrenzen versuchst? Du kommst in diese Threads nur um auf Konsolen und Konsolen-Gamer zu scheißen, du hast hier doch noch nie irgendwas konstruktives beigetragen. Deine Art ist einfach nur zum kotzen und mittlerweile denke ich sogar, dass du dich aus Selbstschutz von anderen Menschen abgrenzt. Soziale Inkompetenz ist der erste Schritt zur Misanthropie.

][immy
2015-02-05, 10:49:23
Ich denke das Diagramm, das vor unseren Augen schwebt, ist ganz unglücklich gezeichnet. Um ein "schön proportioniertes, perspektivisches Bildchen" zeigen zu können, haben sie die y-Achse bei 140GB/s abgeschnitten. Das sieht dann so aus, als ob der eingezeichnete Klotz nicht mal bis 140GB/s geht. Aber aus dem Bild geht überhaupt nicht hervor, wie gross die Bandbreite/der Klotz nun wirklich ist/sein kann und was überhaupt gemessen wurde.

Was wir wisen ist die theoretische max. Datenrate von 176GB/s des GDDR5 Speichers in der PS4. Anders als []immy glaubt, wird diese Datenrate auch wirklich erreicht. Allerdings nur während eines Burstes, und da die Burstlänge 8 beträgt, kann die GPU maximal 256Bytes mit 176GB/s holen/senden. Das Gleiche gilt für die CPU, aber der Cachecontroller der PS4 wird wohl kaum die 25.6GByte/s eines Intels überschreiten. (Ganz naiv gesagt, wenn sich die gpu und cpu abwechseln mit Bursts, das gäbe dann 12.8GB/s für die cpu und 100GB/s für die gpu gemittelt. Blödes Beispiel, aber das sind so die Gegenden, wo sich die tatsächlichen Datenraten bewegen könnten). Das die tatsächlichen Datenraten deutlich weniger als die maximalen 176GB/s sind, ist halt einfach der Tatsache zuzuschreiben, dass zwei Chefs (mehr oder weniger dauernd) auf den gleichen Speicher zugreifen wollen und das kostet Verwaltungszyklen. Das ist der grosse Vorteil der X1, da kann die cpu ungestört aufs ram, während die gpu ungestört aufs esram ziehlt.

Wenn dann die cpu noch einen Integer dort und einen Boolean da holen will, dann geht der Bandbreite schnell die Bandbreite aus. Das Ganze läuft auf einen absolut unglaublichen Optimierungsaufwand hinaus für die Programmierer, wenn sie auch nur annähernd die Bandbreiten ausreizen wollen. Dafür scheinen nur die Wenigsten Producer das Geld zu haben.
also, ich gehe davon aus das sony in dem Diagramm einfach das normal-erreichbare aufgezeichnet hat. Das man in einigen spezialmomenten vielleicht sogar die theoretische maximale Bandbreite erreicht ist klar (kurzzeitig, aber nicht über einen längeren Zeitraum), aber die Regel wird es nicht sein, also wird man irgendwo bei 140GB/s landen. So verstehe ich das Diagramm. Zudem könnte ein teil abgezogen sein als Reservierung für das OS, hier hat sony erstaunlich wenig Informationen zu gegeben, aber man wird wohl kaum nur 2 CPU-Cores reserviert haben, ohne irgendwelche speicherbandbreite.


@DinosaurusRex
ein Problem besteht halt darin, das vieles an der GPU die speicherbandbreite komplett für sich veranschlagen könnte (die ROPs sind nur eine Sache). D.h. wenn man da nicht richtig optimiert, kann es passieren, das eine Komponente sich zu viel schnappt und für die anderen nicht mehr genug übrig bleibt. Ist halt eine Frage der Optimierung. Von einer Plattform-übergreifenden-Engine erwarte ich zumindest zu dem jetzigen Zeitpunkt keinerlei derartige Optimierungen. Dafür sind die Konsolen noch viel zu neu. Und später wird man durch die Optimierungen lieber auf Eye-Candy setzen als die Auflösung zu erhöhen. Die Auflösung ist halt nur deine Persönliche vorliebe, aber wohl nicht die, der Allgemeinheit, dies es einfach nicht interessiert.

Martin K.
2015-02-05, 11:11:28
Schade das beide Konsolen nicht zusätzlich zu ihrer SoC nicht ein ARM SoC z.b Snapdragon 400 oder MediaTek mit 2GB RAM extra für Betriebssystem, Multimedia und andere Hintergrund Anwendungen hat. Dadurch hätte sicherlich mehr Ressourcen für Spiele z.b volle 8 Kerne und komplette 8GB RAM. Ein ARM basierende SoC wäre sicher nicht teuer gewesen im EK Preis wenn es kein Highend wäre.

Das wird sich in Zukunft aber bessern. Mehr Kerne gibt es doch eh schon zum Teil auf der Xbox One. RAM wird in Zukunft auch mehr freigeben, genau wie bei PS3 und Xbox 360.

Lurtz
2015-02-05, 11:13:16
Könnte man den "PC-Masterrace vs Grotten-Optik-Konsolenuser"-Scheiß hier bitte weglassen?
Es geht um Konsolen und interessiert eigentlich einen feuchten Kehricht, wer sich was wo und bei welchem Titel am PC tweakt...Danke!
Würden gewisse Leute aufhören hier ständig Bullshit-Querschläger Richtung PC zu schicken, wäre das Problem schon deutlich weniger vorhanden.

Sven77
2015-02-05, 11:17:33
Würden gewisse Leute aufhören hier ständig Bullshit-Querschläger Richtung PC zu schicken, wäre das Problem schon deutlich weniger vorhanden.

und vice versa bitte, ja?

dargo
2015-02-05, 11:39:55
Die überwältigende Mehrheit versucht immer das beste aus der Situation zu machen...
Stell dir vor... genau das mache ich indem ich die Spiele die mich interessieren am PC spiele. Zu dem anderen blabla... ich bereue jetzt schon, dass ich mich hier eingemischt habe. Wenn du wieder den langweiligen Krampf PC vs. Konsole lostreten willst dann suche dir einen anderen, bin nicht interessiert.

DinosaurusRex
2015-02-05, 11:55:05
Wenn du wieder den langweiligen Krampf PC vs. Konsole lostreten willst dann suche dir einen anderen, bin nicht interessiert.

Du checkst es einfach nicht, oder? Es geht darum, dass du bitte endlich aufhörst, hier einen auf überlegen zu machen. Das ist genau so als würden wir hier über Klamotten sprechen und irgendeine Nervensäge kommt die ganze
Zeit an und sagt "Ach Gottchen, wie kannst du nur diesen furchtbaren Baumwollschal tragen? Ich kauf nur feinsten Kaschmir von Hugo Boss, das schmeichelt meinem Hals so toll...". KEIN MENSCH BRAUCHT DAS!

Martin K.
2015-02-05, 12:24:22
DinsaurusRex du bringst es endlich mal auf den Punkt. Mach weiter so! :up:

IC3M@N FX
2015-02-05, 13:00:05
Dein Wunsch war Sonys Befehl, nicht ganz. ;)
http://www.redgamingtech.com/playstation-4-secondary-processor-2gb-ram-discovered/

In wie weit kann man die Leistung des Low Power CPU einschätzen soviel ich weiß ist der ja nur aktiv, wenn es in Standby zustand ist z.b für Preloads, Patches, Firmware Updates usw.

Ich bin davon ausgegangen das es nur 256 mb Arbeitsspeicher hat :eek: aber das ist ja nur der Flashspeicher, es hat wirklich 2GB DDR3 Ram.
Könnte man nicht das Betriebsystem da auslagern??? Anstatt von den 8GB GDDR5 2GB für das Betriebsystem zu resevieren???

][immy
2015-02-05, 13:14:03
In wie weit kann man die Leistung des Low Power CPU einschätzen soviel ich weiß ist der ja nur aktiv, wenn es in Standby zustand ist z.b für Preloads, Patches, Firmware Updates usw.

Ich bin davon ausgegangen das es nur 256 mb Arbeitsspeicher hat :eek: aber das ist ja nur der Flashspeicher, es hat wirklich 2GB DDR3 Ram.
Könnte man nicht das Betriebsystem da auslagern??? Anstatt von den 8GB GDDR5 2GB für das Betriebsystem zu resevieren???
Sollten eogentlich 2gigabit sein, nicht GB

Ravenhearth
2015-02-05, 13:36:06
Aber wäre das überhaupt möglich, das OS auf einem separaten Chip laufen zu lassen? Das ist ja auch beim Spielen noch aktiv.

IC3M@N FX
2015-02-05, 13:39:59
[immy;10513514']Sollten eogentlich 2gigabit sein, nicht GB

Was kann man darunter verstehen 2 Gigabit darunter finde ich keine Infos wieviel ist es also als umrechnung xD in Kilobyte/Megabyte/Gigabyte????

Locuza
2015-02-05, 13:43:32
2 Gigabit = 2048 Bits / 8 = 256 Mega-Bytes.

IC3M@N FX
2015-02-05, 15:07:25
2 Gigabit = 2048 Bits / 8 = 256 Mega-Bytes.

Hmm 256 MB DDR3 schade so wenig das man sowas überhaupt noch produziert?..... Sicher für Standby Betrieb usw. reicht das bestimmt. Was kostet den 2GB DDR3 1600 Speicher das billigste heutzutage 25€ in VK in EK bestimmt 8-12€ wenn man das noch als Riegel will. Wenn es auf den Board gelötet wäre, sicher noch billiger eventuell.

Lightning
2015-02-05, 16:04:48
Hmm 256 MB DDR3 schade so wenig das man sowas überhaupt noch produziert?

Natürlich, das ist ja nur ein einzelner Chip. 256 oder 512 MB (= 2 oder 4 Gbit) pro Chip sind da noch ziemlich üblich. 16 davon machen dann halt die 4 oder 8 GB auf Riegeln für PCs.

dildo4u
2015-02-05, 18:35:56
The Order 1886 | Behind the Game Engine

http://youtu.be/lZx9gPo3tws

y33H@
2015-02-06, 15:33:16
Puh, Hardline sieht ja übel aus - hinten die Strommasten, rechts der Hügel und kein AF *brrr*

http://www.eurogamer.net/articles/digitalfoundry-2015-battlefield-hardline-console-performance-analysis

http://images.eurogamer.net/2013/articles//a/1/7/3/5/0/8/9/pc_004.bmp.jpg/
http://images.eurogamer.net/2013/articles//a/1/7/3/5/0/8/9/ps4_004.bmp.jpg/
http://images.eurogamer.net/2013/articles//a/1/7/3/5/0/8/9/xo_004.bmp.jpg/

DinosaurusRex
2015-02-06, 18:25:18
Wenn das Spiel spielerisch überzeugen kann, ist das halb so schlimm. Ich finde solange ein Videospiel eine einzige Sache herausragend gut macht, ist es sein Geld auch wert.

Ich bin sicher einer der wenigen, die FF13 dreimal durchgezockt haben. Ich fand die ganze Ästhetik hinter dem Spiel einfach hammergeil. Die ganzen Menüs alleine... es sieht perfekt aus in jeglicher Hinsicht. Das gleiche gilt doch für Ryse: Das kriegt nicht viele Punkte weil halsstarre Redaktionen ihre Checklisten abarbeiten, aber das es sich dabei um das bis dato beste Videospiel in puncto Grafik handelt, wird als nebensächliche Selbstverständlichkeit hingenommen. Oder was ist mit Hotline Miami? So perfekt wurde Musik noch nie in ein Videospiel eingebunden.

Nicht jeder Titel ist ein "Citizen Cane Moment". Es reicht absolut aus, wenn du einen Fokus setzt und gemäß diesem dann bravourös ablieferst.

Sollte Hardline ein tolles Multiplayer-Erlebnis bieten, ist mir das AF am Ende auch scheißegal. Wenn es in jeder Hinsicht Mist ist, dann sind sie selber Schuld.

Lightning
2015-02-06, 18:50:06
Mag ja alles sein, aber hier im Thread gehts ausschließlich um die Technik (wäre also schön, wenns deswegen jetzt nicht wieder vom Thema abdriftet).


Ich finde die BF screenshots schon recht übel. Zwar noch Beta, aber an der Auflösung soll sich ja nichts mehr ändern. Von daher auch fraglich, ob man noch ein besseres AA implementiert bekommt, aber mal abwarten.

DinosaurusRex
2015-02-07, 09:58:42
Ja okay.

Apropos nichts mehr ändern, das wird es bei The Order 1886 vermutlich auch nicht mehr und das sieht sensationell aus, wenn ihr mich fragt. Es ist zwar nur ein YouTube-Video, aber ich finde trotzdem, dass da auffallend wenig Aliasing erkennbar ist:

cHoAZ90m6R4

4xMSAA sind es laut Ready at Dawn. Die Cutscenes sind alle in Echtzeit.

Wenn ein so kleines Studio so eine Grafik aus dieser Hardware kitzeln kann und das auch noch ein wenig mehr als ein Jahr nach Launch des Systems, kann ich mir überhaupt nicht vorstellen, wie next-gen Grafik in fünf Jahren aussehen wird.

tobor
2015-02-09, 13:55:12
Ich finde es ja peinlich,dass dem Ps4 Browser scheinbar der Speicher ausgeht und dann eine Fehlermeldung kommt. Wie miserabel muss der denn programmiert sein?

drkohler
2015-02-10, 00:13:04
Mal was Anderes:
Dieser Brad Wardell schreit ja im Moment Jeden an, der es nicht hören will, über seine phantastischen Drawcall-Nummern-Demo und wie das Ganze die X1 unschlagbar machen soll mit DX12 und so. Was noch nirgends wirklich beschrieben ist was das Ganze soll und was die Demo wirklich macht... Mir scheint es fast so zu sein, dass er einfach über alle Cores Drawcalls zur gpu abfeuert und sich dann über die 600% mehr verschossene Munition erfreut.
Ist das so, oder macht die gpu auch was mit all den Drawcalls (in der Demo)? Macht die gpu nix Anderes als Drawcalls empfangen (was die Demo sinnlos macht) oder macht das Sinn?
Kann die gpu der X1 oder PS4 überhaupt etwas anfangen mit sagen wir doppelt so vielen Drawcalls, von der 600% gehypten Zahl mal ganz abgesehen? Was von dem Lärm bleibt real übrig auf den Konsolen?

Coda
2015-02-10, 01:34:52
Die GPUs können damit umgehen, das ist nicht das Problem.

DinosaurusRex
2015-02-10, 08:29:36
Ein kleiner Spaziergang durch London:

MXtbXHM8snk
_CFExOgqhYA

Ich finde das absolut beeindruckend, was die da gemacht haben. Ich hab noch nie ein Videospiel mit so guter Grafik gesehen.

Finch
2015-02-10, 08:59:03
Die GPUs können damit umgehen, das ist nicht das Problem.

sondern?

][immy
2015-02-10, 09:32:59
Mal was Anderes:
Dieser Brad Wardell schreit ja im Moment Jeden an, der es nicht hören will, über seine phantastischen Drawcall-Nummern-Demo und wie das Ganze die X1 unschlagbar machen soll mit DX12 und so. Was noch nirgends wirklich beschrieben ist was das Ganze soll und was die Demo wirklich macht... Mir scheint es fast so zu sein, dass er einfach über alle Cores Drawcalls zur gpu abfeuert und sich dann über die 600% mehr verschossene Munition erfreut.
Ist das so, oder macht die gpu auch was mit all den Drawcalls (in der Demo)? Macht die gpu nix Anderes als Drawcalls empfangen (was die Demo sinnlos macht) oder macht das Sinn?
Kann die gpu der X1 oder PS4 überhaupt etwas anfangen mit sagen wir doppelt so vielen Drawcalls, von der 600% gehypten Zahl mal ganz abgesehen? Was von dem Lärm bleibt real übrig auf den Konsolen?
Genau die Frage kam mir auch. Wobei sich die 600% vermutlich nur auf das "Mehr" der möglichen Draw-Calls bezog (das schafft mantle ja auch)


Die GPUs können damit umgehen, das ist nicht das Problem.

Was ist dann der Vorteil/Nachteil der ganzen Draw-Calls. Soweit ich das bisher verstanden habe, mussten Entwickler bisher immer extrem optimieren damit man hier nicht in ein CPU-Limit gerät. Ist das dann eine Erleichterung für die Entwickler oder muss es trotzdem noch passieren weil z.B. mehr Overhead dadurch auf GPU-Seite entstehen würde?
Oder sind dann viele kleine Draw-Calls am ende sogar effizienter als wenige Große?

robbitop
2015-02-10, 09:56:55
Man spart CPU Overhead und man kann mehr Objekte in Spiele einbringen. Da die PS4 allerdings eh close to the metal arbeitet und keine dicken Lagen an APIs über der HW lagen, wie bei der X1, holt MS hier schlicht nur auf.

IMO ist DX12 überhypt, weil es bisher nur in konstruierten Fällen wirklich so extrem ist (siehe Swarm Demo).

-/\-CruNcher-/\-
2015-02-10, 10:12:58
Ein kleiner Spaziergang durch London:

http://youtu.be/MXtbXHM8snk
http://youtu.be/_CFExOgqhYA

Ich finde das absolut beeindruckend, was die da gemacht haben. Ich hab noch nie ein Videospiel mit so guter Grafik gesehen.

Ryse und das war vorher da ;)

Also für mich wirkt das wie Ryse mit anderem Setting ;)

komisch der player geht gebückt zum Fahrstuhl in der Cutscene steht er plötzlich und kommt von viel weiter hinten in die Szene naaaa da sind sie wohl davon ausgegangen das er genau so schön langsam hinlaufen würde ;)

][immy
2015-02-10, 10:13:45
Man spart CPU Overhead und man kann mehr Objekte in Spiele einbringen. Da die PS4 allerdings eh close to the metal arbeitet und keine dicken Lagen an APIs über der HW lagen, wie bei der X1, holt MS hier schlicht nur auf.

IMO ist DX12 überhypt, weil es bisher nur in konstruierten Fällen wirklich so extrem ist (siehe Swarm Demo).
Ok, hat jetzt eigentlich nichts in diesem Thread großartig verloren, aber vermutlich wird auch die PS4 hier noch einiges verändern können für die Zukunft. Warum auch immer scheint ja OpenGL unter dem gleichen Problem leiden.
Warum kam man eigentlich erst jetzt auf die Idee das an diesem CPU-Limit mal gearbeitet werden muss. Bekannt ist es ja scheinbar schon eine halbe Ewigkeit. Schon zu Geforece 4200er Zeiten hat man bedacht das bei den Draw-Calls die CPU recht schnell zum Flaschenhals wird (bei beyond 3d wurde eine alte nvidia Präsentation verlinkt). Und erst jetzt wo die Konsolen CPUs nicht so die schnellste Single-Thread Leistung haben, kommt man auf die Idee daran mal was zu verändern.

grobi
2015-02-10, 10:15:02
@robbitop

Willst du damit sagen das auf der Xbob One nicht auf lowlevel gearbeitet wird?
Ich bin davon ausgegangen das man das DX vom Pc nicht mit dem der One vergleichen kann.

robbitop
2015-02-10, 10:38:50
[immy;10518902']Ok, hat jetzt eigentlich nichts in diesem Thread großartig verloren, aber vermutlich wird auch die PS4 hier noch einiges verändern können für die Zukunft. Warum auch immer scheint ja OpenGL unter dem gleichen Problem leiden.
Warum kam man eigentlich erst jetzt auf die Idee das an diesem CPU-Limit mal gearbeitet werden muss. Bekannt ist es ja scheinbar schon eine halbe Ewigkeit. Schon zu Geforece 4200er Zeiten hat man bedacht das bei den Draw-Calls die CPU recht schnell zum Flaschenhals wird (bei beyond 3d wurde eine alte nvidia Präsentation verlinkt). Und erst jetzt wo die Konsolen CPUs nicht so die schnellste Single-Thread Leistung haben, kommt man auf die Idee daran mal was zu verändern.
Was hat OpenGL mit der PS4 zu tun? Man kann theoretisch mit OpenGL arbeiten - aber alle ernsthaften Studios arbeiten close to the metal. Da gibt es eine Sony eigene sehr sehr schlanke API namens GNM.

Mantle scheint eine Art Wake up call für OpenGL und DirectX gewesen zu sein, ihre APIs schlanker und näher an die HW zu gestalten.

Warum das bisher vermieden wurde? Weil Abstraktionslayer und entsprechende Automatismen folgende Vorteile haben:

- Es läuft ohne großes Zutun auf jeder API konformen 3D HW
- Es benötigt wesentlich weniger Aufwand (close to the metal heißt ja, dass der Treiber nicht mehr alles macht und die API nur abstrahiert - sondern, dass der Entwickler sich um vieles kümmern muss und entsprechend die HW gut kennen muss - hier besteht auch die Gefahr, die Performance zu vermurksen)

Soetwas war bisher nur in der Konsolenbranche üblich, weil dort Millionenfach die exakt gleiche HW verkauft wurde, so dass man für eine HW Basis optimieren konnte.

@robbitop

Willst du damit sagen das auf der Xbob One nicht auf lowlevel gearbeitet wird?
Ich bin davon ausgegangen das man das DX vom Pc nicht mit dem der One vergleichen kann.
Bisher wurde mit DX11 gearbeitet und wenn man ein paar Twitterposts von Entwicklern beobachtet, sind die darüber nicht sehr glücklich. Es wird als "thick layers of API" verschriehen.
Sicher ist es nicht ganz so schlimm wie am PC, da bei einer HW Basis sicherlich noch Stellschrauben für Optimierung vorhanden ist - aber ja: bisher verschenkte man auf der X1 Performance.

Lord_X
2015-02-10, 11:40:23
Soooo gross wird der Gewinn auf der XB1 nicht sein durch DX12

http://wccftech.com/phil-spencer-directx-1-xbox-one-hardware-graphics/

Coda
2015-02-10, 11:41:16
DX12 wird primär die CPU wesentlich entlasten. Nichts neues.

DinosaurusRex
2015-02-10, 15:41:13
Ryse und das war vorher da ;)

Also für mich wirkt das wie Ryse mit anderem Setting ;)


Ich finde da stellt sich sowieso eine sehr interessante Frage, da diese Spiele zwei verschiedene Ansätze verfolgen:

Was wird denn das besser Antialiasing haben (Upscaling mal komplett außen vor)? Ryse mit seinem Deferred Renderer und hauseigenem post-processing AA oder The Order 1886 mit Forward+ Renderer und Hardware AA? Specular Aliasing (das ist das Shader-Flimmern, oder?) ist in den YouTube-Videos von The Order nicht wirklich zu sehen.

---

Hier gibt's Screenshots von SCEE:


http://a.pomf.se/pcsqzb.png
http://a.pomf.se/ugkhhj.png
http://a.pomf.se/zeeodt.png
http://a.pomf.se/ntyznb.png
http://a.pomf.se/domuom.png
http://a.pomf.se/acnyzh.png


Sieht ziemlich clean aus. Viel blur, viel grain. In Bewegung sieht es aber deutlich besser aus, wenn ihr mich fragt: webm (http://a.pomf.se/gjplrs.webm)

Sunrise
2015-02-10, 16:57:33
Ich finde es generell recht geschickt (und auch passend für das Setting), dass man hier mit stilvoll eingesetztem Grain arbeitet.

Ist das bei TheOrder1886 eigentlich durchgehend so?

Im Videobereich kann man damit Upscaling (z.B. Aliasing-Artefakte) zumindest subjektiv aufwerten (wenn es exakt richtig dosiert ist). Ein netter Nebeneffekt ist, dass es für das Auge sowohl hochauflösender als auch natürlicher wirkt. Wenn man einen gewissen Mindestabstand davon hat, sieht man den Grain auch nichtmehr wirklich als Schleier. Mich fasziniert dieser Effekt irgendwie, und man kann ihn auch sehr gut selbst nachstellen.

Das ist mit ein Grund, warum auch viele Filmfanatiker und Regisseure weiterhin auf Film bestehen. Und selbst im digitalen Zeitalter wirkt De-Graining und Re-Graining oft Wunder (siehe Alien 2, sieht fantastisch aus).

Ich frage mich echt, warum das gerade bei Spielen so wenig genutzt wird. Das sollte doch recht billig (im Sinne vom Rechenaufwand) sein, oder?

Lurtz
2015-02-10, 16:58:20
Ryse hat fast perfekte Glättung, das ingame-AA arbeitet hervorragend. Blurrt allerdings auch merklich, aber angesichts der Ergebnisse war das tolerierbar.

robbitop
2015-02-10, 17:11:25
MSAA ist immer besser als Post-AA. Es gibt kein Blur, kein Ghosting und es greift auch bei niedrigen Kontrasten. Durch Forward+ sollte es auch recht billig sein (kostet vor allem Bandbreite und ROP Leistung).
Außerdem rekonstruiert MSAA im Gegensatz zu Post-AA auch Objekte und verschmiert sie nicht nur. (gerade feinmaschige Strukturen, die weiter entfernt sind, fallen teilweise durch das Pixelraster und flimmern dann oder/und matschen. Da hilft nur echte Abtastung!)

Wenn man Alpha-to-Coverage einsetzt, flimmert auch Foilage nicht.

Specular Aliasing kann MSAA nicht bekämpfen. Allerdings ist Specular Aliasing nicht zwangsläufig nötig, wenn der Entwickler und die Artists sich gegenseitig absprechen. Man muss einfach nur den High Frequency Anteil (bewußt) anders behandeln. Dann flimmert es auch nicht. So macht es Cryteck schon eine Weile. Dort sieht man auch ohne Temporal AA/SSAA kaum Specular Flimmern.

Ich tippe darauf, dass Ready at Dawn da auch ein bisschen geschlossener zwischen Entwickler und Artists zusammenarbeitet.

Kartenlehrling
2015-02-10, 17:32:55
Beste Beispiel ist ja "Forza Horizon 2" das mit Forward+ und 4xMSAA auf der XBone gekommen ist, hätte ich bei so einem Produkt nie gedacht,
aber es ist Flimmerfrei und das zählt bei einem Rennspiel.

DinosaurusRex
2015-02-10, 17:38:49
Aber warum entscheiden sich so wenige Studios für Forward+?

Locuza
2015-02-10, 17:45:31
Dazu können Coda und AlphaTier etwas sagen.

Kommt sicher auf die Komplexität des Spiels an, wie viele Lichtquellen jemand haben möchte.
Vielleicht hat das auch mit alten Konsolen-Hardware etwas zu tun.

Bei Destiny erinnere ich mich an eine Folie mit Vor- und Nachteilen.
Grundlos treffen Studios vermutlich selten technische Entscheidungen.

Kartenlehrling
2015-02-10, 17:46:32
Es ist ja eigentlich "erst" 3 Jahre alt und AAA+ Spiele laufen immer eine entwicklung von 5-8 Jahre.

https://www.youtube.com/watch?v=s2y7e3Zm1xc#t=20
Leo DirectX forward plus rendering lighting

Jupiter
2015-02-10, 17:49:21
MSAA ist immer besser als Post-AA. Es gibt kein Blur, kein Ghosting und es greift auch bei niedrigen Kontrasten. Durch Forward+ sollte es auch recht billig sein (kostet vor allem Bandbreite und ROP Leistung).
Außerdem rekonstruiert MSAA im Gegensatz zu Post-AA auch Objekte und verschmiert sie nicht nur. (gerade feinmaschige Strukturen, die weiter entfernt sind, fallen teilweise durch das Pixelraster und flimmern dann oder/und matschen. Da hilft nur echte Abtastung!)

Dann flimmert es auch nicht. So macht es Cryteck schon eine Weile. Dort sieht man auch ohne Temporal AA/SSAA kaum Specular Flimmern.

Ich finde das in RYSE SMAA in 1080p sauberer aussieht, als 1620p plus 2xSSAA. Denn hier sehe ich noch immer mehr Unruhe im vergleich zu SMAA. tSMAA ist aber auch kein Post AA. Ohne tSMAA würde ich es nicht spielen.

RYSE ist allerdings das einzige moderne Videospiel, welches mich aktuell in der Bildqualität wirklich zufrieden stellt. Was die Bildqualität angeht, ist dieser Titel für mich das Maß aller Dinge. Andere Spiele haben entweder keine vernünftige AA-Auswahl, Ghosting oder Specular Aliasing.


Sieht ziemlich clean aus. Viel blur, viel grain. In Bewegung sieht es aber deutlich besser aus, wenn ihr mich fragt: webm (http://a.pomf.se/gjplrs.webm)

Die Schärfe erscheint dafür gering. Hier wird mit diversen Filtern schon arg übertrieben. Das könnte optisch stellenweise auch 720p mit Balken aber ohne Flimmern sein. Trotzdem ist dies weitaus besser als dieses immersionszerstörende Aliasing. Dann habe ich es lieber etwas verwaschener.

del_4901
2015-02-10, 18:51:41
Aber warum entscheiden sich so wenige Studios für Forward+?

pro F+
- flexible Materials (dank PBR nicht mehr so wichtig)
- memory usage
- MSAA

contra F+
- Shaderpermutations
- coupling Light + Shadow + Material
- Quad efficiency
- depth prepass (clustered F+ Rendering, braucht den nicht)

Am Ende bleibt nur MSAA als echter Vorteil, und das ist einfach nicht genug.

ZapSchlitzer
2015-02-10, 19:03:01
Seit DX11 hat sich der Vorteil bzgl. MSAA ggü. Deferred-Rendering ja praktisch auch erübrigt.
Oder bringe ich da etwas durcheinander?

del_4901
2015-02-10, 19:12:15
Seit DX11 hat sich der Vorteil bzgl. MSAA ggü. Deferred-Rendering ja praktisch auch erübrigt.
Oder bringe ich da etwas durcheinander?
DX11 bringt nur Pixelshader Sample Access, damit kann man zwar MSAA "nachbauen" aber besonders toll und effizient ist das nicht.

Coda
2015-02-10, 19:13:58
Das konnte man doch schon mit 10.0, mit 10.1 dann auch für Depth.

del_4901
2015-02-10, 19:17:38
Das konnte man doch schon mit 10.0, mit 10.1 dann auch für Depth.
Dann braucht es nur DX10.1, k.a. das ist so alt, damit muss ich much hoffentlich nicht mehr rumschlagen :)

drkohler
2015-02-10, 20:29:01
Man spart CPU Overhead und man kann mehr Objekte in Spiele einbringen. Da die PS4 allerdings eh close to the metal arbeitet und keine dicken Lagen an APIs über der HW lagen, wie bei der X1, holt MS hier schlicht nur auf.
Als interessierter Bystander frage ich mich halt eben:
Wenn meine "cpu" 4-6mal so viele Drawcalls erzeugt mit DX12 als vorher, dann heisst das doch im Wesentlichen die "cpu" arbeitet 4-6mal so viel an Draws als vorher. Also wo steckt da die Entlastung? Mit jedem zusätzlichen Drawcall geht doch Power verloren für den Code des Games selbst...
Das zweite Problem ist für mich: Wer organisiert das Ganze? Wenn jetzt plötzlich z.B. vier Kerne Drawcalls losfeuern. Irgendwo muss doch ein Manager/Critical path sein, der den Cores alle 16.6/33ms sagt: "Jetzt neuer Frame. Haut rein". Und muss nicht irgendwo ein gpu-Boss sein, der die Salven von DrawCalls sammelt und verteilt?
Was jetzt als AAA Games auf den Konsolen rausgehauen wird, stresst doch die Systeme schon voll, da kaum ein Game die 1080p/60Hz erreicht. Wo wird also abgespeckt werden müssen wenn man plötzlich viel mehr Drawcalls abfeuert?

Gipsel
2015-02-10, 20:59:03
Als interessierter Bystander frage ich mich halt eben:
Wenn meine "cpu" 4-6mal so viele Drawcalls erzeugt mit DX12 als vorher, dann heisst das doch im Wesentlichen die "cpu" arbeitet 4-6mal so viel an Draws als vorher. Also wo steckt da die Entlastung?
Mit jedem zusätzlichen Drawcall geht doch Power verloren für den Code des Games selbst...
Der Trick ist ja gerade, daß die Drawcalls dramatisch weniger CPU-Last erzeugen bzw. die ganze CPU-Last auch über mehrere Cores verteilt werden kann (was vorher nur eher rudimentär wenn überhaupt funktionierte). Man weitet also dieses Drawcall-Bottleneck (bei mehr als einigen tausend Drawcalls pro Frame hängt bisher der Thread dafür bei 100% CPU-Last und mehr geht dann halt nicht, auch wenn andere Cores noch Däumchen drehen).
Das zweite Problem ist für mich: Wer organisiert das Ganze? Wenn jetzt plötzlich z.B. vier Kerne Drawcalls losfeuern. Irgendwo muss doch ein Manager/Critical path sein, der den Cores alle 16.6/33ms sagt: "Jetzt neuer Frame. Haut rein". Und muss nicht irgendwo ein gpu-Boss sein, der die Salven von DrawCalls sammelt und verteilt?Das Verteilen auf die Cores (und die nötigen Checks, damit da kein Blödsinn rauskommt) liegt natürlich im Verantwortungsbereich der Engine.
Der Refresh (der ja mit Free-/G-Sync nicht mehr unbedingt fest sein muß) läuft genau so wie bisher (und ohne VSYNC oder Framelimit rendert die Engine halt so schnell es geht, ist ein Frame fertig, geht es direkt mit dem nächsten weiter. Und mit VSYNC kannst Du halt schlicht keine Drawcalls absetzen, solange die Framequeue noch voll ist [also bis zum nächsten Bufferflip]).
Die Drawcalls werden im Endeffekt in einem von der GPU lesbaren Format (da muß der Treiber also im Notfall nochmal drüber, aber möglichst will man die Treiberarbeit hier minimieren [Mantle/Konsolen]) in einem von der GPU lesbaren Speicherbereich abgelegt und den Rest macht die GPU wenn man die entsprechend anstupst.

][immy
2015-02-10, 21:13:25
Als interessierter Bystander frage ich mich halt eben:
Wenn meine "cpu" 4-6mal so viele Drawcalls erzeugt mit DX12 als vorher, dann heisst das doch im Wesentlichen die "cpu" arbeitet 4-6mal so viel an Draws als vorher. Also wo steckt da die Entlastung? Mit jedem zusätzlichen Drawcall geht doch Power verloren für den Code des Games selbst...
Das zweite Problem ist für mich: Wer organisiert das Ganze? Wenn jetzt plötzlich z.B. vier Kerne Drawcalls losfeuern. Irgendwo muss doch ein Manager/Critical path sein, der den Cores alle 16.6/33ms sagt: "Jetzt neuer Frame. Haut rein". Und muss nicht irgendwo ein gpu-Boss sein, der die Salven von DrawCalls sammelt und verteilt?
Was jetzt als AAA Games auf den Konsolen rausgehauen wird, stresst doch die Systeme schon voll, da kaum ein Game die 1080p/60Hz erreicht. Wo wird also abgespeckt werden müssen wenn man plötzlich viel mehr Drawcalls abfeuert?
laut den Messungen von Anandtech limierten da dann nicht mehr die Draw Calls sondern die Annahme auf GPU-Seite limitiert dann. die CPU Auslastung ist trotzdem geringer. Zudem können die Draw-Calls mit DX12 aus mehreren Threads abgegeben werden. Aktuell (DX11) passiert das noch nur aus einem Thread, d.h. gleichzeitig hat man eine Lastverteilung.
Bei beyond3d spekuliert man grad darüber das das vielleicht einer der Gründe ist warum die xbox one mehr als einen GCP hat. Was hier aber so abartig viele Draw-Calls bringen sollen ist ja die eigentliche Frage. Wenn die GPU am Limit läuft, hilft es ja eigentlich auch nicht mehr wenn sie doch weiterhin Draw-Calls annehmen kann.
So oder so scheint da die CPU ordentlich entrümpelt zu werden und die CPU Ressourcen können endlich "sinnvoll" eingesetzt werden.

einer Vorteile das die Draw-Calls jetzt schneller gesendet werden können ist ja auch das mehr sie näher an der Framezeit losschicken kann und nicht so weit im vorraus verschicken muss. Wenn du vohrer fast die hälfte der frame-rechenzeit mit draw-calls verschwendet hast, hast du jetzt einfach mehr zeit für andere aufgabe bzw. kannst einfach mehr Draws in einen Frame stecken (bei trotzdem noch verringerter Sendezeit/Verarbeitungszeit)

An dem Bild sieht man es recht schön, das hier bereits mit 2 Cores die GPU absolut limitiert. Einzige die Geforce 980 kann noch ein wenig mehr. Alle anderen fahren am Limit. http://images.anandtech.com/graphs/graph8962/71454.png
Die Frage ist jetzt natürlich ist die GPU vollkommen ausgelastet oder kann sie nur einfach nicht schnell genug Draw-Calls annehmen da nur diese eine Schnittstelle ausgelastet ist.
Das könnte ein Hinweis sein warum MS mehrere GCPs verbaut hat und hier besonderes Optmierungspotential sah um die CPU zu entlasten (laut Interview). Was es allerdings bring bei dem Rest der GPU ist eine andere Frage. Aber viellleicht will man auch sicher gehen das die GPU einfach zu jedem Zeitpunkt zu 100% ausgelastet sein kann ohne das vorher eine Flaschenhals sie davon ab hält.

Kartenlehrling
2015-02-10, 21:32:31
An dem Bild sieht man es recht schön, das hier bereits mit 2 Cores die GPU absolut limitiert. Einzige die Geforce 980 kann noch ein wenig mehr. Alle anderen fahren am Limit.

Ich bin zuerst auch darauf reingefallen, sie haben 2core mit einem i3(2/4) geteste und ein 4core mit einem i5 (4/4) also wird nur die HT verglichen im Test.
Ich hatte gedacht das ein 4core ein i7(4/8) ist, und wenn man mit echten i3 teste wird der kleiner L2 speicher wohl auch früher zumachen.

DirectX 12 Preview CPU Configurations (i7-4960X)
Configuration Emulating
6C/12T @ 4.2GHz Overclocked Core i7
4C/4T @ 3.8GHz Core i5-4670K
2C/4T @ 3.8GHz Core i3-4370

robbitop
2015-02-11, 09:34:09
Aber warum entscheiden sich so wenige Studios für Forward+?
Es gibt einen guten Grund für Defered Renderer. Man kann dort im Gegensatz zu einem konventionellen Forward Renderer sehr günstig viele Lichtquellen verwenden.
Forward+ versucht, das beste aus beiden Welten zu kombinieren - aber das geht nunmal nicht ohne Kompromisse. MSAA ist günstig, aber Lichtquellen sind sicher nicht ganz so günstig wie bei einem DR.

Ich finde das in RYSE SMAA in 1080p sauberer aussieht, als 1620p plus 2xSSAA. Denn hier sehe ich noch immer mehr Unruhe im vergleich zu SMAA. tSMAA ist aber auch kein Post AA. Ohne tSMAA würde ich es nicht spielen.

Was heißt "sauberer"? Sprichst du jetzt temporal oder spacial an?


tSMAA ist ein sehr gutes Verfahren. Aber es hat auch Schwächen:

- manche Kanten werden nicht geglättet (auch in Ryse) - insbesondere Kanten mit niedrigem Kontrast
- es rekonstruiert feine Details nicht (kommt in Ryse content bedingt kaum vor)
- es bringt etwas Unschärfe mit sich (die es aber absolut wert ist!)

Generell kann auch tSMAA echtes Anti-Aliasing nicht ersetzen. Zumindest nicht im Sinne der fehlenden Rekonstruktion.


RYSE ist allerdings das einzige moderne Videospiel, welches mich aktuell in der Bildqualität wirklich zufrieden stellt. Was die Bildqualität angeht, ist dieser Titel für mich das Maß aller Dinge. Andere Spiele haben entweder keine vernünftige AA-Auswahl, Ghosting oder Specular Aliasing.
Absolute Zustimmung. Richtig sauber sieht es aus, wenn man 2x2 SSAA + tSMAA @1440p (oder höher) einstellt. Läuft mit 30 fps auf meinem Titan SLI @1200 MHz System gerade so. Das Bild ist dabei wirklich richtig glatt, scharf und flimmerfrei. Eine Augenweide. Nochmal ein ganzes Stück besser als ohne SSAA.

Jupiter
2015-02-11, 10:46:58
Was heißt "sauberer"? Sprichst du jetzt temporal oder spacial an?

tSMAA reinigt das Bild von vielen potentiellen kleinen unruhigen Stellen, wie es SSAA nach meiner Ansicht mit Faktor 2 noch nicht zustande bringt.

tSMAA ist ein sehr gutes Verfahren. Aber es hat auch Schwächen:

- manche Kanten werden nicht geglättet (auch in Ryse) - insbesondere Kanten mit niedrigem Kontrast
[...]
- es bringt etwas Unschärfe mit sich (die es aber absolut wert ist!)

Generell kann auch tSMAA echtes Anti-Aliasing nicht ersetzen. Zumindest nicht im Sinne der fehlenden Rekonstruktion.

Deshalb finde ich es hervorragend, wenn tSMAA im Spiel mit SSAA kombiniert werden kann. Es ist wie du es bereits gesagt hast ein echtes Anti-Aliasing und es erhöht subjektiv die Bildschärfe. tSMAA mit SSAA hat eine höhere Bildschärfe als tSMAA allein. Bei 2xSSAA würde ich für mich persönlich bereits das r_PostAASharpening von 0.2 (was der vordefinierte Standardwert ist) auf 0.0 setzen.

- es rekonstruiert feine Details nicht (kommt in Ryse content bedingt kaum vor)

Das ist korrekt. Bei anderen Videospielen würde dieser Nachteil mehr Gewichtung haben.

Absolute Zustimmung. Richtig sauber sieht es aus, wenn man 2x2 SSAA + tSMAA @1440p (oder höher) einstellt. Läuft mit 30 fps auf meinem Titan SLI @1200 MHz System gerade so. Das Bild ist dabei wirklich richtig glatt, scharf und flimmerfrei. Eine Augenweide. Nochmal ein ganzes Stück besser als ohne SSAA.

Exakt. In Kombination ist die Bildqualität natürlich am besten. Das "kostenlose" tSMAA macht ironischerweise nach meiner Ansicht nach die meiste Arbeit. Trotzdem gibt es gerede für die welche die perfekte Bildqualität suchen noch allerhand Gründe, "zusätzlich" SSAA hinzuzuschalten. Ich spiele meist auch mit tSMAA und SSAA. Mein System (GTX 970) reicht allerdings nur für 1,5SSAA.

tSMAA würde ich wie bereits geschrieben nie deaktivieren. Wenn Spieleentwickler in der Produktion auf das Specular Aliasinung achten würden und dann solch eine Kantenglättung wie tSMAA in ihre Spiele implementieren. Dann wären vermutlich über 95% der Konsolenspieler in der Bildqualität unter FullHD absolut zufrieden. RYSE sieht am PC allein mit den kostenlosen SMAA sauberer aus als jeden Konsolen-Actiontitel, welchen ich auf der PlayStation 4 besitze oder gesehen habe. Die unter tSMAA entstandene Unschärfe würden die meisten Spieler auf Konsolen wegen des Abstandes zum Fernseher nicht einmal wahrnehmen. Nun bin ich auf The Order 1886 gespannt. Das scheint was die Bildqualität angeht insbesondere für ein Konsolenspiel ziemlich gut zu sein.

robbitop
2015-02-11, 11:02:08
Was ich aus P/L Gründen auch interessant finde ist SMAA 4x. Es enthält neben temporalem SMAA auch noch 2x Multisampling. Damit hat man einen rekonstruierenden Anteil. Wird aber leider nur sehr sehr selten angeboten (z.B. Crysis 3).

Kartenlehrling
2015-02-11, 11:55:08
Ihre diskutiert aber schon noch was unter Console geht?

Xbox One/Playstation 4: technische Spekulation und Vergleich

Jupiter
2015-02-11, 12:08:33
Ihre diskutiert aber schon noch was unter Console geht?

RYSE nutzt auf der Xbox One SMAA. Hier wird über mögliche Bildqualitätssteigerungen diskutiert. SMAA mit einen zweifachen Anteil an MSAA wäre, was die Performance betrifft, im Vergleich zu SSAA (1,5xSSAA entspricht etwa 1620p) gerade im Hinblick auf mögliche Videospiele auf Konsolen besser. Dies wurde bereits für den PC durch medium TXAA und SMAA 4x in Crysis 3 realisiert und es wäre wünschenswert, wenn plattformübergreifend mehr Entwickler dieser Idee folgen würden.

Editiert und danke an robbitop.

robbitop
2015-02-11, 12:42:25
Durch TXAA und SMAA 4x. ;)

Coda
2015-02-11, 14:33:07
RYSE nutzt auf der Xbox One SMAA. Hier wird über mögliche Bildqualitätssteigerungen diskutiert. SMAA mit einen zweifachen Anteil an MSAA wäre, was die Performance betrifft, im Vergleich zu SSAA (1,5xSSAA entspricht etwa 1620p) gerade im Hinblick auf mögliche Videospiele auf Konsolen besser. Dies wurde bereits für den PC durch medium TXAA und SMAA 4x in Crysis 3 realisiert und es wäre wünschenswert, wenn plattformübergreifend mehr Entwickler dieser Idee folgen würden.

Editiert und danke an robbitop.
Ryse benutzt kein MSAA. Null. Ist viel zu teuer.

robbitop
2015-02-11, 14:36:25
Er schreibt doch nirgends, dass MSAA durch Ryse unterstützt wird.

Coda
2015-02-11, 21:30:07
Dann braucht es nur DX10.1, k.a. das ist so alt, damit muss ich much hoffentlich nicht mehr rumschlagen :)
Geschenkt. Wollte es nur anmerken.

Er schreibt doch nirgends, dass MSAA durch Ryse unterstützt wird.
Ja, sorry, hab's falsch gelesen.

Übrigens finde ich nicht, dass SMAA kein "richtiges" AA ist. Durch den temporalen Anteil stehen da tatsächlich mehr Informationen zur Verfügung zur Bildglättung. Und im eigentlichen Sinne ist sogar alles was Kanten entfernt Anti-Aliasing.

robbitop
2015-02-12, 11:52:27
http://www.pcgameshardware.de/Evolve-PC-258203/Specials/Test-Benchmarks-1150387/

Mal runter scrollen. Schönes Beispiel. Da sieht man sehr gut, wie temporal SMAA eben nicht greift. Bei niedrigen Kontrasten und hinsichtlich fehlender Fähigkeit zur Rekonstruktion.
Es ist immer gut auch echtes Anti-Aliasing (im Sinne echter höherer Abtastung) zumindest mit dabei (im Mix) zu haben. TXAA greift hier durch den MSAA Anteil.
Eine Kombination mit SSAA und/oder MSAA (SMAA 4x) wäre hier besser.

DinosaurusRex
2015-02-12, 15:49:02
Ich mal nach ein paar Fachbegriffen gegoogelt, die hier in den Raum geworfen wurden, und dabei bin ich auf die Information gestoßen, dass die Performance beim Berechnen extrem vieler Lichtquellen in einem Clustered Forward Rendererer praktisch genau so schnell ist wie bei einem Deferred Renderer. Also das bei wenigen bis mittelvielen Lichtquellen Deferred Rendering erheblich schneller ist, aber das dieser Performance-Vorteil zunehmendst verschwindet, je mehr Lichtquellen berechnet werden sollen. Ist das richtig? Weil dann wäre Forward+ (oder was dem nachfolgt) mittel- bis langfristig ja vielleicht doch eine interessante Lösung. Und vor allem für VR wäre Multisampling ja ohnehin von großem Nutzen.

del_4901
2015-02-12, 16:00:36
Ist das richtig?
Nein, allein die Menge an ShaderPermutation macht es aus Softwaretechnischer Sicht unattraktiv. Am Rande bemerkt stinkt ein klassischer DFR gegen einen Tile Based DFR eh ab.

DinosaurusRex
2015-02-13, 16:23:21
Ich verstehe einfach nicht, was Shader Permutationen sind. Aber ich glaube das liegt daran, dass mir elementares Grundwissen für diese Dinge fehlt. Ich hab mir das jetzt mal so zusammengereimt:

Forward Rendering bekommt die Geometrie-Daten und auf jedes Objekt (und per Lichtquelle?) werden dann Vertex Shader, Geomety Shader und Fragment Shader (Lighting?) angewendet. Das wird dann innerhalb der Graphics Pipeline für jedes Objekt (und Lichtquelle) in linearer Reihenfolge abgearbeitet und am Ende kriegst du dein Render Target. Bei Forward+ wird die Beleuchtung nicht einzeln pro Objekt (und Lichtquelle) angewand, sondern in einem Compute Shader, der auf die gesamte Szene wirkt.

Deferred Rendering funktioniert dann dahingehend anders, dass die Geometrie erst abgearbeitet wird, aber erstmal gar nichts beleuchtet wird. Das passiert nämlich erst, wenn die Szene, bevor sie zum Render Target wird, nochmal als Multiple Render Targets in puncto Depth, Normals und Color bearbeitet wird. Bei Tiled Based Deferred Rendering wird das Bild dann nochmal in kleine Kacheln unterteilt, für die der letzte Schritt dann einzeln und entkoppelt stattfindet.

Hab ich das mehr oder weniger richtig verstanden? Und Shader Permutationen sind dann einfach nur die Reihenfolge, in der die einzelnen Shader abgearbeitet werden, damit das Render Target entsteht. Und das ist dann bei Forward(+) Rendering deswegen so nervig, weil moderne GPUs frei programmierbar sind, was dem Grafikprogrammierer zwar einerseits mehr Möglichkeiten eröffnet, aber andererseits auch viel Arbeit und Komplexität mit sich bringt. Der Schritt, die Szene erst als Multiple Render Targets zu bearbeiten, macht die Sache dann einfacher.

Aber würde das nicht auch bedeuten, dass Forward+ Rendering für Grafikprogrammierer, die entweder keinen Bedarf für Freizeit haben oder einfach nur phänomenale Coding Skills besitzen, zwar viel Aufwand und Schwierigkeiten mit sich bringt, aber dennoch die gleichen oder ähnliche Ergebnisse ermöglicht wie Deferred Rendering?

---

Gibt's eigentlich auch Tile Based Forward+ Rendering? Könnte man damit MultisamplingAA je nach Kachel anwenden? Also mit Foveated Rendering wäre das doch sicher cool kombinierbar.

RLZ
2015-02-13, 17:51:19
Ich verstehe einfach nicht, was Shader Permutationen sind. Aber ich glaube das liegt daran, dass mir elementares Grundwissen für diese Dinge fehlt. Ich hab mir das jetzt mal so zusammengereimt:
Du hast da versucht das Thema ohne ein notwendiges Fundament zu verstehen.

Wenn dich das Thema interessiert, solltest du dich grundlegender einlesen.
Es macht nicht den geringsten Sinn dir das in einem Forumspost zu erklären zu wollen.

Atma
2015-02-14, 14:29:57
Face-OFF: Evolve

http://www.eurogamer.net/articles/digitalfoundry-2015-evolve-face-off

PS4 und XB1 mit halbsekündigen Bildfreezes und PS4 mal wieder quasi kein AF. Warum ist AF so ein Problem?

dildo4u
2015-02-14, 14:58:57
Muss was im SDK sein wenn Games wie Strider kein AF haben liegt es vermutlich nicht an der GPU Last/Bandbreite.Sogar Ubisoft hat es bei FC4,The Crew,AC Unity hinbekommen.

http://www.neogaf.com/forum/showpost.php?p=152050133&postcount=149

DinosaurusRex
2015-02-14, 19:48:32
PS4 mal wieder quasi kein AF. Warum ist AF so ein Problem?

Im NeoGAF hat das jemand folgendermaßen erklärt:

I really wish the idea that AF has no performance impact would die because it DOES have an effect on performance.
The main ressource used by AF is texture bandwith. AF works by doing many more sampling than trilinear filtering so that's more bandwith and potential cache thrashing for bigger textures.
When a shader samples a texture, there is a latency before the shader can actually use the result. To avoid having the GPU doing nothing while waiting for a texture sample, shader compilers will fill the gap with arithmetic operations from independant code branches if there are any available.
What it means is that if there is no arithmetic operations to be processed in between texture samples, the GPU will have to wait for them. That's what you would call being "texture bound". In these cases, if you add more samples (like AF does), GPU time will increase.

What people have to understand is that this is highly engine/shader dependant. In an engine where most shaders are ALU bound, adding more texture samples won't impact performance at all because there will always be stuff to do during the wait, but in the case where you are texture bound, it will.
Another thing to note is that PC shader compilers are pretty shitty, resulting in much less ALU optimization, so that's also more arithmetic operations to hide latency with.

That being said, there is nothing magic with implementing AF on PS4. It's only a flag to setup on the samplers like on DirectX. So that's only a dev's decision/mistake if it's missing in a game.

Angesprochen auf die Xbox One:


The point is that it's not simplier on the xbox. Like I said in my last sentence. A game lacking AF is only due to the developer decision or mistake.

And for those wondering if there is a performance advantage on the XBone due to ESRAM, there should be none. Material textures won't ever fit in ESRAM for your typical game (we are talking of hundreds of MBs of texture here, versus the 32MB of ESRAM).

Link1 (http://www.neogaf.com/forum/showpost.php?p=152064539&postcount=344), Link2 (http://www.neogaf.com/forum/showpost.php?p=152068931&postcount=376)

Mal angenommen das stimmt, würde sich für die Entwickler bei einer (annähernden) GPU-Vollauslastung mit ganz viel asynchronem GPGPU dann auch wieder (deutlich) besserers AF lohnen? Die PS4 bringt ja dafür zahlreiche Queues und Compute Engines mit. Oder verstehe ich das schon wieder falsch?

---

Wobble Bottle 1886:


http://i.giphy.com/yoJC2Iwkuop9rXVia4.gif


Ich kann zwar nicht einschätzen, wieviel Aufwand das ist, aber das ist so 'ne Sache, bei der ich mich Frage, ob sie den Aufwand dann auch wirklich wert ist. ;)

del_4901
2015-02-14, 21:32:41
Ich verstehe einfach nicht, was Shader Permutationen sind. Aber ich glaube das liegt daran, dass mir elementares Grundwissen für diese Dinge fehlt. Ich hab mir das jetzt mal so zusammengereimt: Du vermischt einfach viel zuviele Sachen, und bringst vieles durcheinander, deswegen zitier ich nicht mehr. Ich wuerde auch erstmal nicht in VS, PS, GS, HS, DS, CS denken das aendert sich eh alle Tage, vereinfacht gibt es nur Compute- und Graphicspipelines. Tile Deferred Render nutzen gewoehnlicherweise eine Computepipeline fuer die Beleuchtungs Phase. Forward+ ist bereits "Tile Based" und macht das Lighting zusammen mit der Materialberechnung in einer Graphicpipeline. PipelineShaderPermuatationen sind einfach die Gesamtheit aller Shader die man braucht und bei F+ sind das quadratisch mehr. Beispiel M verschiedene Materialien und L verschiedene Lichttypen ergibt bei F+: M * L! Anzahl Pipelines bei TDFR sind es M + L! und ein klassischer DFR hat sogar nur M + L.

][immy
2015-02-14, 23:30:17
also das AF Problem ist echt seltsam. Das hier wurd grad in beyond3d geposted. Ist schon seltsam das sogar ein PS3-spiel das nicht unbedingt die sichtbar größten GPU-Aufgaben stellt auf der PS3 AF nutzt, auf der PS4 jedoch nicht:


https://farm4.staticflickr.com/3947/15485977828_c7210f2842_o.gif



Da es inzwischen keine Seltenheit mehr ist, woher kommt das?
Treiber-Relikt aus der alten ATi-Zeit von man noch auf ein stark Winkelabhängiges AF gesetzt hat (+ bri-AF) um Leistung einsparen zu können?
Das würde aber leider auch nicht erklären warum es in anderen Titeln so problemlos klappt.
Mir würde nur Murdered Soul einfallen, wo es scheinbar absichtlich geopfert wurde um in die nähe von 60fps (vs 30fps auf den anderen Konsolen) zu kommen.


das bei Evolve scheinbar bei der PS4 häufiger Schatten fehlen, dürfte hingegen wohl eher einem Bug zuzuschreiben zu sein. Macht ja sonst keinen Sinn das sie mal da sind und mal nicht.

Martin K.
2015-02-14, 23:38:31
The Order sieht schon wirklich klasse aus. Für mich absolute Referenz und wenn ich sehe wieviele Details die wieder eingebaut haben. Noch nie hat ne Weinflasche in nem Spiel so schön gewackelt. Gab's so ein Detail überhaupt schon einmal in nem Spiel?

Bin ja gespannt auf die Full, freue mich auf den 20.2. :up:

Lightning
2015-02-15, 12:47:09
[immy;10523904']Treiber-Relikt aus der alten ATi-Zeit von man noch auf ein stark Winkelabhängiges AF gesetzt hat (+ bri-AF) um Leistung einsparen zu können?

Das lag nicht am Treiber, da hat man schon an der Hardware gespart. Mal abgesehen daovn, dass winkelabhängigkeit hier ja gar nicht das Problem ist.

Es gab ja iirc schon mal Entwicklerkommentare zu dem Thema, hier ein neuer:

http://i.imgur.com/4X3TdR7.png

Also wahrscheinlich wirklich nur ein softwareseitiges Problem.

Gipsel
2015-02-15, 12:53:24
Es gab ja iirc schon mal Entwicklerkommentare zu dem Thema, hier ein neuer:

http://i.imgur.com/4X3TdR7.png

Also wahrscheinlich wirklich nur ein softwareseitiges Problem.Daß irgendeine auch nur halbwegs respektable Engine auf der PS4 kein AF unterstützen soll, halte ich für ein Gerücht. Da sitzt das Problem wohl eher vor dem Monitor oder liegt in für uns nicht nachvollziehbaren Performanceabwägungen. :rolleyes:

Slashman
2015-02-15, 12:54:11
[immy;10523904']also das AF Problem ist echt seltsam. Das hier wurd grad in beyond3d geposted. Ist schon seltsam das sogar ein PS3-spiel das nicht unbedingt die sichtbar größten GPU-Aufgaben stellt auf der PS3 AF nutzt, auf der PS4 jedoch nicht:


https://farm4.staticflickr.com/3947/15485977828_c7210f2842_o.gif



Da es inzwischen keine Seltenheit mehr ist, woher kommt das?
Treiber-Relikt aus der alten ATi-Zeit von man noch auf ein stark Winkelabhängiges AF gesetzt hat (+ bri-AF) um Leistung einsparen zu können?
Das würde aber leider auch nicht erklären warum es in anderen Titeln so problemlos klappt.
Mir würde nur Murdered Soul einfallen, wo es scheinbar absichtlich geopfert wurde um in die nähe von 60fps (vs 30fps auf den anderen Konsolen) zu kommen.


das bei Evolve scheinbar bei der PS4 häufiger Schatten fehlen, dürfte hingegen wohl eher einem Bug zuzuschreiben zu sein. Macht ja sonst keinen Sinn das sie mal da sind und mal nicht.

Da es auf der Xbox One ja Funktioniert und auch auf einigen anderen PS4 Spielen (Infamous SS und co) würde ich das eher auf den Entwickler schieben.
http://static.gamespot.com/uploads/original/78/787786/2477569-infamous_secondson_nospoil-5.png
http://static.gamespot.com/uploads/original/349/3494045/2483969-bjpvmypimaab-z9.jpg
Klar kann es sein das die API da ihre Probleme hat, aber Sony und MS arbeiten ja beide ständig an ihren APIs. War es bei der PS3 am Anfang besser? Nein die API wurde so oft verändert, verbessert und Reserven wurden neu verteilt, das am Ende die PS3 mehr konnte als 2006/2007.

Also an der Hardware kann es wohl nicht liegen, da alle PCs mit GCN 1.1 GPU da auch keine Probleme haben und es auch ein Treiber Bug sein kann.

Lightning
2015-02-15, 13:14:53
Daß irgendeine auch nur halbwegs respektable Engine auf der PS4 kein AF unterstützen soll, halte ich für ein Gerücht. Da sitzt das Problem wohl eher vor dem Monitor oder liegt in für uns nicht nachvollziehbaren Performanceabwägungen. :rolleyes:

Stimmt auch wieder, vor allem, da die betroffenen Spiele ja nicht nur irgendwelche eigenentwickelten Engines nutzen (ich sehe da u.a. UE3 und CryEngine).
Dennoch erscheint der reine Zufall doch irgendwie unwahrscheinlich. Es sind zwar nur wenige Spiele betroffen, bei denen es hinsichtlich AF Unterschiede zwischen Xbox One und PS4 gibt; aber wenn, dann scheint im Vergleich immer auf der PS4 das AF zu fehlen.

Gipsel
2015-02-15, 13:17:02
Klar kann es sein das die API da ihre Probleme hat, aber Sony und MS arbeiten ja beide ständig an ihren APIs. War es bei der PS3 am Anfang besser? Nein die API wurde so oft verändert, verbessert und Reserven wurden neu verteilt, das am Ende die PS3 mehr konnte als 2006/2007.Wie soll das an der API liegen? Was für ein Texturfilter benutzt wird, wird über ein paar (gut dokumentierte) Bits im Sampler Resource Descriptor gesteuert. Wie soll die API denn das versieben? Das ist ziemlich unmöglich, wenn da überhaupt etwas läuft.

Das liegt rein im Verantwortungsbereich der Entwickler.

del_4901
2015-02-15, 13:31:48
Das ist einfach nur ein Bug, da hat entweder ein Artist vergessen es anzuschalten oder ein Coder hats kaputt gemacht und QA hats am Ende nichtmal bemerkt. Kommt vor insbesondere wenn alle wenig Schlaf haben.

Sternenschimmer
2015-02-15, 13:43:27
Wurde denn schon einmal so ein "Bug" gefixt, das heisst AF nachträglich per Patch aktiviert?

Crazy_Bon
2015-02-15, 13:49:29
Wurde denn schon einmal so ein "Bug" gefixt, das heisst AF nachträglich per Patch aktiviert?
Ich glaube bei The Evil within für die PS4, die Releaseversion war echt´ne technsche Krücke.

][immy
2015-02-15, 20:33:44
Wurde denn schon einmal so ein "Bug" gefixt, das heisst AF nachträglich per Patch aktiviert?
also bei the evil within weiß ich es nicht aber ansonsten wurde da nie etwas nachgepatched. Und außer bei Murdered Soul (wegen der >30fps vs 30) gab es nirgends einen ersichtlichen Grund warum es fehlen sollte. Patches kosten zwar auch Geld aber da es vermutlich für die meisten so oder so Patches gab, verstehe ich da nicht warum es nicht nachaktiviert wurde. Aber eventuell hat es damit zu tun das die QS-Phasen bereits abgeschlossen wurden und man kein potentielles Performance-Problem reinpatches wollte.

DinosaurusRex
2015-02-16, 01:36:19
Das ist einfach nur ein Bug, da hat entweder ein Artist vergessen es anzuschalten oder ein Coder hats kaputt gemacht und QA hats am Ende nichtmal bemerkt. Kommt vor insbesondere wenn alle wenig Schlaf haben.

Aber warum wird das denn so häufig auf der PS4 "vergessen" oder "kaputt gemacht"? Ich kann mich nicht daran erinnern, dass auch nur ein einziges X1-Spiel durch fehlendes AF hervorgestochen ist.

(Vielleicht liegt's ja an Digital Foundry, keine Ahnung)

Hunter93
2015-02-16, 22:42:37
Aber warum wird das denn so häufig auf der PS4 "vergessen" oder "kaputt gemacht"? Ich kann mich nicht daran erinnern, dass auch nur ein einziges X1-Spiel durch fehlendes AF hervorgestochen ist.

Sniper Elite 3
http://images.eurogamer.net/2013/articles//a/1/6/9/1/6/6/5/XO_016.bmp.jpg/EG11/quality/90/format/jpg
http://images.eurogamer.net/2013/articles//a/1/6/9/1/6/6/5/PS4_016.bmp.jpg/EG11/quality/90/format/jpg

Hieß dazu ...
"Certain texture assets are blurrier on Xbox One - which Rebellion says is down to lower anisotropic filtering, not lower quality assets (and the good news is that it may be patched)."
http://www.eurogamer.net/articles/digitalfoundry-2014-sniper-elite-3-face-off

AntiTheist
2015-02-16, 23:12:13
Sniper Elite 3
http://images.eurogamer.net/2013/articles//a/1/6/9/1/6/6/5/XO_016.bmp.jpg/EG11/quality/90/format/jpg
http://images.eurogamer.net/2013/articles//a/1/6/9/1/6/6/5/PS4_016.bmp.jpg/EG11/quality/90/format/jpg

Hieß dazu ...
"Certain texture assets are blurrier on Xbox One - which Rebellion says is down to lower anisotropic filtering, not lower quality assets (and the good news is that it may be patched)."
http://www.eurogamer.net/articles/digitalfoundry-2014-sniper-elite-3-face-off
auch die Schattenqualität ist deutlich niedriger, und ein komischer glow ist am Char zu sehen.

Coda
2015-02-17, 01:04:56
Stimmt auch wieder, vor allem, da die betroffenen Spiele ja nicht nur irgendwelche eigenentwickelten Engines nutzen (ich sehe da u.a. UE3 und CryEngine).
Dennoch erscheint der reine Zufall doch irgendwie unwahrscheinlich. Es sind zwar nur wenige Spiele betroffen, bei denen es hinsichtlich AF Unterschiede zwischen Xbox One und PS4 gibt; aber wenn, dann scheint im Vergleich immer auf der PS4 das AF zu fehlen.
Es ist kein Hardware-Problem, ich hab nachgeschaut.

y33H@
2015-02-17, 08:09:02
Woran liegt es dann?

M4xw0lf
2015-02-17, 08:39:20
Geht möglicherweise bei der PS4 das Grafikbudget öfter mal schon komplett für die FullHD-Auflösung drauf, sodass das AF wegrationalisiert wird?
(Die Xbone kommt ja oft mit Auflösungen daher, die gegenüber 1080p proportional noch kleiner sind, als die ~30-40%, die ihre GPU Leistungsrückstand auf die PS4 hat; also hätte sie innerhalb dieser Auflösung noch mehr Spielraum, die zb für AF verwendet werden können.)
/Milchmädchen²

DinosaurusRex
2015-02-17, 09:43:21
Das hier ist der Tweet eines Entwicklers von Tripwire Interactive (Red Orchestra, Killing Floor):

http://i.imgur.com/4X3TdR7.png

Der bezieht sich auf diesen Thread: NeoGAF - PS4's AF issue we need answers! (http://www.neogaf.com/forum/showthread.php?t=992156)

Cort Stratton wurde vor knapp einem Jahr auch darauf angesprochen, der sieht die Schuld auch beim Entwickler: “No hardware/SDK issues that I’m aware of. Sounds like a question for the developer.” (http://gamingbolt.com/ps4-ice-team-programmer-gpu-has-no-problems-handling-16xaf-new-asm-for-faster-offline-asset-baking)

Die ganzen Pros scheinen ja alle der Meinung zu sein, dass es am Entwickler liegt. Da zeichnet sich mittlerweile ein klares Bild ab. Die Frage ist halt nur, warum das gerade bei der PS4 so häufig vorkommt und wie man das in Zukunft vermeiden kann.

Air Force One
2015-02-17, 11:10:59
Was kostet den AF bei den Konsolen?
Beim Desktop doch praktisch nichts.

robbitop
2015-02-17, 11:23:07
Das kommt immer auf den Bottleneck an. Wenn die Einheiten gut balanciert ausgelastet sind, muss bei AF der Rest der Pipeline warten, bis der TMU fertig gefiltert hat. Im PC gibt es so viele GPUs mit unterschiedlichsten TEX:ALU Verhältnissen, dass dort eine optimale Auslastung unwahrscheinlich ist. Diese Beobachtung vom PC lässt sich auf ein Konsolenspiel nicht immer übertragen - insbesondere wenn die Entwickler alles zu holen versuchen, was die HW hergibt.

aufkrawall
2015-02-17, 11:28:44
Was kostet den AF bei den Konsolen?
Beim Desktop doch praktisch nichts.
Der Unterschied zwischen kein AF und 16:1AF kann schon spürbar sein (wenn nicht stark ALU-limitiert).
Zwischen 4:1 und 16:1 ist das aber eigentlich nie der Fall.

Hab, was das angeht, zwischen Hawaii, GK110 und GM204 keinen signifikanten Unterschied bemerkt.

Coda
2015-02-17, 16:03:43
Das liegt daran, dass das AF adaptiv ist. Eine Verzerrung von 4:1 kommt viel viel häufiger vor als eine von 16:1.

aufkrawall
2015-02-17, 17:22:17
Für mich um so unverständlicher, dass dann die Artists nicht durchgängig auf 8:1 AF setzen.

Coda
2015-02-17, 18:27:37
Weil's teuer ist? Das haben wir doch gerade etabliert. 8:1/16:1 ist nur nicht viel teurer als 4:1.

aufkrawall
2015-02-17, 18:38:04
Ich seh das eher wie ein Mindestmaß an Auflösung, das nicht verhandelbar ist.
Keine Ahnung, was die TMUs in modernen Konsolenspielen sonst so treiben, aber selbst auf den lahmsten PCs macht es kaum Sinn, auf 8:1AF zu verzichten.

Guest83
2015-02-17, 21:41:24
The Order sieht schon wirklich klasse aus. Für mich absolute Referenz und wenn ich sehe wieviele Details die wieder eingebaut haben.
Und deshalb darf man manche Szenen gleich zweimal spielen sehen!


https://pbs.twimg.com/media/B-A8v9-IgAAi00R.jpg
https://pbs.twimg.com/media/B-A8wGRIUAA0n1Y.jpg

Rente
2015-02-17, 23:49:31
Und das hat jetzt genau was mit der optischen Qualität zu tun?

gnomi
2015-02-19, 10:57:17
Klar, Content Recycling hat ja auch was mit Qualität zu tun.
Es geht ja um die erlebte Qualität beim Spielen.
Beispielsweise kann die Rage Engine mit Abwechslung bei den Texturen punkten, obwohl es im Gegenzug bei deren Auflösung und Speicherverbrauch wieder Nachteile gibt.
Überall gibt es also Trade Offs. Entwicklungszeit, Produktionskosten, Hardware- und Engine Limitierungen und Ziele etc..
Das wirkt sich alles aus, wenn man sich ein Spiel genau anschaut.
Aber The Order sieht muss ich sagen schon erstklassig aus.
Nach Ryse das nächste Spiel, was sehr filmisch im Look gehalten ist.
Trotzdem finde ich die Balken und die Sub 1080P Auflösung mies.
Eine PC Version würde da gleich mehr Spaß machen. (siehe Ryse)

Coda
2015-02-19, 12:35:42
Ich seh das eher wie ein Mindestmaß an Auflösung, das nicht verhandelbar ist.
Keine Ahnung, was die TMUs in modernen Konsolenspielen sonst so treiben, aber selbst auf den lahmsten PCs macht es kaum Sinn, auf 8:1AF zu verzichten.
Wenn du einst, dass 10-15% weniger Leistung keinen Unterschied machen, bitte.

aufkrawall
2015-02-19, 12:40:15
Wenn du einst, dass 10-15% weniger Leistung keinen Unterschied machen, bitte.
Für die Spielbarkeit ja nicht wirklich, die min-fps sind meist auch eher durch ALU- oder CPU-Limit bestimmt.
15% kommt mir auch viel vor, man muss nicht HQ filtern.

robbitop
2015-02-19, 12:45:28
Das ist eine Frage der Auslastung/Optimierung. Das kannst du mit dem PC nicht vergleichen. Wenn eine fixierte Plattform mit festem TEX:ALU Verhältnis vorhanden ist, wird ein guter Entwickler schon dafür sorgen, alle Ressourcen gleichmäßig auszunutzen so gut es geht.

Auf dem PC gibt es so viele verschiedene TEX:ALU Verhältnisse, dass eine gleichmäßige Auslastung unwahrscheinlich ist. Wenn in einem solchen Fall die TMUs Däumchen drehen, kostet AF natürlich nicht viel. Hinzu kommen andere Flaschenhälse der GPU und andererseits, die dazu führen, dass die TMUs der GPU nicht zum Bottleneck werden.

Ist aber wirklich alles in etwa gleich gut ausgelastet, kostet es natürlich mehr.

dildo4u
2015-02-19, 12:57:24
Endlich mal HQ Gameplay von The Order.


http://www.gamersyde.com/download_the_order_1886_bridge_battle-34090_en.html

Leider lädt Sony Heute sonst fast alles nur noch auf Youtube hoch,Gamersyde wird aber noch mehr gute Video's liefern.

aufkrawall
2015-02-19, 13:00:13
Ich habe das Bedürfnis, SweetFX auf das Video anzuwenden.
Na ja, vielleicht kommt dieses Grau-Braun auf einem Fernseher mit etwas Sharpening besser rüber.

Tesseract
2015-02-19, 13:34:11
Endlich mal HQ Gameplay von The Order.


http://www.gamersyde.com/download_the_order_1886_bridge_battle-34090_en.html

Leider lädt Sony Heute sonst fast alles nur noch auf Youtube hoch,Gamersyde wird aber noch mehr gute Video's liefern.

extrem unbedeindruckend. diese tunnelblickoptik (letterbox+extrem niedriges FOV+blur+wagglecam) ist einfach nur schrecklich und das gameplay sieht auch ultragenerisch aus. das ist ja fast schon ein rail shooter. meh.

Lurtz
2015-02-19, 14:34:06
extrem unbedeindruckend. diese tunnelblickoptik (letterbox+extrem niedriges FOV+blur+wagglecam) ist einfach nur schrecklich und das gameplay sieht auch ultragenerisch aus. das ist ja fast schon ein rail shooter. meh.
6,5/10 - IGN
6/10 - Videogamer
No - Kotaku
2/5 - Giant Bomb
5/10 - Gamespot
5,5/10 - Polygon

PS4 has no games :usad: Vielleicht schaffts Naughty Dog im Winter ein gutes Spiel zur Techdemo zu bauen ;)

drkohler
2015-02-19, 14:38:59
extrem unbedeindruckend. diese tunnelblickoptik (letterbox+extrem niedriges FOV+blur+wagglecam) ist einfach nur schrecklichextrem unbeeindruckend. deine Kritik.
Was hat letterbox mit tunnelblick zu tun? Im 19. Jhdt war die Sichtweite im _echten_ London meist etwa 50Meter, also wäre eine niedrige FOV sogar historisch korrekt...

Dass das Spiel durchfallen wird, war ja schon seit mindestens einem Jahr vorhersehbar. Mit Müh' und Not haben sie letzten Endes die Spieldauer auf knapp 8-10 Stunden aufgebohrt dank Quicktime Filmchen. Ryse reloaded. Damit kommt man heutzutage einfach nicht mehr durch beim zahlenden Publikum.

Snafu
2015-02-19, 14:39:34
Spielerisch (wie erwartet) eher nicht gut aber technisch kann man doch kaum etwas gegen The Order sagen. Es kommt sehr nah an CGI cutscenes ran. Der filmische look (ich meine nicht die fps) gefällt natürlich nicht jedem.

http://i3.minus.com/i4u9EUcHIuhnW.jpg

http://i2.minus.com/ipREHeRvQuwiO.jpg

Screens aus diesem Neogaf Thread http://www.neogaf.com/forum/showthread.php?t=716795&page=340

Sven77
2015-02-19, 14:41:09
6,5/10 - IGN
6/10 - Videogamer
No - Kotaku
2/5 - Giant Bomb
5/10 - Gamespot
5,5/10 - Polygon

PS4 has no games :usad: Vielleicht schaffts Naughty Dog im Winter ein gutes Spiel zur Techdemo zu bauen ;)

a dreary, joyless lump of a game.

Alles Hater ;D Und dieser Scheiss wird von den Fanboys bis aufs Blut verteidigt, gleiches Spielchen wie bei Ryse

Spielerisch (wie erwartet) eher nicht gut aber technisch kann man doch kaum etwas gegen The Order sagen. Es kommt sehr nah an CGI cutscenes ran.

1980x800 kann man dagegen sagen :rolleyes:

y33H@
2015-02-19, 14:49:32
1920 x 800 mit 4x MSAA wohlgemerkt ;-)

Sven77
2015-02-19, 14:51:22
1920 x 800 mit 4x MSAA wohlgemerkt ;-)

yay :uclap:

derF
2015-02-19, 14:53:21
Weil Braun realistischer ist.

http://tvtropes.org/pmwiki/pmwiki.php/Main/RealIsBrown

Snafu
2015-02-19, 15:02:57
Alles Hater ;D Und dieser Scheiss wird von den Fanboys bis aufs Blut verteidigt, gleiches Spielchen wie bei Ryse


1980x800 kann man dagegen sagen :rolleyes:

Das Spiel muss man nicht verteidigen und das tue ich auch gar nicht. Kaufen würde ich es nicht aber das gehate wegen der Auflösung und den 30 fps ist doch unnötig.
Die schwarzen Balken sind eine Designentscheidung. In 1080p würde es auch nicht besser aussehen. Eine höhere Auflösung kann man immer fordern, aber dafür muss man eben auf andere Dinge verzichten. Mit 4x MSAA ist AA kein großes Problem.

DinosaurusRex
2015-02-19, 15:25:30
extrem unbedeindruckend. diese tunnelblickoptik (letterbox+extrem niedriges FOV+blur+wagglecam) ist einfach nur schrecklich und das gameplay sieht auch ultragenerisch aus. das ist ja fast schon ein rail shooter. meh.

Ja und erst das referenzverdächtige Shading! Und Aliasing gibt es auch kaum... Igittigitt. Und die ganzen realistischen Cloth Physics! Einfach schrecklich! Der Entwickler scheint technisch aber mal nullkommanull auf dem Kasten zu haben. Lieber wieder DOTA anmachen und mit triple Titan downsamplen bis der Arzt kommt.

Finch
2015-02-19, 15:33:49
Also ich habe wirklich Spaß mit dem Spiel. Ich liebe die Waffen und das Setting. Die Story gefällt mir auch. Aber ich mag auch Ryse, Heavy Rain und Beyond two Souls. Vll. bin ich einfach zu anspruchslos.

DinosaurusRex
2015-02-19, 15:39:37
Vll. bin ich einfach zu anspruchslos.

Frag mal die Nörgler hier, ob sie The Order 1886 gespielt haben. Dann hast du deine Antwort. Call of Duty hat jahrelang Bestnoten von der Presse bekommen und es hat mir nie gefallen. Im Konsolenunterforum wurde Beyond trotz katastrophaler Reviews von den 3DCenter Usern über den grünen Klee gelobt, wenn ich mich richtig erinnere.

Ich hab The Order übrigens auch noch nicht gespielt.

dildo4u
2015-02-19, 15:39:53
The Order: 1886 Environments

http://www.gamersyde.com/download_the_order_1886_environments-34085_en.html

The Order: 1886 Cutscenes

http://www.gamersyde.com/download_the_order_1886_cutscenes-34082_en.html

The Order: 1886 Gunfights

http://www.gamersyde.com/download_the_order_1886_gunfights-34083_en.html

Framerate Test

http://youtu.be/B4ocPKdyD7Y

http://www.eurogamer.net/articles/digitalfoundry-2015-the-order-1886-performance-analysis?utm_source=twitter&utm_medium=social&utm_campaign=socialoomph

Coda
2015-02-19, 16:14:02
Für die Spielbarkeit ja nicht wirklich, die min-fps sind meist auch eher durch ALU- oder CPU-Limit bestimmt.
Du du 30 FPS anpeilst und nicht darunter fallen willst ist das verdammt viel.

Verstehst du nicht, mir schon klar.

aufkrawall
2015-02-19, 16:27:08
Ist doch jetzt an den Haaren herbeigezogen...
Es fallen häufig Spiele unter diese Marke (solltest du doch wissen) und obs jetzt stellenweise 30 oder 28 sind, ist für die Spielbarkeit vollkommen schnurz.

00-Schneider
2015-02-19, 19:11:01
Digital Foundry Performance Analysis: The Order: 1886

The Order: 1886 may well prove to be a highly divisive title - but for all its controversies, we're equally confident that it represents something very special, a sneak-peek at the future direction of real-time graphics on console hardware. Ready at Dawn's visual technology is simply immense: so good, so precise, so realistic that at times it's like you're playing a game that looks as good as a pre-rendered movie. This is a milestone in the development of next-gen visuals.
Implementing the very latest rendering technologies and integrating them with a superb level of consistency throughout the rendering pipeline, this is clearly a stunning visual showcase. Every element of the scene, from environmental materials to clothing, hair and skin is exceptionally rendered, beautifully lit according to how light interacts with their physical properties.
Performance is the icing on the cake, and an area where we had some concerns. Initial game footage we saw revealed some clear frame-rate issues - and even the 2014 Gamescom demo exhibited noticeable performance hiccups, despite the letterboxed 1920x800 rendering resolution. The final game is a world apart: Ready at Dawn aims for a locked 30fps and for the vast majority of the experience it doesn't deviate from the target, with most of the dropped frames occurring on cuts, making them totally unnoticeable. There are very rare performance dips during the most intense of combat scenes, but these are mild judged by the standard of the majority of 30fps titles.

http://www.eurogamer.net/articles/digitalfoundry-2015-the-order-1886-performance-analysis?utm_source=twitter&utm_medium=social&utm_campaign=socialoomph

-------------

Saubere Arbeit!

Monsta
2015-02-19, 19:12:57
Ist doch jetzt an den Haaren herbeigezogen...
Es fallen häufig Spiele unter diese Marke (solltest du doch wissen) und obs jetzt stellenweise 30 oder 28 sind, ist für die Spielbarkeit vollkommen schnurz.

Ich denke so einfach ist das nicht, wenn es in kritischen Situationen auf 28 fps fällt, sind es nach Abzug von im schlimmsten Fall 15% nur 23,8fps.
Das sollte schon stark auffallen.

Lord_X
2015-02-19, 19:13:11
Du du 30 FPS anpeilst und nicht darunter fallen willst ist das verdammt viel.
Verstehst du nicht, mir schon klar.
Musst du die Leute jetzt noch persönlich angreifen?

Coda
2015-02-19, 21:55:31
Ist doch jetzt an den Haaren herbeigezogen...
Es fallen häufig Spiele unter diese Marke (solltest du doch wissen) und obs jetzt stellenweise 30 oder 28 sind, ist für die Spielbarkeit vollkommen schnurz.
Nein, ist es nicht mit Vsync. Da fällst du dann nicht auf 28, sondern auf 20. Und die 49ms ruckler-frames merkst du extrem stark. Und da hilft auch triple-buffering nicht dagegen.

Und nein, kein Vsync ist keine Option.

Musst du die Leute jetzt noch persönlich angreifen?
Erfahrungswerte.

aufkrawall
2015-02-19, 22:07:05
Ich denke so einfach ist das nicht, wenn es in kritischen Situationen auf 28 fps fällt, sind es nach Abzug von im schlimmsten Fall 15% nur 23,8fps.
Das sollte schon stark auffallen.
Deshalb würd ich als trade-off hier und da die Auflösung von einigen Effekten und Schatten verringern.
Das wär mir wesentlich schärfere Texturen auf Distanz wert. Selbst in den Cutscenes, etwa bei GTA 5, sieht das ja teilweise grausig aus.

Nein, ist es nicht mit Vsync. Da fällst du dann nicht auf 28, sondern auf 20. Und die 49ms ruckler-frames merkst du extrem stark. Und da hilft auch triple-buffering nicht dagegen.
Und nein, kein Vsync ist keine Option.

Aha.
https://www.youtube.com/watch?v=i8Qib67ObcE


Erfahrungswerte.
Alles klar, Mister "AMD hat supertolles LOD-Bias".

Coda
2015-02-19, 22:08:40
https://www.youtube.com/watch?v=i8Qib67ObcE
Ja. Und? Ryse hat Framedrops, die wären mit durchgehendem 8:1 AF aber noch schlimmer.

Alles klar, Mister "AMD hat supertolles LOD-Bias".
Wat?

aufkrawall
2015-02-19, 22:11:05
Ja. Und? Ryse hat Framedrops, die wären mit durchgehendem 8:1 AF aber noch schlimmer.

Gehts noch? Dein Gesabbel zu Vsync von vor fünf Minuten hast du schon wieder vergessen?

Coda
2015-02-19, 22:12:42
Gehts noch? Dein Gesabbel zu Vsync von vor fünf Minuten hast du schon wieder vergessen?
Bitte erklär's mir. Mit VSync hast du 49ms Frames, sobald du unter 33ms dropst. Die GPU muss auf den nächsten VBlank warten, das ist die Definition von Vsync.

Das ist kein "Gesabbel", das sind Fakten. Die "28" die da angezeigt werden sind natürlich Durchschnittswerte.

aufkrawall
2015-02-19, 22:14:55
Was macht denn jetzt Ryse? Kein Vsync? Adaptives? TB? Riss in Raum-Zeit-Kontinuum?

"Durchschnittswerte", so ein Blödsinn. Die fps bleiben über mehrere Sekunden konstant bei einem Wert knapp unter 30fps. So geglättet ist der fps-Counter offenbar auch nicht.

Coda
2015-02-19, 22:18:23
Ryse hat Vsync und dropt frames auf 49ms wenn die 33ms nicht erreicht werden. Es sind Durchschnittswerte. JEDES Spiel auf einem 60 Hz Display hat das Verhalten. Was soll die GPU denn auch machen? Wenn sie den VBlank verpasst muss sie halt warten und der nächste kommt 1/60s später. So lange gibt's kein neues Bild.

Willst du mir jetzt erzählen, dass ich das unsere eigenen Profile-Tools nicht benutzen kann, oder was? Geht's noch absurder?

aufkrawall
2015-02-19, 22:20:43
Wie soll das gehen bei dem fps-Graphen im Video? Der wird viel häufiger aktualisiert als der Counter.
Über längere Zeiträume wird die 30fps-Obergrenze nicht geschnitten und die 20fps ebenfalls nicht. Wenn der stimmt, schließt das DB Vsync aus.

Coda
2015-02-19, 22:21:16
Es sind Durchschnittswerte über n Frames. Ryse hat VSync an. Nein, auch kein Tear-If-Miss oder ähnliches. Die GPU wartet.

Sobald man unter 30 FPS dropt, hat man Microruckeln mit 49ms Frames auf einem 60 Hz Display. Das lässt sich nur mit GSync oder vergleichbarem lösen. Deshalb tut man alles damit man darüber bleibt. Ein bisschen drunter und schon wird's unflüssig.

Was man machen kann ist dynamisches Scaling, also die Auflösung runter in hektischen Szenen wenn man den 33ms nahe kommt. Sieht halt aber auch nicht immer gut aus.

aufkrawall
2015-02-19, 22:29:16
Es gibt Szenen, da sind die avg-fps anscheinend/scheinbar konstant bei 26 oder gehen gar auf 24 runter (Balliste).
Wie oft pro Sekunde soll es denn zwischen 20 und 30 wechseln, dass man nie über einen Zeitraum von wenigen hundert ms 20fps im Durchschnitt erreicht, die man dem Graph oder dem Counter ablesen könnte?
Das ist extrem unwahrscheinlich.

del_4901
2015-02-19, 22:39:22
Auf den neuen Konsolen verwendet man wahrscheinlich meist Tripple-Buffering. Aber mit Framedrops unter 30fps/60fps sitzt einem eh QA im Nacken, wenn es dann doch mal ditscht, haben die es nur nicht gefunden.

Coda
2015-02-19, 22:39:55
Selbst mit Triple-Buffering hat man aber noch die längeren Frames drin. Es wird nur besser verteilt und manche vermieden.

Es gibt Szenen, da sind die avg-fps anscheinend/scheinbar konstant bei 26 oder gehen gar auf 24 runter (Balliste).
Wie oft pro Sekunde soll es denn zwischen 20 und 30 wechseln, dass man nie über einen Zeitraum von wenigen hundert ms 20fps im Durchschnitt erreicht, die man dem Graph oder dem Counter ablesen könnte?
Das ist extrem unwahrscheinlich.
Erklär mir doch bitte, was deiner Meinung nach passiert wenn ein Frame 34ms braucht und der nächste VBlank erst in 15ms kommt? Magie? Zeitmaschine?

Nein. Die Frames werden 49ms lang. Hab ich das schon mal erwähnt? Ach ja, drei Mal.

aufkrawall
2015-02-19, 22:41:18
Die avg-fps von Ryse sind in vielen Szenen weit von 30 entfernt.
Um so schwachsinniger Codas Argument, TB würde wegen den aus Framewiederholungen entstehenden Rucklern keinen Sinn machen. Ständige Drops mehrmals pro Sekunde auf 20fps können wohl kaum flüssiger sein.
:facepalm:

Coda
2015-02-19, 22:42:58
Die avg-fps von Ryse sind in vielen Szenen weit von 30 entfernt.
Ja, sind sie. Das ist auch nicht gut. Aber das steht auch nicht zur Diskussion.

Um so schwachsinniger Codas Argument, TB würde wegen den aus Framewiederholungen entstehenden Rucklern keinen Sinn machen. Ständige Drops mehrmals pro Sekunde auf 20fps können wohl kaum flüssiger sein.
:facepalm:
Bitte was? Natürlich macht Triple-Buffering Sinn, es löst nur das Problem nicht. Man hat trotzdem 49ms Frames drin. Zum vierten Mal. Und ja, die merkt man.

aufkrawall
2015-02-19, 22:44:30
Bitte was?
Stimmt, die Formulierung ergibt keinen Sinn. Rechne es dir in Frametimes um.

Ist jetzt auch völlig wayne. Du wusstest offenbar nicht ansatzweise über die typischen fps von Ryse Bescheid, die unter 30 liegen, wolltest mir aber gleichzeitig erzählen, solche fps wären ein absolutes No-Go.