PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Multicore-Optimierung in PC-Spielen


insane in the membrane
2019-11-28, 07:09:53
Hi,

wie ist eigentlich die aktuelle Lage? Saubere Octa-Core Auslastung ist wohl immer noch ein Lob wert und alles andere als Standard, und dank Intels Stagnation musste sich in den letzten vielen Jahren ja auch nicht viel bewegen. Jetzt kommt (endlich) AMD ins Spiel und deplaziert Achtkerner quasi zum Mainstream. Wird man in 2, 3 Jahren noch mit einem heute teuren (und schnellen) Achtkerner (nebst Highend Grafikkarte) glücklich sein? Das war in der Vergangenheit über einen so kurzen Zeitraum ja eigentlich keine Frage..eine dicke CPU hat locker 2 GPU-Generationen mitgemacht.

Wie schnell denkt ihr, schlägt AMDs Entwicklung, der Intel über kurz oder lang folgen wird, auf eine ernsthafte Optimierung auf >8-Kern-Systeme in Spielen durch, sodass heutige 8-Kerner schon an ihre Grenzen kommen (und neben einer Highend GraKa zu einem ungleichen Partner werden)? Da wird sicherlich auch die Ausstattung der nächsten Konsolen-Generation eine Rolle spielen. Dass man mit einem Xeon 1231v3 über 7 Jahre problemlos über die Runden kommt, wird sich Stand heute jedenfalls nicht noch einmal wiederholen.:D

Monger
2019-11-28, 07:47:05
Was haben wir denn für Spiele, die echte CPU Fresser sind? Wäre glaub gut dass an nem konkreten Beispiel aufzuhängen.

Die großen Leistungsfresser der Gegenwart sind ja wohl VR und Raytracing, aber geht das auf die CPU?

dargo
2019-11-28, 09:00:13
Dass man mit einem Xeon 1231v3 über 7 Jahre problemlos über die Runden kommt, wird sich Stand heute jedenfalls nicht noch einmal wiederholen.:D
Wie kommst du zu dieser Annahme? Ein heutiger 3900X wird locker auch die Konsolen nach den Konsolen 2020 überleben. Das dürfte sogar schon mit einem 3700X passieren. Bei den übernächsten Konsolen irgendwann in ~2025 haben wir hoffentlich nur noch low level am PC.


Die großen Leistungsfresser der Gegenwart sind ja wohl VR und Raytracing, aber geht das auf die CPU?
Ja... Beides.

Rabiata
2019-11-28, 14:41:43
Die 2020er Konsolen von Sony und Mickysoft kommen beide mit 8 x64-CPU Cores. Das dürfte bis zum Release der Nachfolge-Konsolen der Standard bleiben. Und die Spielehersteller werden Wert darauf legen, möglichst nicht zweimal für Konsole und PC zu programmieren.

Nachdem die PS4 und XBox One beide 2013 herauskamen, kommen wir bis 2020 auf einen Produktlebenszyklus von 7 Jahren, und das dürfte in der Zukunft eher langsamer werden. Die Chip-Entwicklung läuft nicht mehr ganz so schnell.

TL,DR:
Bis PS 5 und Projekt Scarlett von ihren Nachfolgern abgelöst werden, werden 8 CPU-Kerne wohl ausreichen. Vor Mitte der 2020er sehe ich da keinen Handlungsbedarf für PC-Besitzer.

Lowkey
2019-11-28, 15:04:05
Man müßte einfach alle Neuerscheinungen 2019 nehmen und auf Frametimes untersuchen. Dann kommt vermutlich heraus, dass alles auf 6 Kernen spielbar ist und einige wenige Spiele mit 8, 12 und 16 Threads etwas besser laufen. Es gibt sicherlich einige krasse FPS Einbrüche bei 2 oder 4 Kernen. Von 6 Kernern mit massiven Nachteilen habe ich nichts gehört.

Iscaran
2019-11-28, 15:24:23
Wie schnell denkt ihr, schlägt AMDs Entwicklung, der Intel über kurz oder lang folgen wird, auf eine ernsthafte Optimierung auf >8-Kern-Systeme in Spielen durch, sodass heutige 8-Kerner schon an ihre Grenzen kommen (und neben einer Highend GraKa zu einem ungleichen Partner werden)? Da wird sicherlich auch die Ausstattung der nächsten Konsolen-Generation eine Rolle spielen. Dass man mit einem Xeon 1231v3 über 7 Jahre problemlos über die Runden kommt, wird sich Stand heute jedenfalls nicht noch einmal wiederholen.:D

Da die Softwarewelt nach 15 Jahren "Multicore" CPU nahezu noch immer nicht vernünftig multicore optimiert würde ich sagen....das dauert :-).

][immy
2019-11-28, 15:34:31
Da die Softwarewelt nach 15 Jahren "Multicore" CPU nahezu noch immer nicht vernünftig multicore optimiert würde ich sagen....das dauert :-).
Da wird auch nicht mehr so extrem viel passieren. Zumindest nicht "sinnvoll" eingesetzt. Derzeit läuft ja in der Software-Branche alles auf micro-services mit ihrem eigenen, jeweiligen overhead in containern (ebenfalls mit overhead) heraus. Warum? Weil es sich einfach skalieren lässt. Nutzt man dadurch die bestehenden Resourcen optimal aus? Nein, absolut nicht. Interessiert aber eigentlich auch keinen, weshalb heutzutage dann auch noch viel mit Javascript gemacht wird, was alles andere als Optimal läuft.
Es ist inzwischen erstaunlich wie wenig man eigentlich aus aktuellen Prozessoren raus holt.
Und das lässt sich auf die Spiele ausdehnen, denn die Erträge werden immer geringer bei immer mehr eingesetzter Rechenleistung.
Bei Video-Schnitt und solchen Tasks, da hat man noch eine geradezu lineare Skalierung mit den Kernen, aber auf Spiele lässt sich das nun mal leider nicht übertragen.

Derzeit fließt ja die CPU-Leistung fast ausschließlich in die Grafikunterstützung rein. Der Gamecode (ohne Grafik) ist meist gar nicht mal so gravierend. Das Problem dabei ist ja auch, wenn du nur ein wenig mehr Rechenleistung in die KI steckst, kann das theoretisch enorme Auswirkung auf die benötigte Rechenleistung haben, aber gleichzeitig schließt du recht viele Kunden aus. Das kann man nun mal nicht so gut und einfach skalieren wie Grafik. Wenn die Rechenleistung nicht passt wäre es ja blöd, wenn die KI plötzlich dümmer ist.

insane in the membrane
2019-11-28, 16:41:02
Unterm Strich kann man jetzt also doch getrost seinen Octacore kaufen, ohne in 3 Jahren mit runtergelassenen Hosen im Regen zu stehen? Ein Sprung hin zu stärkerer Optimierung auf Parallelisierung ist nicht zu erwarten, sodass man etwa mit einem 9900KS sowas ( https://www.computerbase.de/2019-11/amd-ryzen-threadripper-3960x-3970x-test/2/#abschnitt_benchmarks_in_anwendungen) erlebt? Ich bin mir da einerseits nicht so sicher, da acht Kerne wie gesagt sehr bald Mainstream sind.. auf der anderen Seite scheint die neue Konsolengeneration diesbez. ja schon zu limitieren bevor sie überhaupt auf dem Markt ist..

y33H@
2019-11-28, 16:46:05
Da die Konsolen das Groß der Spiele vorgeben, sind (aktuelle) 8C/16C vermutlich langfristig eine gute Basis.

dildo4u
2019-11-28, 16:47:36
PC Gamer bekommen eh erstmal nur den ganzen Cross-Gen Quatsch serviert,bis du eine dicke CPU brauchst wird es 2021,dann kannste gemütlich auf eine DDR5 Plattform aufrüsten.
Vielleicht ist dann auch wieder Intel dabei was die Preise drücken könnte,AM4 ist ja jetzt schon bei 800€ fürs Top Modell was ich nicht so prall finde.

drdope
2019-11-28, 17:21:08
Wann ist denn das letzte mal ein PC-only Titel erschienen, der abseits High-End Hardware gar nicht lief?
Kam da nach Crysis (2007) noch mal irgendwas?

Joe
2019-11-28, 17:48:12
StarCitizen in Version 3.7

https://i.imgur.com/4FXTTKa.png

Rabiata
2019-11-28, 17:55:17
OK, Star Citizen nutzt auch extrem viele Kerne. Wenn da irgendwann mal tatsächlich ein fertiges Spiel rauskommt, will ich Threadripper-Benchmarks sehen :biggrin:

Joe
2019-11-28, 18:18:59
https://robertsspaceindustries.com/telemetry

drdope
2019-11-28, 18:23:58
StarCitizen in Version 3.7

Deshalb schrieb ich erschienen...
Ein anderer Titel ist mir nämlich spontan auch nicht eingefallen, mit dem man einen einigermaßen aktuellen Mainstream-PC CPU-seitig in die Knie zwingen könnte (jetzt mal außen vor, daß man mit entsprechender Auflösung/AA/AF + alle Grafikregler nach rechts jede Kiste hart ins GPU-Limit jagen kann, aber es geht im Thema ja explizit um CPUs).
:)

Ich würd' aus dem Bauch raus auch sagen -> mit 8 Kernen + SMT hat man noch sehr lange Ruhe.

gravitationsfeld
2019-11-28, 21:01:14
StarCitizen in Version 3.7

https://i.imgur.com/4FXTTKa.png
Pff. Mehr als die Hälfte davon ist wahrscheinlich der NVidia D3D11-Treiber.

Gleicher Mist bei AC Odyssey. Die Spiele sollten nicht gelobt werden. Es ist 2019, wo ist Vulkan in SC?

aufkrawall
2019-11-28, 21:26:36
Vorreiter sind hier imho definitiv Nixxes mit RotTR und SotTR, Feral hat den D3D12-Renderer bei Letzterem auch gut nach Vulkan portiert.
Durchweg extrem hohe Auslastung auf 12T nahe 90-100%, wenn man das Spiel ins komplette CPU-Limit zwingt. Rennt dann auf einem 8700k auch wie Schmitz' Katze auf Steroiden.

PacmanX100
2019-11-28, 21:39:51
Ich sehe noch keinen schnellen Umschwung. Es werden nachwievor noch Millionen MMOs gespielt und Notebooks gekauft. Die haben oft nichtmal 12, 18, 24 Kerne im Angebot. Und wenn dann zu hohen Auto-Preisen.
Das Beispiel bei #12 zeigt das so viele Kerne noch Spielerei sind. Die Last wird zwar verteilt aber selbst mit 1/3 weniger würde es nicht langsamer laufen (dann steigt es eben von 50 auf 90%)

Spieleengines die derzeit verwendet werden entwickeln sich zwar weiter aber nicht so regelmäßig das wir da alle 3 Monate einen riesigen Fortschritt sehen. Vorallem wenn die Entwicklungsdauer dann noch 2-5 Jahre betragen wird bei den großen Titeln.

Es stellt sich außerdem die Frage welche bahnbrechenden Neuerungen überhaupt rauskämen würde die gesamte Leistung genutzt werden. Mehr Physik? Braucht es dafür wirklich mehrere Kerne exklusiv? Besseren Sound?
Am ehesten sehe ich da noch den Einsatz zur KI Berechnung aber auch das ist begrenzt sonst wird die irgendwann so hinterlistig dass Spielen eben keinen Spaß mehr macht. ;)

Benutzername
2019-11-28, 21:41:29
Wann ist denn das letzte mal ein PC-only Titel erschienen, der abseits High-End Hardware gar nicht lief?
Kam da nach Crysis (2007) noch mal irgendwas?

Und Crysis war nur verkonfiguriert von Crytek. Wenn man da per Hand das zurechtbog ging es auch.


Naja, RDR2 alles auf max ultra settings bringt derzeitges high-end isn schwitzen.


---------------------------------
Ich sehe noch keinen schnellen Umschwung. Es werden nachwievor noch Millionen MMOs gespielt und Notebooks gekauft. Die haben oft nichtmal 12, 18, 24 Kerne im Angebot. Und wenn dann zu hohen Auto-Preisen.
Das Beispiel bei #12 zeigt das so viele Kerne noch Spielerei sind. Die Last wird zwar verteilt aber selbst mit 1/3 weniger würde es nicht langsamer laufen (dann steigt es eben von 50 auf 90%)

Spieleengines die derzeit verwendet werden entwickeln sich zwar weiter aber nicht so regelmäßig das wir da alle 3 Monate einen riesigen Fortschritt sehen. Vorallem wenn die Entwicklungsdauer dann noch 2-5 Jahre betragen wird bei den großen Titeln.

Man kann engines ja mit Luft nach oben auslegen. zB Quake1 kann auch mit riesigen Texturen umgehen (für die Zeit), wurde aber mit den eher kleine ausgeliefert damit es auf den verbreiteten Rechnern läuft. Aber weil die Konsolen demnächst acht/sechzen vorgeben wird das meiste damit laufen.


Es stellt sich außerdem die Frage welche bahnbrechenden Neuerungen überhaupt rauskämen würde die gesamte Leistung genutzt werden. Mehr Physik? Braucht es dafür wirklich mehrere Kerne exklusiv? Besseren Sound?
Am ehesten sehe ich da noch den Einsatz zur KI Berechnung aber auch das ist begrenzt sonst wird die irgendwann so hinterlistig dass Spielen eben keinen Spaß mehr macht. ;)


Hairworks natürlich. Und jiggle physics! :biggrin:

PacmanX100
2019-11-28, 21:53:22
Hairworks natürlich. Und jiggle physics! :biggrin:

Witzigerweise sind das die Features die ich als erstes deaktiviere wenn ich vernünftig spielen will. Bei einem Rennspiel gibt es durchaus Leute die deaktivieren die gesamte Umgebung um flüssiger zu fahren, bei Rollenspiele brauche ich da auch keine Haar oder Wolkeneffekte die ich sowieso nicht wahr nehme beim (alleinigen) Erkunden.

Auch bei einem Age of Empires wäre es vielleicht nett wenn die Mauern langsam auseinander fallen aber es braucht ja nicht ne Million Bruchstücke. Die dann auch noch die Sicht versperren?!

gravitationsfeld
2019-11-29, 08:06:08
Vorreiter sind hier imho definitiv Nixxes mit RotTR und SotTR, Feral hat den D3D12-Renderer bei Letzterem auch gut nach Vulkan portiert.
Durchweg extrem hohe Auslastung auf 12T nahe 90-100%, wenn man das Spiel ins komplette CPU-Limit zwingt. Rennt dann auf einem 8700k auch wie Schmitz' Katze auf Steroiden.
Wenn man dir CPU voll müllt ist es halt auch einfach die Cores zu füllen. Bestes Beispiel ist Crysis 3 mit fer Gras-Physik ohne SSE-Optimierung. Wurde als absolut super multithreading Spiel genannt. Bei Ryse war's dann SSE und keiner redet mehr davon.

Machmal denk ich mir echt ich sollte Placebo Low-Priority busy loop threads einbauen damit sich die Leute einen an 100% CPU-Auslastung runter holen können.

#44
2019-11-29, 08:34:12
Unterm Strich kann man jetzt also doch getrost seinen Octacore kaufen, ohne in 3 Jahren mit runtergelassenen Hosen im Regen zu stehen? Ein Sprung hin zu stärkerer Optimierung auf Parallelisierung ist nicht zu erwarten [...]?
Ich bin mir da einerseits nicht so sicher, da acht Kerne wie gesagt sehr bald Mainstream sind..
Bei solchen Fragen verweise ich gerne auf Amdahl's law (https://en.wikipedia.org/wiki/Amdahl's_law).

Von 90% Parallelität des primary loops braucht man nicht ausgehen :wink:
Und selbst in diesem Fall erlebt man beim Vergleich von 8 Kernen mit beliebig vielen (!) nur eine Verdopplung der Performance.

gravitationsfeld
2019-11-29, 08:55:03
Ob Amdahl-Limits erreicht werden seht ihr an der CPU-Auslastung eh nicht. Ich kann 100% Auslastung erreichen mit allen Core die suf einen Spin-Lock warten. Von außen gibt es einfach null Möglichkeit das zu beurteilen.

aufkrawall
2019-11-29, 09:00:29
Wenn die Spiele zusätzlich einen DX11-Renderer anbieten, bei dem die angezeigte Auslastung, Performance und Core-Skalierung viel schlechter ist, spricht das nicht für künstliche Schrott-Last.

#44
2019-11-29, 09:05:17
Ob Amdahl-Limits erreicht werden seht ihr an der CPU-Auslastung eh nicht.
Darum geht es ja auch nicht. Es ist das theoretische Maximum - daran sieht man sehr gut, ab wann mehr Cores gar nichts mehr sinnvolles beitragen können, selbst wenn die Software perfekt ist.

Entsprechend werden (deutlich) mehr Cores auch in Zukunft nicht nötig sein. Es gibt sogar bei gut parallelisierbaren Anwendungen schlicht nichts für die zu tun. Selbst bei 95% Parallelisierbarkeit sind wir mit TR in Regionen vorgestoßen, die so schnell nicht hinter sich gelassen werden können.

Natürlich kann (und wird!) es trotzdem Beispiele geben, die so lausig programmiert sind, dass sie mit 8 Kernen (deutlich) schlechter laufen als mit 16 (oder auch 9, wenn es sowas gäbe...), ohne dass wirklich mehr sinnvolle Arbeit getan wird. (z.B. wegen Timing-/Locking-Problemen)
Das Software zukünftig scheiße parallelisiert wird, wäre aber nicht mein Ausgangspunkt für eine allgemeine Beurteilung zur Zukunftsfähigkeit von 8-Kernern.

dargo
2019-11-29, 09:09:40
Machmal denk ich mir echt ich sollte Placebo Low-Priority busy loop threads einbauen damit sich die Leute einen an 100% CPU-Auslastung runter holen können.
Mache das bitte, ich fänds lustig. :D

Iscaran
2019-11-29, 09:30:04
Amdahl ist natürlich ein wichtiges Kriterium. Aber viele vergessen ja daß er das nur sehr idealisiert darstellt im Prinzip von einer Berechnung die aus 2 Prozessen besteht.

In der Realität dürfte in einer Game Engine aber sicherlich an die 100 oder 1000 Prozesse ablaufen die bis auf eine "Timing" Syncronisation komplett unabhängig sind.

Ergo wenn man das nach seinem Schema:
https://upload.wikimedia.org/wikipedia/commons/thumb/4/40/Optimizing-different-parts.svg/600px-Optimizing-different-parts.svg.png

runterbricht hätte man 1000 Prozesse A mit Zeit X die miteinander wiederum über mehrere Prozesse B, C, D usw. gekoppelt sind (Also Blau, Grün, Gelb, .usw. nicht dargestellt).

Entscheidend ist nun also JEDEN dieser Teilschritte maximal zu parallelisieren.

Da könnte "effektiv" durchaus eine Parallelität von 99% bezogen auf Prozess A rauskommen...der Rote Balken hinge ja nur von einem "winzig" kleinen Prozess B, C, D, ab der das "Timing" macht.

Und auch die Prozesse, B, C, D....sind sehr wahrscheinlich gut entkoppelt voneinander. Also ich kann B, C, D paralell bearbeiten lassen sobald das Ergebnis aus dem Prozess A vorliegt.

So oder so - es gibt viele Beispiel wo man Nutzlos Rechenpower reinpustet. Z.B. Diverse Kopierschutzmechanismen welche quasi das Gesamte Spiel "virtualisieren". Das kostet CPU Power und lässt sich wunderbar Parallelisieren...kein Wunder daß viele Denuvo-Games gut mit CPU-Leistung skalieren, aber ob man all diese CPU-Power da wirklich "sinnvoll" nutzt ? :-). (Und ob am Ende der Grund für die 30 FPS nicht der ist daß die Game Engine als solche ja doch nur auf einem CPU-Kern läuft ?).

#44
2019-11-29, 09:33:24
Amdahl ist natürlich ein wichtiges Kriterium. Aber viele vergessen ja daß er das nur sehr idealisiert darstellt im Prinzip von einer Berechnung die aus 2 Prozessen besteht.

In der Realität dürfte in einer Game Engine aber sicherlich an die 100 oder 1000 Prozesse ablaufen die bis auf eine "Timing" Syncronisation komplett unabhängig sind.
Nein. Amdahl beschränkt sich keineswegs auf zwei parallele Pfade. Die können ja auch gar nicht über 2 Kerne hinaus skalieren...
Und ja - die Synchronisierung wären in meinem Beispiel von 90% Parallelität die 10% nicht parallelisierbaren Codes.

Hast du praktische Erfahrung mit paralleler Programmierung?

Ganon
2019-11-29, 09:42:29
Von außen gibt es einfach null Möglichkeit das zu beurteilen.

Naja doch. Wenn die Performance mit weiteren Cores nicht steigt, aber die CPU trotzdem auf 100% läuft. Man könnte auch noch einen Profiler ans Spiel dranhängen, sofern nicht irgend ein Clusterfuck-DRM mit enthalten ist, aber ja, das macht natürlich kein Online-Magazin in ihren Tests.

][immy
2019-11-29, 10:04:18
...
Machmal denk ich mir echt ich sollte Placebo Low-Priority busy loop threads einbauen damit sich die Leute einen an 100% CPU-Auslastung runter holen können.

Ja, diese Placebo-Effekt sieht man gefühlt doch deutlich häufiger. Merkt man ja z.B. daran, das die Core-Auslastung zwar recht hoch ist, es auf Systemen mit weniger Cores nicht schlechter läuft oder nur geringfügig schlechter.

..In der Realität dürfte in einer Game Engine aber sicherlich an die 100 oder 1000 Prozesse ablaufen die bis auf eine "Timing" Syncronisation komplett unabhängig sind.

Ergo wenn man das nach seinem Schema:
https://upload.wikimedia.org/wikipedia/commons/thumb/4/40/Optimizing-different-parts.svg/600px-Optimizing-different-parts.svg.png

runterbricht hätte man 1000 Prozesse A mit Zeit X die miteinander wiederum über mehrere Prozesse B, C, D usw. gekoppelt sind (Also Blau, Grün, Gelb, .usw. nicht dargestellt).

Auch wenn du 1000 Dinge parallelisieren kannst (ab irgendwann muss man sie natürlich trotzdem synchronisieren) werden die Aufgaben verschiedene Größen haben. Nicht alles lässt sich beliebig zerlegen. D.h. es kann sein, das die 1000 Aufgaben nicht mal einen Core dauerhaft auslasten, oder nur zu bestimmten Zeiten rechenintensiv sind während sie den Rest der Zeit nichts haben.
Daher wäre ich immer Vorsichtig mit der Aussage das ein Spiel auch tatsächlich so viel Rechenleistung nutzt.
Was die viele Rechenleistung einem allerdings einfacher macht ist, das man nicht so effizient entwickeln muss (und damit potentiell schneller arbeiten kann), da die Rechenleistung eh vorhanden ist. Solange ein Entwickler beim drüber schauen nicht irgendwelche extremen Performanceengpässe sieht, ist auch ein ineffizienter Code gut genug.

aufkrawall
2019-11-29, 10:21:20
[immy;12155471']Ja, diese Placebo-Effekt sieht man gefühlt doch deutlich häufiger. Merkt man ja z.B. daran, das die Core-Auslastung zwar recht hoch ist, es auf Systemen mit weniger Cores nicht schlechter läuft oder nur geringfügig schlechter.

Hast du mal ein Beispiel mit AMD-GPU?

Schakar
2019-12-03, 04:55:55
Manchmal ist zu viel auch schlicht zu viel ;).

In den meisten Threadripper Tests steht ausdrücklich dabei, dass es immer wieder zu Problemen kommt, weil Spiele überhaupt nicht mit mehr als 8 Cores klar kommen. Starten nicht, schmieren ab, Bildfehler etc.

Und viele Spiele (World of Tanks, Stellaris) haben garkeinen eigenen Multi-Core Support!
Entweder wird da was zurecht gewurschtelt peer DX12-Software-Emulation (grottig schlecht und prodoziert nur Hitze auf der CPU) oder NVidia Treiber (AMD ka ob es da auch geht).

Wie schlecht grad die Game-Branche Multicore understütz ist doch an den ganzen Charts zu sehen. Sobald nen I9 die besten FPS hat, hat das Game KEIN (oder nur sehr eingeschränktes) eigenes MC! Da geht es immer noch um Singel-Core-Max Performance.

1, 2 Core CPUs sind für Gamer Vergangenheit :). Keine Frage.
4 Cores werden noch lange überleben. Kaufen würd ich persönlich aber keinen mehr ;).
6 bis 8 Cores werden bis zum Lebenszyklus Ende der kommenden Konsolen (PS5 etc) der Status-Quo sein. Lang leben I5, I7, Ryzen5, Ryzen7 !!
I9 und Ryzen9 werden weiterhin für die mit zu viel Geld sein. Nett zum haben und Prollen, für Games aber keine "Pflicht".

Alles drüber ... irgend wo hab ich nen Threadripper test gesehen, bei dem über die Hälfte der Test-Proggis auch nix mit 10++ Cores anfangen konnten :). Und wenn die Test-Tools schon nix mit anfangen können ...
Aber das wird sich sicher sehr schnell ändern. Denn wenn jemand eine Software für zig tausend Euros nutzt beruflich, dann wird er schon genug Druck machen, wenn die nicht die derzeit beste Hardware nutzen kann ;).

gravitationsfeld
2019-12-03, 07:41:18
Vier Kerne werden genau bis zur naechsten Konsolen-Generation leben, dann ist Schluss. Der PC hat seit Jahren immer viel mehr CPU-Leistung gehabt als die derzeitigen Konsolen, das ist dann vorbei.

Rancor
2019-12-03, 07:44:00
4 Kerne ohne SMT sind heute schon bei manchen Games problematisch.

Schakar
2019-12-03, 08:10:34
4 Kerne ohne SMT sind heute schon bei manchen Games problematisch.
Bei welchem z.B.?

Hab nen I5-4690k ... und bisher kein Spiel gehabt, was "Probleme" hatte.
Zumindest keins, bei dem ein I9 irgend wie geholfen hätte ;).

Ganz im Gegenteil les ich immer wieder von Spielen, die mit SMT mal überhaupt nicht klar kommen. Wo in den jeweiligen Foren dazu geraten wird, diesen Virtualisierungs-Quatsch peer BIOS aus zu schalten!

PS: Fix mal gesucht und https://www.techspot.com/review/1882-ryzen-9-smt-on-vs-off/ gefunden.
Aber von "Problematisch ohne SMT" kann da mal überhaupt keine Rede sein. In den aller meisten Fällen ist es total wumpe, ob man SMT hat oder nicht.

#44
2019-12-03, 08:23:03
Der PC hat seit Jahren immer viel mehr CPU-Leistung gehabt als die derzeitigen Konsolen, das ist dann vorbei.
Naja. PS4 und XBONE hatten schon x86 (wegen mir auch pseudo) Achtkerner. Was die Kernanzahl angeht, waren die dem typischen Midrange-Gamerrechner von 2013 vorraus.

Was Gesamtleistung angeht dürfte bei den Konsolen weiterhin das Kühlkonzept die Limitierung sein. Wenn man sich da nicht vom Formfaktor wegbewegt, werden wir da sowas wie einen 3-3,5GHz Achtkerner sehen.

(Wird natürlich dennoch dafür sorgen, dass für Quadcores zum Zocken die Luft knapp wird; dem werde ich nicht widersprechen. Zudem: AMD hat ja nichtmal mehr Quadcores im Zen2 Desktop Lineup...)

THEaaron
2019-12-03, 08:55:14
Bei welchem z.B.?

Hab nen I5-4690k ... und bisher kein Spiel gehabt, was "Probleme" hatte.
Zumindest keins, bei dem ein I9 irgend wie geholfen hätte ;).

Ganz im Gegenteil les ich immer wieder von Spielen, die mit SMT mal überhaupt nicht klar kommen. Wo in den jeweiligen Foren dazu geraten wird, diesen Virtualisierungs-Quatsch peer BIOS aus zu schalten!

PS: Fix mal gesucht und https://www.techspot.com/review/1882-ryzen-9-smt-on-vs-off/ gefunden.
Aber von "Problematisch ohne SMT" kann da mal überhaupt keine Rede sein. In den aller meisten Fällen ist es total wumpe, ob man SMT hat oder nicht.

Dann bist du einfach nur schmerzfrei. Die Frametimes und das ständige CPU Limit was ich mit einer ähnlichen CPU hatte(4670k) waren zum kotzen. Da war der HT Pendant aus der 4er Reihe weeesentlich schneller und attraktiver. Und der 7700k hat halt auch wegen HT monatelang die Benchmarks dominiert.

Ganon
2019-12-03, 09:30:33
Naja. PS4 und XBONE hatten schon x86 (wegen mir auch pseudo) Achtkerner. Was die Kernanzahl angeht, waren die dem typischen Midrange-Gamerrechner von 2013 vorraus.

Mit den kleinen Jaguar Kernen auf ~1.6Ghz war man 2013 aber trotzdem in der Performance weit hinten dran. Weiterhin dürfen Spiele soweit ich weiß nur 6 Kerne von den 8 nutzen. Die neue Konsolengeneration kommt ja nun aber wohl mit dicken Zen 2 Kernen daher. Das ist schon eine ganz andere Hausnummer.

dargo
2019-12-03, 09:37:04
Mit den kleinen Jaguar Kernen auf ~1.6Ghz war man 2013 aber trotzdem in der Performance weit hinten dran.
Nö... denn der Treiber-/API-Overhead war damals am PC noch extrem.

#44
2019-12-03, 09:48:15
Die neue Konsolengeneration kommt ja nun aber wohl mit dicken Zen 2 Kernen daher. Das ist schon eine ganz andere Hausnummer.
Schon klar. Darum stehen da auch die anderen Sätze.

Die aktuelle Konsolengeneration hat in der Spitze ~170W Gesamtleistungsaufnahme. In dem Budget könnte ich mir grob sowas wie einen Eco-Mode 3700x vorstellen.
(€: Und selbst da kann man sich noch nicht sicher sein, wieviele Kerne zu welchem Zweck genutzt werden können/dürfen)

Auch aus dieser Sicht muss man sich keine Sorgen um die Zukunftsfähigkeit machen.

Ganon
2019-12-03, 10:09:06
Nö... denn der Treiber-/API-Overhead war damals am PC noch extrem.

Dass Konsolen effizienter arbeiten hat relativ wenig damit zu tun, dass die CPUs trotzdem lahm sind. Das ist halt auch schlicht der Grund warum man auch heute noch mit uralt-CPUs aktuelle Titel zocken kann. LowLevel APIs haben das Ganze noch mal verbessert.

Schnoesel
2019-12-03, 10:14:43
Bei welchem z.B.?

Hab nen I5-4690k ... und bisher kein Spiel gehabt, was "Probleme" hatte.
Zumindest keins, bei dem ein I9 irgend wie geholfen hätte ;).

Ganz im Gegenteil les ich immer wieder von Spielen, die mit SMT mal überhaupt nicht klar kommen. Wo in den jeweiligen Foren dazu geraten wird, diesen Virtualisierungs-Quatsch peer BIOS aus zu schalten!

PS: Fix mal gesucht und https://www.techspot.com/review/1882-ryzen-9-smt-on-vs-off/ gefunden.
Aber von "Problematisch ohne SMT" kann da mal überhaupt keine Rede sein. In den aller meisten Fällen ist es total wumpe, ob man SMT hat oder nicht.


Einfach mal seine eigene Filterblase verlassen. Es gibt genug Spiele denen 4C/4T heute zu wenig sind und einfach nicht mehr rund laufen. BFV ist mit 4C/4T unspielbar, Borderlands 3 kackt mit 4C/4T bei den frametimes gnadenlos ab, ein 7700k hat hier mehr als doppelt so gute Frametimes: https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/ Ebenso ergeht es in Red Dead Redemption2 https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#abschnitt_cpubenchmarks.

Sorry aber 4C/4T ist mittlerweile ungeeignet. Außer du spielst irgendwelche alten Kamellen.

Iscaran
2019-12-03, 10:33:12
Borderlands 3: Denuvo.

=> CPU Power wird fast nur für Copy-Protection gebraucht.

Red Dead Redemption 2: Denuvo.

=> CPU Power wird für CP gebraucht.

Also - wenn wir das Feature Denuvo nicht hätten, reicht da vermutlich ein SingleCore.

THEaaron
2019-12-03, 10:35:30
Netter Trollversuch.

Döner-Ente
2019-12-03, 10:37:32
Sorry aber 4C/4T ist mittlerweile ungeeignet. Außer du spielst irgendwelche alten Kamellen.


+1. Auch wenn es noch genügend Spiele gibt, die mit 4C/4T noch vernünftig laufen mögen, es gibt mittlerweile durchaus einige Spiele, wo der mit Dauervollast und unrundem Spielgefühl dank Frametime-Spikes ächzt, wo ein 6C/12T mit 30-50% Auslastung und rundem Spielgefühl läuft.
Evtl. sind je nach Spiel die offensichtlichen Vorteile in Form von max-Fps nicht so offensichtlich oder für einen selber nicht sichtbar/relevant, weil die Graka nicht mehr schafft oder man ohnehin mit 60 Fps-VSync-Lock spielt, aber ich würde dennoch kein modernes Assassins Creed, ein Ghost Recon Breakpoint, ein Division 2 usw. mit einem am Anschlag laufenden 4C/4T spielen wollen.

Schakar
2019-12-03, 10:50:42
Dann bist du einfach nur schmerzfrei. Die Frametimes und das ständige CPU Limit was ich mit einer ähnlichen CPU hatte(4670k) waren zum kotzen. Da war der HT Pendant aus der 4er Reihe weeesentlich schneller und attraktiver. Und der 7700k hat halt auch wegen HT monatelang die Benchmarks dominiert.
Ka was du für Probleme mit der CPU hattest. Muß wohl mies engestellt gewesen sein deine Kiste. Oder defekte Hardware.

Hast es vieleicht nicht gesehen. Aber der Link von mir beweißt es. Bis auf Assasin's Creed gibt es KEIN SPIEL, was nennenswerte Vorteile durch SMT/HT hat! Und selbst AC hat nicht mal 10% Mehrleistung damit.

Also bitte. Wo siehst du SMT/HT als "PFLICHT" an? Bzw es als "Problematisch", wenn man kein SMT/HT hat? Nenn mal Beispiele, Namen, Fakten.

Exxtreme
2019-12-03, 10:52:13
Entscheidend ist nun also JEDEN dieser Teilschritte maximal zu parallelisieren.

Da dürfte der Entwicklungsaufwand ins Unermessliche steigen. Und zweitens, Parallelisierung hat selbst einen Overhead durch Kontextwechsel, Threadwechsel, Synchronisierung etc. Ist gut möglich, dass alleine dieser Overhead die Vorteile der Parallelisierung mehr als auffrisst. Sinnvoll parallelisieren kann man deshalb nur bis zu einem Punkt. Darüberhinaus wäre es ein Überspannen des Bogens.

THEaaron
2019-12-03, 10:52:39
Ich hab jahrelang mit nem 4c/4t gespielt und schon zur Zeit von BF1 war das nicht mehr genug. Die Frametimes waren durchweg grausam in Titeln zu der Zeit.

Wenn man eine glatte Linie mit mehr als 60fps haben möchte brauch man schon seit längerer Zeit eine CPU mit mehr als 4 Threads.

Schakar
2019-12-03, 10:56:56
Einfach mal seine eigene Filterblase verlassen. Es gibt genug Spiele denen 4C/4T heute zu wenig sind und einfach nicht mehr rund laufen. BFV ist mit 4C/4T unspielbar, Borderlands 3 kackt mit 4C/4T bei den frametimes gnadenlos ab, ein 7700k hat hier mehr als doppelt so gute Frametimes: https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/ Ebenso ergeht es in Red Dead Redemption2 https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#abschnitt_cpubenchmarks.

Sorry aber 4C/4T ist mittlerweile ungeeignet. Außer du spielst irgendwelche alten Kamellen.
Hahaha, jau, Filterblase ... der war gut :).

Alles was nicht 4k (oder doch schon 8k??) bei Hyper Max Irsinn Settings auf 240Hz / 239 FPS läuft ist ist "unspielbar111elf"??

Hint: wenn ich konstant 60 FPS auf meinem 1080/60 Hz Monitor hab ist mir die Frametime total egal, weil die eh unterhalb dessen liegt, was ich brauch! Und wenn es keine 60 FPS sind, dann gibt es da was, das nennt sich CUSTOM SETTINGS.

Es zeigt sich, dass das Spiel selbst mit acht CPU-Kernen nichts anfangen kann. Vier Kerne ohne SMT sind hingegen zu wenig für die maximale Detailstufe in Borderlands 3
Hab für euch die wichtigen Teile mal besser kenntlich gemacht.
KERNE ... nicht Threads !!! Ob ihr da SMT/HT habt oder nicht, ist total latte !!
MAXIMAL Details ... mit einer RTX 2080 TI FE ... einer Karte, die neu 1700,-€ kostet.

Und wenn es nach euch ginge, ist eh alles unter GTX 1080 TI FE nur "Hardwareschrott", denn selbst die schafft grade so die 60 FPS bei 1080p !!!

Und ihr redet echt von "Filterblase" ??? HAHAHAHA

#44
2019-12-03, 11:09:19
Aber der Link von mir beweißt es. Bis auf Assasin's Creed gibt es KEIN SPIEL, was nennenswerte Vorteile durch SMT/HT hat!
Auf einem 12-Kerner. Der führt auch ohne SMT 3x so viele Threads parallel aus, wie ein 4-Kerner der kein SMT kann.

Als ob das Ergebnis irgendwie übertragbar wäre...

Schakar
2019-12-03, 11:25:54
Und zu Borderlands 3 grad noch das hier gefunden:
"Borderlands 3 - i5 4690K & GTX 1070 - FPS Test and Settings"
https://www.youtube.com/watch?v=9vbijUvN06I

Von Max auf High runter mit ner GTX 1070 und ... ach ja, "UNSPIELBAR" ... rofl, klar, Filterblase ^^ aber sowas von :D LOOOOOOOOOL

TIP: Versuchts mal mit den richtigen Setting und ohne Twitch, Youtube, 5 Foren, email und 3 Games gleichzeitig.

Das Video beweißt nur mal wieder sehr deutlich, was das ganze Geschwätz mit "hab beste Hardware aber UNSPIELBAR" ist ... bullshit von Leuten, die auf MAX MAX MAX MAX stellen und sich dann wundern, warum nur 10 FPS auf ihrer Dual-Titan-RTX2080-Super-TI-FE-OC krüppeln ;). Geld wie heu ... aber net genug Schmalz um es zu nutzen.

Schnoesel
2019-12-03, 11:43:46
Bei welchem z.B.?
Hab nen I5-4690k ... und bisher kein Spiel gehabt, was "Probleme" hatte.
Zumindest keins, bei dem ein I9 irgend wie geholfen hätte ;).


--> Filterblase

Klar man kann immer ein CPU mit einer grottigen GPU betreiben aber das macht die CPU nicht schneller. Bei BFV ist das Setting egal, da kannst auch Ultra Low spielen es ist trotzdem zu wenig. Und in all meinen genannten Spielen würde ein I9 mit der gleichen Grafikkarte wesentlich besser dastehen.
Und Filterblase deswegen weil du von deinem used case in Verbindung mit ner GPU ausgehst die nicht mal genug Speicher für heutige Spiele hat und gleich Allgemeingültigkeit postulierst. Sorry aber was soll das für eine Argumentation sein. Ich hatte nie Problem also haben sie andere auch nicht. Ja toll. Uninteressant.

dargo
2019-12-03, 11:51:21
Dass Konsolen effizienter arbeiten hat relativ wenig damit zu tun, dass die CPUs trotzdem lahm sind.
Bullshit. Es zählt was am Ende auf die Straße in Form von fps rauskommt und nicht was theoretisch ohne den ekelhaften Overhead möglich wäre. Dieser kack Overhead ist selbst heute noch in vielen Games am PC present, nur deshalb sind die Spieler gezwungen die "Brechstange" zu fahren.

Einfach mal seine eigene Filterblase verlassen. Es gibt genug Spiele denen 4C/4T heute zu wenig sind und einfach nicht mehr rund laufen. BFV ist mit 4C/4T unspielbar, Borderlands 3 kackt mit 4C/4T bei den frametimes gnadenlos ab, ein 7700k hat hier mehr als doppelt so gute Frametimes: https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/ Ebenso ergeht es in Red Dead Redemption2 https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#abschnitt_cpubenchmarks.

Zu dumm nur, dass die meisten Tests der Redaktionen mit unfertiger Software durchgeführt werden. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12149443&postcount=1390

Schnoesel
2019-12-03, 11:58:38
Scheißegal ob fertig oder unfertig. In solch einem Zustand spielen es die Leute. BFV wird für immer unfertig sein, weil das ein einziger Bughaufen ist und dennoch die Leute spielen es und zwar jetzt. Und in diesem Spiel willst du keinen 4C/4T das garantiere ich dir. Der streckt spätestens in Metro mit etwas Rauch alle 4re von sich.

w0mbat
2019-12-03, 12:02:32
Also mein ehemaliger i5-3570K@4,4GHz war vor über einem Jahr in vielen Spielen einfach schon unbrauchbar. Aktuell ist 4C/8T das Minimum.

Iscaran
2019-12-03, 12:04:18
Ich supporte grundsätzlich kein Gerede darüber ob man 8 Kerne braucht nur weil die Games über Denuvo geschützt sind.

https://www.pcgameshardware.de/Devil-May-Cry-5-Spiel-61749/News/Performance-besser-ohne-Denuvo-per-Trick-auch-abschaltbar-1277115/
https://www.extremetech.com/gaming/282924-denuvo-really-does-cripple-pc-gaming-performance
https://arstechnica.com/gaming/2018/12/evidence-continues-to-mount-about-how-bad-denuvo-is-for-pc-gaming-performance/

Warum soll ich mir eine CPU für 500€ + und eine GPU für 1000€ + Kaufen nur weil die Softwareklitsche meint mich mit Denuvo zu gängeln ?

Soetwas supporte ich nicht und daher finde ich die "Notwendigkeit" für mehr Kerne mit solchen Beispielen zu begründen als schlichtweg Nichtig.

Und die Benchmarks oben sind EXTRA mit starker Hardware gemacht...dabei ist Denuvo vor allem für "schwache Hardware" der Killer. Kann man nicht oft genug hervorheben.

dargo
2019-12-03, 12:04:54
Scheißegal ob fertig oder unfertig. In solch einem Zustand spielen es die Leute.
Also ich spiele es noch nicht. :P

Schnoesel
2019-12-03, 12:06:06
Schön für dich. Willst du auf dem Niveau weiter diskutieren? Mach doch einen Thread für unfertigen Softwaremüll auf. evtl hört dir einer zu.

dargo
2019-12-03, 12:09:21
Dafür gibt es schon einen Thread.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=577870

Aber offenbar generiert ein Nachtest mit gefixter Software nicht genug Klickbaits. :rolleyes:


https://www.pcgameshardware.de/Devil-May-Cry-5-Spiel-61749/News/Performance-besser-ohne-Denuvo-per-Trick-auch-abschaltbar-1277115/
https://www.extremetech.com/gaming/282924-denuvo-really-does-cripple-pc-gaming-performance
https://arstechnica.com/gaming/2018/12/evidence-continues-to-mount-about-how-bad-denuvo-is-for-pc-gaming-performance/

Lol... schöne Einladung für Raubmordkopien sofern da kein Bockmist gemessen wurde. :freak: Der Unterschied in den Frametimes ist da echt heftig. So heftig war mir das noch gar nicht bekannt.

Ganon
2019-12-03, 12:28:13
Bullshit. Es zählt was am Ende auf die Straße in Form von fps rauskommt und nicht was theoretisch ohne den ekelhaften Overhead möglich wäre.

Ja, und auch mit meinem alten PC ist es möglich die 2013er Konsolen, sowohl in Performance als auch Grafikqualität zu schlagen, obwohl der Overhead am PC höher ist.

Dein Overhead-Blabla geht an der ursprünglichen Aussage ziemlich weit vorbei.

dargo
2019-12-03, 12:30:46
Ja, und auch mit meinem alten PC ist es möglich die 2013er Konsolen, sowohl in Performance als auch Grafikqualität zu schlagen, obwohl der Overhead am PC höher ist.

Womit denn? Mit deinen 30fps? :| Ihr solltet euch vielleicht mal einigen welchen Anspruch man verfolgt bei der ganzen Diskussion. Ansonsten wird das hier anstrengend.

btw.
Von welchen alten System ist überhaupt die Rede hier? Ich sehe da bei dir vier verschiedene Systeme. Ist das letzte System mit der 1060 gemeint? Die ist auch keine 6 Jahre alt. Der i5-4460 ist zwar 5 Jahre alt. Bei den Konsolengames muss man aber auch abwiegen was da limitiert. Wenns die GPU ist kann man nicht per se sagen die CPU wäre lahm. Und warum du die "Refreshes" @PS4pro + XBX ignorierst wirst du uns auch sicherich verraten.

Geächteter
2019-12-03, 12:40:10
Lol... schöne Einladung für Raubmordkopien sofern da kein Bockmist gemessen wurde. :freak: Der Unterschied in den Frametimes ist da echt heftig. So heftig war mir das noch gar nicht bekannt.
Bringt nix, da Denuvo ja nicht entfernt, sondern nur ausgetrickst wird.
Auf PC immer mehr CPU-Last dank Schutz, auf Smartphones Freemium-Müll. Neue, moderne Gaming-Welt auf offenen Systemen.

Ganon
2019-12-03, 12:42:02
Womit denn? Mit deinen 30fps? :|

Na womit denn sonst? Die Konsolen rendern die kritischen Spiele auch nicht in 120fps bei 4K. Also Äpfeln mit Äpfeln vergleichen und für 1080p@30fps, was über dem Niveau der Konsolen liegt, braucht man halt in der Regel nicht mehr als 4 Kerne. Zusätzlich rendern Konsolen oft nur auf Medium Settings, wenn nicht sogar weniger.

Ich hab ein i5-4660 mit einer GTX 1060 und hab bisher noch kein Spiel erlebt was nicht mit sauberen 30fps bei 1080p lief. Dass das der PC Masterrace zu wenig ist, ist mir klar, ändert aber nichts an der ursprünglichen Aussage.

Wenn du Dinge vergleichen willst, dann leg die gleichen Messlatten an und nicht zwei verschiedene.

Und warum du die "Refreshes" @PS4pro + XBX ignorierst wirst du uns auch sicherich verraten.

Klar kann ich dir das verraten. Es ging um die Konsolen von 2013 und nicht um die Konsolen von 2016/2017. Zumal die CPU-Leistung der Refreshes nur unwesentlich gestiegen ist. Und welches System ich aus meiner Signatur zum Zocken nehme, kannst du dir sicherlich auch alleine denken :ugly:

dargo
2019-12-03, 12:44:10
Wir halten fest... am PC braucht keiner mehr als 4C/4T weil 30fps reichen. ;D Oh man... was für Diskussionsgrundlagen wieder hier. :facepalm: Ich bin raus.

Bringt nix, da Denuvo ja nicht entfernt, sondern nur ausgetrickst wird.

Wäre mir egal sofern die Performance mit dem Trick wieder passt. :)

Ganon
2019-12-03, 12:49:30
Wir halten fest... am PC braucht keiner mehr als 4C/4T weil 30fps reichen. ;D Oh man... was für Diskussionsgrundlagen wieder hier. :facepalm: Ich bin raus.

Die Aussage von dir hab ich zwar nie getätigt, aber da du eh komplett am Sub-Thema vorbei diskutierst, ist es vermutlich besser so :)

Exxtreme
2019-12-03, 12:52:11
Wir halten fest... am PC braucht keiner mehr als 4C/4T weil 30fps reichen. ;D Oh man... was für Diskussionsgrundlagen wieder hier. :facepalm: Ich bin raus.

Wenn 30 fps reichen dann reichen sie eben. Mir reichen sie zwar nicht aber ich würde meinen Maßstab nicht an andere Leute anlegen. Es gibt sogar Leute denen reichen 24 fps im Kino. Jo mei, ist halt so.

Geächteter
2019-12-03, 12:52:53
Wäre mir egal sofern die Performance mit dem Trick wieder passt. :)
Da es ja nur ein Trick ist und die Scheiße weiter im Hintergrund läuft, passt eben nix. Wurde auch schon getestet. Denuvo ist aber recht erfolgreich, je ausgeprägter die Variante, desto mehr. Wird uns deshalb wohl erhalten bleiben, und wenn es gelingt, neue Versionen zu knacken, die nächste Version noch aufwändiger und CPU-fordernder sein.

Ganon
2019-12-03, 13:09:13
Wenn 30 fps reichen dann reichen sie eben. Mir reichen sie zwar nicht aber ich würde meinen Maßstab nicht an andere Leute anlegen. Es gibt sogar Leute denen reichen 24 fps im Kino. Jo mei, ist halt so.

Ich hab persönlich nichts gegen 60fps oder mehr. Ich bin nur nicht bereit so viel Geld in Hardware zu stecken, nur um Crap-Code irgendwelcher Spieleentwickler auf 60fps oder mehr zu hieven. Und ich sehe es ja bei Spielen die DX12 oder Vulkan benutzen, dass mein i5 sich derweil langweilt und auf die Grafikkarte wartet. Und da ich auch keinen VRR-Bildschirm habe, hab ich eben nur die Wahl zwischen 30fps, Tearing oder stark schwankender Framerate.

Da sind mir persönlich stabile 30fps einfach lieber und im Gegensatz zu den Konsolen hab ich halt auch stabile 30fps. Auch wenn ich mir manchmal die Rendering Tricks wie dynamische Auflösung auch gerne für den PC wünschen würde.

dargo
2019-12-03, 13:10:07
Wenn 30 fps reichen dann reichen sie eben. Mir reichen sie zwar nicht aber ich würde meinen Maßstab nicht an andere Leute anlegen. Es gibt sogar Leute denen reichen 24 fps im Kino. Jo mei, ist halt so.
Wofür dann die überflüssige Diskussion wenn jeder sowieso einen anderen Anspruch hat? Egal ob Framerate oder Frametimes.

aufkrawall
2019-12-03, 13:13:29
Auch wenn ich mir manchmal die Rendering Tricks wie dynamische Auflösung auch gerne für den PC wünschen würde.
Gibt es ja, der Entwickler muss nur willig sein.

Ganon
2019-12-03, 13:39:05
Gibt es ja, der Entwickler muss nur willig sein.

Ich weiß. Auf Konsolen ist das ja mehr oder weniger Standard. Aber ich glaube ich habe ein Spiel auf dem PC oder so was das optional anbietet. Generell wäre mir ein "Target Framerate" Setting ganz lieb, wo das Spiel sich das selbst errechnet was geht und was nicht.

Ex3cut3r
2019-12-03, 14:27:47
Gears 5 bietet so etwas zum Beispiel.

erlgrey
2019-12-03, 15:02:27
Apex auch.

allerdings wundert es mich, dass es jemanden gibt der so schmerzfrei ist und das wirklich nutzen will.

dargo
2019-12-03, 15:39:03
Ich weiß. Auf Konsolen ist das ja mehr oder weniger Standard. Aber ich glaube ich habe ein Spiel auf dem PC oder so was das optional anbietet. Generell wäre mir ein "Target Framerate" Setting ganz lieb, wo das Spiel sich das selbst errechnet was geht und was nicht.
Target Framerate ist einfach Steinzeit. Das ist noch Überbleibsel von festen Frequenzen. Wir haben am PC schon seit Jahren VRR. Eine viel bessere Lösung.

aufkrawall
2019-12-03, 16:03:50
Quatschargument, weil VRR nicht beim Erreichen spielbarer Bildraten hilft....

THEaaron
2019-12-03, 16:11:01
Apex auch.

allerdings wundert es mich, dass es jemanden gibt der so schmerzfrei ist und das wirklich nutzen will.


Also bei einem Spiel wie Apex würde ich einen kurzzeitigen Abfall der Auflösung/Bildqualität für konstante FPS liebend gerne in Kauf nehmen. Kommt halt drauf an welchen Schmerz man eher aushält. Bei mir ist die Schmerzgrenze bzgl Frames auf jeden Fall sehr viel niedriger.

erlgrey
2019-12-03, 16:20:29
Das letzte mal als ich es in Apex ausprobiert hab, hatte man in solchen fällen aber oft einen kleinen dip nach unten bevor die reduzierte Auflösung gegriffen hat und es war auf 100fps gecappt.

kA ob das in der Zwischenzeit besser ist.

Ganon
2019-12-03, 16:26:06
Target Framerate ist einfach Steinzeit. Das ist noch Überbleibsel von festen Frequenzen. Wir haben am PC schon seit Jahren VRR. Eine viel bessere Lösung.

VRR gibt einem mehr mögliche Konstanten, wenn man kein Tearing will, aber was das mit der Target Framerate zu tun hat, darfst du mir gerne erklären.

Döner-Ente
2019-12-03, 16:31:27
VRR gibt einem mehr mögliche Konstanten, wenn man kein Tearing will, aber was das mit der Target Framerate zu tun hat, darfst du mir gerne erklären.


Vermutlich in dem Sinne, als dass man z. B. keine 80 Fps als Target Framerate braucht, wenn sich 50-70 Fps dank und mit VRR ähnlich fluffig spielen.

Ganon
2019-12-03, 16:41:04
Vermutlich in dem Sinne, als dass man z. B. keine 80 Fps als Target Framerate braucht, wenn sich 50-70 Fps dank und mit VRR ähnlich fluffig spielen.

Das mag in ausgewählten Szenarien ja funktionieren, aber für gewöhnlich sieht es (bei mir) so aus, dass die Framerate mal als Beispiel irgendwo zwischen 40 und 120 schwankt und dann natürlich auch das Eingabeverhalten eiert wie blöde. Da setze ich mir lieber eine konstante Framerate auf die Minimum-FPS. VRR kann die Spielerfahrung hier etwas glätten, aber nicht beheben.

dargo
2019-12-03, 16:59:19
Quatschargument, weil VRR nicht beim Erreichen spielbarer Bildraten hilft....
Wenn 30fps für Ganon spielbar sind warum sollten plötzlich 35, 42, 46, 39fps etc. für Ganon nicht spielbar sein? Interessante Logik von dir. :uponder:

Das mag in ausgewählten Szenarien ja funktionieren, aber für gewöhnlich sieht es (bei mir) so aus, dass die Framerate mal als Beispiel irgendwo zwischen 40 und 120 schwankt und dann natürlich auch das Eingabeverhalten eiert wie blöde. Da setze ich mir lieber eine konstante Framerate auf die Minimum-FPS. VRR kann die Spielerfahrung hier etwas glätten, aber nicht beheben.
Diese Behauptung kann eigentlich nur von jemanden kommen der noch nie mit VRR gespielt hat. Wie war das nochmal mit "Was der Bauer nicht kennt"? :D

aufkrawall
2019-12-03, 17:01:14
Sagt der, der irgendwas von VRR erzählt, obwohl Ganon das wahrscheinlich auch nicht hat...

Ganon
2019-12-03, 17:08:34
Diese Behauptung kann eigentlich nur von jemanden kommen der noch nie mit VRR gespielt hat. Wie war das nochmal mit "Was der Bauer nicht kennt"? :D

Na wenn VRR alle diese Probleme löst, warum hast du denn ein Problem mit 30fps? Müsste sich doch nach dem Text genauso anfühlen wie 120fps. Tut es das?

Daredevil
2019-12-03, 17:13:19
Diese Behauptung kann eigentlich nur von jemanden kommen der noch nie mit VRR gespielt hat. Wie war das nochmal mit "Was der Bauer nicht kennt"? :D
Häh?
Natürlich ist es homogener, fixe 60fps zu haben, als von 60-120fps zu schwanken. Das ist doch das, was er beschrieben hat.
Schwankungen ändern das haptische Spielverhalten, mit fixen FPS merzt man das ganze aus. Was soll VRR denn da machen? Zaubern?

crux2005
2019-12-03, 17:37:45
Vier Kerne werden genau bis zur naechsten Konsolen-Generation leben, dann ist Schluss.

Glaube ich nicht. Dafür gibt es zu viele 4 Kerner von Intel auf dem Markt.
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

4 CPUs mit ~52%

Döner-Ente
2019-12-03, 17:40:23
Am zunehmenden Input-Lag mit weniger Fps kann VRR naturgemäß auch nichts ausrichten, aber es verhindert Tearing, glättet Stocker durch wechselnde Frameraten und macht das Bild ruhiger.
Insofern ist beides richtig:
Ja, VRR macht das Spielen mit niedrigeren und wechselnden Frameraten sehr viel angenehmer, aber auch ja, wechselnden Input-Lag in Abhängigkeit von den Fps gibt es nach wie vor - und wer Spiele spielt, in denen die Fps stark schwanken und wer für wechselnden Input-Lag sehr empfindlich ist, für den ist VRR dann auch kein Allheilmittel.

BlacKi
2019-12-03, 17:57:14
was ganon meinte ist doch, das man als entwickler zuerst versucht eine target framerate hinzubekommen, denn wenn die nicht stimmt hilft dir auch kein vrr mehr. die diskussion vrr vs target framerate stellt sich garnicht.

Also bei einem Spiel wie Apex würde ich einen kurzzeitigen Abfall der Auflösung/Bildqualität für konstante FPS liebend gerne in Kauf nehmen. Kommt halt drauf an welchen Schmerz man eher aushält. Bei mir ist die Schmerzgrenze bzgl Frames auf jeden Fall sehr viel niedriger.
zum dem thema wandeln sich die spiele schon hin. da wird im laufenden spiel dynamisch das LoD angepasst^^ IMO ist das ein graus und bei CoD im groundwar zu erkennen wenn man öfter spielt. mal sieht die entfernung gut aus mit niedrigeren fps und manchmal richtig low, aber die fps gut. jedes mal anders, dynamisch eben.

das korrekte benchmarken macht das fast unmöglich, weil quali je nach lauf und karte anders aussieht.

Benutzername
2019-12-03, 18:30:19
Glaube ich nicht. Dafür gibt es zu viele 4 Kerner von Intel auf dem Markt.
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

4 CPUs mit ~52%

klar nicht sofort it Veröffentlichung der neuen Konsolen, aber nach ein zwei Jahren wird das spätestnes abfärben, wenn die engiens angepasst sind und die Programmierer sich daran gewöhnt haben. Natürlich läuft miltithreaded software auch auf einem Vierkerner. Nur eben langsamer, weil die CPU mehr Zugriffe auf den Hauptspeicher machen muss.

crux2005
2019-12-03, 19:10:25
klar nicht sofort it Veröffentlichung der neuen Konsolen, aber nach ein zwei Jahren wird das spätestnes abfärben, wenn die engiens angepasst sind und die Programmierer sich daran gewöhnt haben. Natürlich läuft miltithreaded software auch auf einem Vierkerner. Nur eben langsamer, weil die CPU mehr Zugriffe auf den Hauptspeicher machen muss.

Das war aber der Kern seiner Aussage.

insane in the membrane
2019-12-03, 19:12:18
Jetzt ist es amtlich: 8C/16T ist Mainstream. ( https://www.computerbase.de/2019-12/medion-erazer-x87095-aldi/) ;)

Die Tatsache, dass Aldi einen PC in dem Preissegment anbietet, macht aber mal wirklich richtig Hoffnung. Doch nicht alles Konsoleros da draußen.

Nightspider
2019-12-03, 19:12:42
Krass wie sehr ihr in 3 Seiten vom Thema abgewichen seid.

Hier taten Einige so als hätte man mit einem QuadCore Probleme noch aktuelle Spiele zu spielen.
Was ich sah waren Benchmarks mir >>50fps auf einem QuadCore OHNE SMT.

Obwohl das schon spielbar ist wurde nicht mal darauf eingegangen das es MIT SMT plötzlich viel besser lief.
Das gerade die Titel, die auf 4 Thread CPUs mehr Spikes zeigen, eben für 6-8 Kerne optimiert sind sollte ja klar sein.

Da könnt ihr auch gerne einen Sandy Bridge i7 2600K mit SMT heranholen, der schaukelt die alten Games auch noch. Nicht mir mind. 144fps aber dennoch flüssig genug für die Meisten zum Zocken.

Es ging vor 2 Seiten, wie ich eben lesen konnte um einen reinen Performancevergleich der Konsolen CPUs mit den alten QuadCores. Da ging es quasi um Rohpower (meiner Meinung nach).

Dargo muss natürlich mit seinem lowlevelapi Kram reinkretschen und dann noch mit VRR nachtreten um den Thread zu derailen. Bravo.

Und obwohl sich Dargo dann schon verabschiedet hat kam er wieder und fragt nach was eigentlich für Settings vergleicht werden.

Dargo an der Stelle mal Applaus für dich. :uclap:

@an die Anderen:

Klar sind eure Ansprüche die letzten 6 Jahre gestiegen, mit schnellerer PC Hardware und schnelleren Bildschirmen.
Aber man braucht jetzt wirklich nicht so tun als könnte man die uralten Games nicht mehr vernünftig zocken. Gerade auf QuadCores mit SMT siehts schon wieder gut aus.
Ansonsten wirkt das ein bisschen als würdet ihr euch eure teuren 6 und 8 Kerner schönreden (bei Intel).

Dank AMD und Zen 2 muss man sich ja nicht mehr die Frage stellen ob man noch einen QuadCore kaufen muss, da man schon 6 Kerne hinterhergeworfen bekommt.


Edit:

Interessant wirds am PC dann in 1-2 Jahren, wenn die PS5 Ports kommen, die ~7 Zen 2 Kerne, im schlimmsten Fall mit SMT ausnutzen werden und wir uns am PC mit schlechten APIs und sowas wie Denuvo abgeben müssen.

Ein Teil der Last durch das SSD Streaming lässt sich bestimmt ganz gut auf die SMT Threads verteilen, denke ich.

sulak
2019-12-03, 19:22:22
Mainstream und eine 2.699 Euro ALDI Mühle schließen sich gegenseitig aus...

Zum Thema, auch Indys kommen langsam mit besserer Spieleperformance, was nicht mal an CPU Multicore Unterstützung liegt, sondern weil die Grafikkarten soviel mehr Dampf haben und neuere Techniken es einfacher machen zu entwickeln.

Den Großteil der "Optimierung" hat man wohl eher dem 2x4=8Core Jaguar der Konsolen zu verdanken. Dort haben sich die Devs ausgetobt und sehr viele Engines haben Aufgaben von der CPU auf die GPU übergeben, weil dort die Power liegt.

Lowlevel Api = Einfach mal lesen was Demirug und andere Devs dazu schreiben, Lowlevel im Sinne von 1995 gibts quasi nicht mehr.
Glaube für SoftwareTEc NOobs wie mich ist eher die "Einfachheit" von Vulkan und DX12 das Ausschlaggebende oder mit welchen neuen Quirks man Grafikeffekte erzeugt, die vor 10 Jahren gar nicht möglich waren (nicht Raw-Power sondern Technik). Beispiel: PBR

BlacKi
2019-12-03, 19:58:26
Wie kommst du zu dieser Annahme? Ein heutiger 3900X wird locker auch die Konsolen nach den Konsolen 2020 überleben. Das dürfte sogar schon mit einem 3700X passieren. Bei den übernächsten Konsolen irgendwann in ~2025 haben wir hoffentlich nur noch low level am PC.
mit doppelter framerate als jene? das wird knapp. klar wird er etwas schneller sein als die konsole, aber hat anstatt 30fps der ps5 dann vl 45fps? überlebt ja, aber jeder mit etwas anspruch, hat ihn dann schon längst ausgetauscht.

dargo
2019-12-03, 21:21:08
Häh?
Natürlich ist es homogener, fixe 60fps zu haben, als von 60-120fps zu schwanken. Das ist doch das, was er beschrieben hat.
Schwankungen ändern das haptische Spielverhalten, mit fixen FPS merzt man das ganze aus. Was soll VRR denn da machen? Zaubern?
:facepalm:

Er muss sich zwischen 30fps und 60fps fürs erstere entscheiden weil seine Hardware keine 60fps durchgehend liefern kann. Jetzt darfst du 3x raten welchen Vorteil er mit einem Bildschirm mit VRR hätte.

mit doppelter framerate als jene? das wird knapp. klar wird er etwas schneller sein als die konsole, aber hat anstatt 30fps der ps5 dann vl 45fps? überlebt ja, aber jeder mit etwas anspruch, hat ihn dann schon längst ausgetauscht.
Also hat Ganon in deiner Welt keinen wenig Anspruch... interessant. :uponder: Erstmal will ich Konsolengames in 2020+ sehen die auf 30fps limitiert sind weil die CPU der Flaschenhals ist.

Daredevil
2019-12-03, 21:25:12
Ganz ehrlich, bei 30fps machen VSync den Kohl auch nicht fett.
Da drückste nen Knopf und kannst nebenbei noch Kaffee kochen, mit VRR haste halt keine Zeit mehr für den Zucker. :D

Schakar
2019-12-03, 21:32:28
--> Filterblase

Klar man kann immer ein CPU mit einer grottigen GPU betreiben aber das macht die CPU nicht schneller. Bei BFV ist das Setting egal, da kannst auch Ultra Low spielen es ist trotzdem zu wenig.


Auch BFV ist weit weg von "unspielbar" oder "zu wenig". Denn selbst da gehen konstant 60 FPS.

Und "Filterblase" ist weiter hin absolut falsch verwendet! Aka totaler Blödsinn.
Andersrum ... schicke Filterblase, in der alles unter I9 und 2080ti nur noch Hardwareschrott ist. (genauso falsch verwendet).

Aber hauptsache mal nen Mode-Schimpfwort rein schmeißen gelle ;).
(irony) Du FORUM-TROLL (/irony off)

Denn so leit es mir tut, 10, 16, 20, 100 Kerne werden auch in weiter Zukunft NICHT RELEVANT für Spiele! Der Aufwand für die Entwickler ist schlicht zu groß im Verhältniss zum Ergebniss. Und das bissel multi-core was es schon gibt ist in den aller meisten Fällen gewurschtel von DX12/Vulkan/co.
Aka SIMULIERTES multi-threading!

Und btw. echte Cores >>>>>>>>>>>>>>>>>>>> HT/SMT. Immer und zu jeder Zeit! Schon rein physikalisch.

dargo
2019-12-03, 22:20:18
Und btw. echte Cores >>>>>>>>>>>>>>>>>>>> HT/SMT. Immer und zu jeder Zeit! Schon rein physikalisch.
Ja... nur ist der Aufpreis vom bsw. R5 3500X auf R5 3600 einiges kleiner als auf einen R7 3700X. ;) Fairerweise muss man dabei natürlich sagen, dass es von AMD keinen 8C/8T (noch?) Ryzen 3000 gibt. Dieser müsste dann nämlich auch günstiger als der R7 3700X angeboten werden.

Ganz ehrlich, bei 30fps machen VSync den Kohl auch nicht fett.
Da drückste nen Knopf und kannst nebenbei noch Kaffee kochen, mit VRR haste halt keine Zeit mehr für den Zucker. :D
Lustiger Vergleich. :D

Die Kernaussage ist... Ganon ist gezwungen auf 30fps zu limitieren weil er keinen VRR-Bildschirm hat. Dh. er verzichtet automatisch auf höhere Frameraten und weniger Inputlag nur wegen seinen Bildschirm obwohl seine Hardware mehr könnte. Nur halt nicht durchgehend 60fps, aber oft eben mehr als 30fps.

Na wenn VRR alle diese Probleme löst, warum hast du denn ein Problem mit 30fps?
30fps sind abgesehen von der verdammt zähen Maussteuerung für meine Augen einfach nicht flüssig. So ab ca. 45-48fps bin ich zufrieden. Visuell, nicht unbedingt bei der Eingabe.

Schnoesel
2019-12-03, 22:31:29
Auch BFV ist weit weg von "unspielbar" oder "zu wenig". Denn selbst da gehen konstant 60 FPS.


Nein!

Dir gefällt Filterblase nicht? Hier hab ich ein anderes für dich. --> Tellerrand.

Ganon
2019-12-03, 22:36:43
Die Kernaussage ist... Ganon ist gezwungen auf 30fps zu limitieren weil er keinen VRR-Bildschirm hat. Dh. er verzichtet automatisch auf höhere Frameraten und weniger Inputlag nur wegen seinen Bildschirm obwohl seine Hardware mehr könnte. Nur halt nicht durchgehend 60fps, aber oft eben mehr als 30fps.

Klar. Das hab ich übrigens auch weiter oben bereits so geschrieben. Hat nur nichts mit meiner gewünschten Einstellung einer Target-Framerate zu tun. Aber gut, da du dich nicht an deine Aussagen hältst, mach ich mal meine: Ich bin zu dem Sub-Thema raus. Du redest dauernd am Thema vorbei und öffnest irgendwelche neuen Themen, um die es gar nicht geht.

crux2005
2019-12-03, 22:42:31
Und btw. echte Cores >>>>>>>>>>>>>>>>>>>> HT/SMT. Immer und zu jeder Zeit! Schon rein physikalisch.

Dem Spiel ist es egal ob es SMT Threads sind oder nicht.

dargo
2019-12-03, 22:43:50
@Ganon

Ich rede gar nicht am Thema vorbei. Denn auch VRR hat selbstverständlich was mit diesem Thema zu tun. Aber wie ich schon sagte, was der Bauer nicht kennt... du legst dir da einfach selbst Stolpersteine in den Weg Spielspaß wenn du weitere Jahre mit Steinzeitbildschirmen @feste Frequenz unterwegs bist.

Dem Spiel ist es egal ob die Threads "real" sind oder nicht.
Der Performance bzw. Mehrleistung aber nicht.

Nightspider
2019-12-03, 23:06:37
Ich rede gar nicht am Thema vorbei.

Und ich bei der Weihnachtsmann. :biggrin:

gravitationsfeld
2019-12-04, 01:21:05
Naja. PS4 und XBONE hatten schon x86 (wegen mir auch pseudo) Achtkerner.
Scheiss egal. Jaguar hat pro Kern 1/4 der Leistung von einem modernen PC-Prozessor.

Ich seh's bei unserem Zeug, auf dem PC laeuft der Code, der auf den Konsolen 16ms braucht in <4ms und das selbst auf einem Quad Core. Und das ist mit mehr API-Overhead trotz Vulkan.

Die Next-Gen-Konsolen haben definitiv deutlich mehr Leistung als eine derzeitige 4Ghz Quad-Core-PC-CPU. Ohne Frage.

dargo
2019-12-04, 07:56:46
Ich seh's bei unserem Zeug, auf dem PC laeuft der Code, der auf den Konsolen 16ms braucht in <4ms und das selbst auf einem Quad Core. Und das ist mit mehr API-Overhead trotz Vulkan.

Hast du zufällig paar Vergleiche zu DX11? Wohl eher nicht oder? Aber eventuell zu OpenGL?

THEaaron
2019-12-04, 08:21:31
Auch BFV ist weit weg von "unspielbar" oder "zu wenig". Denn selbst da gehen konstant 60 FPS.



Nichtmal in BF1 konnte man mit einem 4c/4t Haswell 60FPS konstant halten. Unmöglich auf 64p Servern. Vor allem nicht auf Maps wie Amiens.

#44
2019-12-04, 08:43:26
Scheiss egal. Jaguar hat pro Kern 1/4 der Leistung von einem modernen PC-Prozessor.

[...]

Die Next-Gen-Konsolen haben definitiv deutlich mehr Leistung als eine derzeitige 4Ghz Quad-Core-PC-CPU. Ohne Frage.
Erstmal habe ich explizit mit Prozessoren von 2013 verglichen und dann habe ich nochmal extra dran geschrieben, dass ich dem kein Bisschen widerspreche...

Die Threadfrage war ja, ob bald 8-Kerner abgehängt werden.

Das Wissen darum, wie man Spiele Multithreaded gestaltet ist in der Industrie verbreitet. Nicht zuletzt, weil die Konsolen eben schon lange 8 (6...) Kerne nutzen.
Der Grund, wieso 8 Kerne am PC nicht voll ausgenutzt werden, sind die Konsolen - nicht die Fähigkeiten der Programmierer/Engines. Dass die vergleichsweise schwachen CPUs der Konsolen der einzige Grund sind, wieso gleich alte, doppelt so schnell getaktete Quadcores bis heute mithalten können, ist mir absolut klar.

Worauf ich hinaus will ist, dass diese Limitierung durch die HW der neuen Konsolen jetzt wiederholt und wir keineswegs bald zwingend 16-Kerner zum Zocken brauchen werden, weil die Programmierer endlich besser werden. Das war nämlich die letzten Jahre nicht das Problem an der Sache. Multiplatform kann man schlicht nicht für mehr CPU-Leistung auslegen, als die Konsolen haben. Damit wird auch ein Großteil der PC-Spieler nicht über 8-Kerner hinaus kaufen, wodurch auch Exklusivtitel diese Grenze eher selten überschreiten werden.

tl;dr: Das ist eine wirtschaftliche Problemstellung, keine technische.

][immy
2019-12-04, 10:10:45
Worauf ich hinaus will ist, dass diese Limitierung durch die HW der neuen Konsolen jetzt wiederholt und wir keineswegs bald zwingend 16-Kerner zum Zocken brauchen werden, weil die Programmierer endlich besser werden. Das war nämlich die letzten Jahre nicht das Problem an der Sache. Multiplatform kann man schlicht nicht für mehr CPU-Leistung auslegen, als die Konsolen haben. Damit wird auch ein Großteil der PC-Spieler nicht über 8-Kerner hinaus kaufen, wodurch auch Exklusivtitel diese Grenze eher selten überschreiten werden.

tl;dr: Das ist eine wirtschaftliche Problemstellung, keine technische.
Nun, das ist nicht wirklich so. Du kannst Problemlos auf viel mehr Threads als CPU-Kerne setzen, was ja auch sehr Sinnvoll ist. Aber natürlich darfst du dann trotzdem nicht mit dem Frametarget (von 30 oder 60 fps auf Konsolen) nicht die CPU-Leistung überschreiten.
Es lässt sich quasi "nur" das einsparen was nicht spiel-relevant ist. Und du würdest dich vermutlich wundern wie viel CPU-Leistung eigentlich überhaupt nur ins gameplay & KI fließt. Das meiste ist nach wie vor (mehr oder minder) Grafik-bedingt.
Z.B. Physik-Berechnungen haben auch meist keinerlei gameplay Auswirkung sondern dienen meist nur dazu die Grafik schöner zu machen. Lassen sich also schon mal hervorragend einsparen um schwächeren CPUs Platz zu machen.

Das ist auch etwas was ich schon seit Jahren bemängel bei Spielen. Die Grafik wird zwar ständig verbessert, aber bei den anderen Themen die ein Spiel ausmachen hat sich meist recht wenig getan.
Beispiel NPCs:
Nach wie vor haben sie recht fest Standpunkte und mit ein wenig Glück bewegen sie sich von A -> B. Simuliert wird hier aber fast nie etwas, höchstens wenn der NPC ins Sichtfeld gerät. Ich nehm hierbei gerne Gothic als Beispiel, weil hier die NPCs sich Tagsüber und Nachts etwas anders verhalten. Ist allerdings auch alles noch geskriptet und wirkliche dynamic kommt eigentlich nicht auf.
Gut hier liefe man auch Gefahr, das durch entsprechende Verhaltensweisen eventuell das Gameplay zerstört wird (zumindest so wie angedacht) und das Spiel darunter leidet, das der Spieler seinen Questgeber einfach nicht finden kann, weil der grad mal wieder einen anderen Weg nimmt. Da ist natürlich abzuwägen was überwiegt. Realismus ist hier meist ein klotz am Bein der Spielmechanik.

Beispiel KI-Gegner:
auch hier merkt man leider das diese häufig nur durch cheaten weiter kommen (endlose Resourcen, können alles auf der Karte sehen, …). Aktuelles Beispiel wäre da Anno 1800. KI Gegner können Beispielsweise nicht Pleite gehen. Deren Geldmittel zu unterbrechen, Hauptinseln zu übernehmen etc, hat überhaupt keinen Einfluss auf deren Militär oder Bauvorhaben. Ein Spieler würde daran zu Grunde gehen, wenn die Hauptinsel weggekauft wurde und die Einnahmequellen versiegt sind. Immerhin kostet das Militär auch ziemlichen Unterhalt (und Einfluss). Trotzdem hat der KI Gegner hier endlose Resourcen und kann auch weiterhin seine Riesenflotte unterhalten ohne etwas verkaufen zu müssen.
Und Anno ist ziemlich CPU-Intensiv, zumindest wenn man die Grafik hochdreht, mit der Simulation hat es eher weniger zu tun.

#44
2019-12-04, 10:40:13
Ist mir alles bekannt.

Aber auch die Nutzung von zusätzlichem Potential am PC wurde in der Vergangenheit bei Multiplatformentwicklungen in dem Umfang nur von wenigen Titeln gemacht, weil man den Aufwand nicht für einen winzigen Teil der Spieler betreibt.
Ansonsten müsste man heute Quadcores durch die Bank bei Max-Details quasi permanent mit <<60FPS im CPU Limit sehen... (Und bevor die ersten mit Verständnisproblemen ankommen: Mir ist ebenfalls klar, dass das ein paar PC-Exclusives schaffen)

Wieso sollte sich das mit der nächsten Konsolengeneration ändern?

=Floi=
2019-12-04, 11:00:21
Wenn man dir CPU voll müllt ist es halt auch einfach die Cores zu füllen. Bestes Beispiel ist Crysis 3 mit fer Gras-Physik ohne SSE-Optimierung. Wurde als absolut super multithreading Spiel genannt. Bei Ryse war's dann SSE und keiner redet mehr davon.

Wie ist das zu verstehen mit dem sse? Läuft bei ryse dank SSE die vegetation viel optimierter?
Bei crysis 3 bin ich noch dabei, wobei ist das schon genial fand.

gnomi
2019-12-04, 11:21:14
Eventuell stehen den neuen Konsolen auch nicht alle Kerne für Spiele zur Verfügung? :confused:
Schon in der aktuellen Generation wurden einige Ressourcen für die ganzen OS Elemente abgezwackt. (und auch durch Optimierungen dann nicht mehr komplett freigegeben)
Ich nehme stark an, dass diese Community, Social und Store Geschichten noch fließender und grafisch hübscher sein sollen, um mehr $ zu machen...

4C/8T mag zu knapp sein. Das fängt ja schon an jetzt. 6C/12T könnte hingegen noch ein wenig länger sehr gut funktionieren. (vor allem, wenn DX12 & Vulkan dann breite Unterstützung finden)
Das sind ja schon viele Kerne und Threads dann langsam. Und die Leistung auf jedem ist auch nicht ohne...

dargo
2019-12-04, 12:30:08
Eventuell stehen den neuen Konsolen auch nicht alle Kerne für Spiele zur Verfügung? :confused:

Wieso eventuell? Das ist so sicher wie das Amen in der Kirche. Max. 14 Threads sehe ich langfristig zur Verfügung stehen. Am Anfang eher 12 Threads.

Nightspider
2019-12-04, 15:19:35
Eventuell stehen den neuen Konsolen auch nicht alle Kerne für Spiele zur Verfügung? :confused:

Dank SMT und damit 16 Threads und 4 mal höherer Leistung pro Kern (schon ohne SMT) spielt die Abzweigung für das OS halt nicht mehr eine so große Rolle wie bei der alten Generation.

Mehr als 2 Threads werden da sicherlich nicht benötigt. 2 Threads (also ein Kern mit SMT) von der PS5 hat schon 50% der CPU Leistung der ganzen Playstation 4.