PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Cyberpunk 2077 (Technik-Thread)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33

bnoob
2022-03-20, 15:43:48
Ist mit dem aktuellen Patch die Performance so viel besser geworden?

Ich hatte zu Launch mal ~10h gespielt und es irgendwann abgebrochen, damals waren das mit der extra angeschafften 6900XT @4K Non-RT und nicht alles Ultra meistens 40-55 FPS.

Gerade mal ein neues Spiel angefangen, der Benchmark hält @4K Ultra Non-RT ohne FSR und so durchgehend mindestens 60 FPS, ich kann sogar einfach auf 5K stellen und gehe auch damit während des Benchmarks nicht unter 60 FPS.

Habe ich was übersehen?

Oder ist der Trick die CPU? (1700X@OC vs 5950X@stock)?

dildo4u
2022-03-20, 15:50:53
Ohne RT ist es schneller geworden, mit RT langsamer da es neue RT Schatten gibt.

https://www.computerbase.de/2022-02/cyberpunk-2077-patch-1.5-benchmark/

Lurtz
2022-03-21, 08:44:41
Ohne RT ist es schneller geworden, mit RT langsamer da es neue RT Schatten gibt.

https://www.computerbase.de/2022-02/cyberpunk-2077-patch-1.5-benchmark/
Die man separat abschalten kann.

crux2005
2022-05-25, 16:16:19
gL-c5_UDPPg

;D

BlacKi
2022-05-25, 17:07:21
hab ich gestern gesehen. waren gute legitime punkte dabei. manche sind peanuts, ander sind schon ziemliche patzer.

Dampf
2022-05-25, 17:12:14
Die man separat abschalten kann.

Die Schatten drehen kaum was an der Performance.

Die Reflektionen in höherer Qualität lassen das Spiel langsamer laufen.

crux2005
2022-06-28, 03:31:44
Jetzt wird ein Q&A Studio "Quantic Lab" beschuldigt :D
https://www.quanticlab.com/

IMHO nicht nachvollziehbar.

GqZWmFdSbWA

rentex
2022-06-28, 06:06:32
Ist am Ende egal, CDPR war der Auftraggeber. Damit hat CDPR immer Schuld.

Dorn
2022-06-28, 08:29:02
Ist am Ende egal, CDPR war der Auftraggeber. Damit hat CDPR immer Schuld. Richtig, der Entwickler sollte u.a. auch sein Spiel mal selber spielen (ps4 Version).

DrFreaK666
2022-06-28, 12:06:33
Die Playstation Versionen waren sogar noch die guten Versionen :ugly:

Argo Zero
2022-06-28, 13:15:33
Schon jemand den FSR 2.0 Mod ausprobiert? Funzt das gut?

Κριός
2022-06-29, 18:44:05
Ansich gut. Hat einige Schwächen. Die Effekte der Securitycams ziehen nach. Das gleiche soll auch beim Autofahren passieren.

dargo
2022-06-29, 19:05:03
NQijfQ7yxdM

Raff
2022-07-14, 12:54:23
Brandneue Impressionen und Benchmarks aus Night City v1.52: 20 Jahre CDPR: Einstiges Problemkind Cyberpunk 2077 im Nachtest mit 40 CPU- und 22 GPU-Benchmarks (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-v152-Benchmark-Review-Raytracing-1398562/)

Tötet mit Raytracing immer noch zuverlässig jede GPU - obwohl dort mit Upscaling getestet wird. :uup: Selbst RX 7000 und RTX 4000 werden hier zu kämpfen haben.

MfG
Raff

robbitop
2022-07-14, 16:02:12
Begeben wir uns ins Jahr 2012: CD Projekt Red war gerade mit der Entwicklung von The Witcher 3: Wild Hunt - Blood and Wine fertig und konnte sich auf ein neues Projekt konzentrieren:

Kommentar zum Artikel: Witcher 3 Blood and Wine war nicht im Jahr 2012 fertig sondern erst 2016. Das Hauptspiel 2015.

Cubitus
2022-07-14, 16:43:22
Was mich bei den CPU Tests interessieren würde.
Bei mir läuft der 10900k mit 4400 Mhz RAM.
Glaube fast das Ergebnis wäre deutlich höher :D

An sich muss ich sagen das sich das Spiel wesentlich smoother als zu Anfang anfühlt.
Zocks mit DLSS Qualität auf 3440P und bin von der Leistung her zufrieden.

Jupiter
2022-08-10, 15:15:19
Die Grafik ist auf den höchsten Einstellungen mit Raytracing die nächste Ebene. Nichts kommt da im entferntesten heran.

Für maximale Grafik, natives UHD und 60 BpS benötigt es wohl das Vierfache meiner RTX3080-Rechenleistung. Zum Glück gibt es DLSS, was wie UHD aussieht und die Geschwindigkeit mehr als verdoppelt.

Die CPU-Anforderungen sind mit Raytracing und den vielen Menschenmassen sehr hoch. Daher wird es Zeit für eine neue CPU. Hier warte ich auf Ende des Jahres oder Anfang nächsten Jahres, wo von AMD die neuen CPUs kommen. Am meisten interessiert mich ein potentieller 5800X3D-Nachfolger mit DDR5.

Mit 1.5 kamen auch Raytracing Schatten für lokale Lichtquellen. Ohne Raytracing sah ich solche Beleuchtungseff3kte nie. Rasterizer-Grafik ist da wohl am Ende seiner Möglichkeiten. Raytracing und DLSS sind das Spanendste, was ich seit den letzten Sprung zu TAA, GPU-Partikeleln, volumetrischen Rauch und PBS sah. Ohne Raytracing kann nicht mehr mitgehalten werden.

yT6_z0H6-3U

Filp
2022-09-20, 01:11:27
Hab mir das Spiel gestern zugelegt und das Problem, dass öfter Grafikfehler auftreten. NPCs (auch mal nur Teile des Models) fangen an zu flackern und es sieht aus, als würden sie dabei ständig ihre Skins wechseln (Kleidungsstücke, Tattoos etc.).
Anfangs kam es sporadisch vor, zwischendurch waren es aber auch mal 20-30 NPCs auf der Straße.
Hatte irgendwer ähnliche Probleme und/oder eine Lösung dazu?

DrFreaK666
2022-09-20, 01:34:18
Mal einen anderen Treiber ausprobiert?

Ex3cut3r
2022-09-20, 01:48:52
Hardware? Benutzt du MODS? Wenn ja, alles mal raushauen.

Filp
2022-09-20, 13:21:58
Nutze keine Mods und habe bisher auch nur einen Abend 4 Stunden Spielzeit. Treiber sind aktuell.

Hab nen 10850k und ne 3080Ti verbaut.

dildo4u
2022-09-20, 20:35:20
Das Game bekommt erweiterte RT Features und DLSS3.


https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/#cyberpunk-2077

BlacKi
2022-09-20, 20:45:39
Zum Glück gibt es DLSS, was wie UHD aussieht und die Geschwindigkeit mehr als verdoppelt.


falls noch nicht getan, solltest du eine aktuellere dlss version selbst reinkopieren, die könnte dlss nochmals verbessern.

Jupiter
2022-09-20, 23:51:43
Danke für den Hinweis. 2.4.12 scheint bei schwarzen vertikalen Linien weniger zu flimmern als 2.3.4.0 oder was in 1.6 verwendet wird. Vielleicht ist es auch eine Einbildung, da ich keinen genauen Vergleich unternahm.

Gibt es irgendwo eine gesammelte Auflistung der DLSS-Versions-Eigenschaften bzw. einen Vergleich?

BeetleatWar1977
2022-09-21, 05:57:23
Danke für den Hinweis. 2.4.12 scheint bei schwarzen vertikalen Linien weniger zu flimmern als 2.3.4.0 oder was in 1.6 verwendet wird. Vielleicht ist es auch eine Einbildung, da ich keinen genauen Vergleich unternahm.

Gibt es irgendwo eine gesammelte Auflistung der DLSS-Versions-Eigenschaften bzw. einen Vergleich?
Schwierig - die genauen Änderungen sind von Nvidia als vertraulich gekennzeichnet..... Ansonsten hätt ichs zumindestens bis 2.2 da.....

Jupiter
2022-09-23, 00:01:29
Danke für das Angebot, aber mich interessieren primär die neuen Versionen. Spielte jetzt mit der vorletzten Version 2.4.6? und die gefällt mir besser als die Standardversion vom Spiel. Gegenüber der teuersten kaufbaren Wohnung befindet sich das Arasake-Gebäude. Da flimmerten die feinen schwarzen Linien. Jetzt sind die bei wenig Bewegung stabil. Insgesamt ist das Bild auch sauberer. Danke für den Hinweis @BlacKi.

BlacKi
2022-09-23, 05:39:56
Jetzt sind die bei wenig Bewegung stabil. Insgesamt ist das Bild auch sauberer. Danke für den Hinweis @BlacKi.ich freue mich schon auf dlss 3. ich denke, das wird nochmal um einiges besser, zumindest ohne frame generation.

wolik
2022-09-23, 06:20:16
Mit 4090 werde ich CP2077 noch mal spielen.

Sardaukar.nsn
2022-09-23, 06:22:57
Mit 4090 werde ich CP2077 noch mal spielen.


Dann aber mit dem DLC :wink:

PbVKBoDuhZ0

Ex3cut3r
2022-09-23, 17:01:43
2023 ist ja nun ziemlich ungenau. Könnte auch November 2023 sein. Schade.

aufkrawall
2022-09-23, 17:03:11
Die Content-Armut ist schon ein Witz. Eine Hülle von einem Spiel, seit bald zwei Jahren...

Jupiter
2022-09-23, 19:54:46
ich freue mich schon auf dlss 3. ich denke, das wird nochmal um einiges besser, zumindest ohne frame generation.

Exakt. Schließlich wird es noch weitere Versionen geben, welche die eine oder andere Bildverbesserung mit sich bringen könnten.

Lurtz
2022-09-23, 21:38:35
2023 ist ja nun ziemlich ungenau. Könnte auch November 2023 sein. Schade.
Willst du von CDPR wirklich ein festes Datum wissen? ;D Be careful what you wish for!

Troyan
2022-09-23, 22:14:22
Die sollen sich um The Witcher 3 kümmern. Cyberpunk, pff.

dildo4u
2022-10-13, 08:30:57
Nvidia Treiber Verbesserungen hauptsächlich im CPU Limit könnte größere Sprünge bringen wenn man kein 12900k nutzt.

https://abload.de/img/cyber4xix1.png

https://videocardz.com/newz/nvidias-new-driver-enables-substantial-directx12-performance-improvements-for-geforce-rtx-gpus

Winter[Raven]
2022-10-13, 08:49:05
2023 ist ja nun ziemlich ungenau. Könnte auch November 2023 sein. Schade.

Naja, 2 Sachen:

A) cdpr will nichts mehr unfertiges veröffentlichen
B) die müssen mit dem addon fertig werden, damit das Team so schnell wie möglich auf UE5 wechseln und die Arbeit an Orion starten können.

Ich denke Q2/23 wird klappen.

DaHansman
2022-10-25, 19:29:26
Tolle viele unterschiedliche grün Töne bei den Balken.
Gibt es Leute die ne 3090ti haben und in FHD spielen? Strange.

Ich denke auch, dass Q2/23 auch klappen wird. Ich mag das Spiel iwie immer noch sehr gerne und bin froh, dass sich mal jemand dem Genre angenommen hat.

crux2005
2022-10-31, 05:49:28
wackel Dackel... ;D

gWR11Ck_oZM

Iceman346
2022-11-02, 20:02:56
Das ist aber bei 1st Person Spielen normal. In Cyberpunk sieht man ja teilweise seine Spielfigur, darauf sind die Animationen abgestimmt. Das das dann in 3rd Person seltsam aussieht liegt in der Natur der Sache.

crux2005
2022-11-02, 20:11:30
Das ist aber bei 1st Person Spielen normal. In Cyberpunk sieht man ja teilweise seine Spielfigur, darauf sind die Animationen abgestimmt. Das das dann in 3rd Person seltsam aussieht liegt in der Natur der Sache.

GTAV und RDR2 machen es besser. Wird aber oft nicht wertgeschätzt.

Jupiter
2022-11-03, 00:13:33
GTA V und RDR 2 spielen sich in der ersten Perspektive schlecht. Dazu unterscheiden sich auch die Animationen zwischen den Perspektiven. In der Ersten wird die Pistole nach vorn gehalten und in der Dritten nach oben.

Star Citizen hat für erste und dritte Perspektive einheitliche Animationen und das sieht erheblich detaillierter aus. Insbesondere wenn z. B. Nachladeanimationen von Mitspielern betrachtet werden.

BlacKi
2022-11-03, 04:27:38
GTAV und RDR2 machen es besser. Wird aber oft nicht wertgeschätzt.weils keine first person shooter sind? was er gerade geschrieben hat?

Lurtz
2022-11-08, 14:12:18
Gibt einen neuen Patch hauptsächlich mit Bugfixes und FSR 2.1-Integration.

Olliver
2022-12-14, 12:02:29
Sorry, falscher Thread.

BlacKi
2023-02-01, 03:15:13
ich hab FG gerade getestet. doppelte fps? eher 40-50% mehr. aber da es sich mit reflex+boost gut anfühlt, ist das echt brauchbar. optisch sehe ich jetzt auch keine unterschiede.

Ex3cut3r
2023-02-01, 03:47:40
Ist doch super für Lau, da kann man nicht motzen IMHO.

dildo4u
2023-02-01, 05:40:00
FG modifierte mit DLSS2 2.5.1.

4uPnK6yKyKA


Reflex ist hier der eigentliche Winner Latenz halbiert ist krank.

Ng1hPv3qMms

Lurtz
2023-02-01, 09:01:54
Edit.

Raff
2023-02-01, 09:24:32
Gibt es Leute die ne 3090ti haben und in FHD spielen? Strange.

Full HD ist mit Ampere sogar verdammt oft anzutreffen, denn FHD hast du GPU-intern beispielsweise dann, wenn du DLSS Performance in UHD einstellst. :) Zwar hat der Kern in UHD mit DLSS P etwas mehr zu tun als in FHD mit TAA, aber nicht signifikant.

MfG
Raff

-=Popeye=-
2023-02-01, 18:51:38
Irgendwie kann ich hier mit Frame Generation in diesem Spiel nicht wirklich was anfangen oder sind diese Spikes normal.

7WZU6qZnaSM

Im Treiber selbst ist nur V/G-Sync aktiv und die Karte auf 300 Watt begrenzt.

Raff
2023-02-01, 20:07:25
Cyberpunk 2077 jetzt mit Frame Generation: Alle Infos zu DLSS 3, mit Benchmarks, Latenzen und mehr (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Frame-Generation-DLSS-3-mehr-Fps-kuenstliche-Bilder-Interpolation-1412549/)

Benchmarks mit maximaler Raytracing-Komplexität (aber Upsampling) -> RTX 4070 Ti kann mit FG die 4090 erreichen.

MfG
Raff

Jupiter
2023-02-01, 20:21:12
PCGH und DF sind für mich die verlässlichsten Quellen.

Bei DF finde ich den Fokus auf die Software sehr gut. Da sie sich tiefer mit der Sowftware wie z. B. den Spielemotoren auseinandersetzen können sie Ergebnisse gut interpretieren. Andere Seiten schauen nur auf reine Messwertewerte.

"Leistungssprung" durch Getrickse (reduzieren der effektiven Auflösung) und noch mehr Getrickse (ganze Frames einsparen und durch AI erraten lassen). Toller Fortschritt :uclap:

Die Rohperformance ohne beide Helferlein ist eher mäßig gestiegen und schwankt bei Ada zudem sehr. Am Ende ist Ada nur ein aufgepumpter Ampere bei dem ein Großteil der Performance durch den hohen Takt kommt. Ein GA102 mit 2,6 - 2,8 GHz wäre oft an AD102 dran oder gleichauf.

Das ist kein getrickse. Seit vielen Jahren werden einige Effekte z. B. nur in einer 1/4 Auflösung berechnet. Die Bildberechnung mit KI zu unterstützen ist die logische Weiterentwicklung.

Mit der RTX 4090 haben wir den größten Leistungssprung seit der 8800 GTX.

Razor
2023-02-01, 22:27:47
ich hab FG gerade getestet. doppelte fps? eher 40-50% mehr. aber da es sich mit reflex+boost gut anfühlt, ist das echt brauchbar. optisch sehe ich jetzt auch keine unterschiede.
Also mit meinem Setup (AMD X5900+RTX 4070ti) und meinen Einstellungen kann ich das bestätigen...
Im Benchmark 40min/82avg vs. 65min/128avg, also grob 55-60% und eben genau so viel, wie es braucht über die min 60fps zu kommen :up:

In anspruchsvoller, realer Scenarie (ähnlich der von PCGH genutzten "Red Light Alley") ca. 74fps vs. 115fps, also auch hier >50%.
Sehr schön und das auch noch "for free"!

Razor

jay.gee
2023-02-01, 23:42:45
Mit der RTX 4090 haben wir den größten Leistungssprung seit der 8800 GTX.

Ich bin neben der Leistung eigentlich am meisten davon beeindruckt, wie man bei so viel Mehrleistung gegenüber den Karten der letzten Generation, gleichzeitig die Temperaturen so drastisch reduzieren konnte. Da, wo die letzte Generation noch für massig Abwärme verantwortlich war, hat man jetzt das Gefühl, dass die Grafikkarte im Idle-Modus unterwegs ist.

Troyan
2023-02-01, 23:58:33
Das Volumen der Kühler ist auch doppelt so groß...

N0Thing
2023-02-02, 00:57:14
Da macht sich sicher auch der Sprung von Samsung zu TSMC bemerkbar. Die Unterschiede bei Leistung und Leistungsaufnahme konnte man auch schon bei den SoCs für Smartphones sehen. Mal gespannt, was Nvidia für die nächste Generation an Fortschritt schaffen kann, wenn dieser Vorteil nicht noch einmal mitgenommen werden kann.
Zudem ist es natürlich super, dass die ADA-Chips nun auch mit weniger Auslastung die Leistungsaufnahme klein halten können. Da war AMD mit RDNA2 im Vergleich zu den Ampere-Chips besser aufgestellt.

Ex3cut3r
2023-02-02, 01:05:10
Ich bin neben der Leistung eigentlich am meisten davon beeindruckt, wie man bei so viel Mehrleistung gegenüber den Karten der letzten Generation, gleichzeitig die Temperaturen so drastisch reduzieren konnte. Da, wo die letzte Generation noch für massig Abwärme verantwortlich war, hat man jetzt das Gefühl, dass die Grafikkarte im Idle-Modus unterwegs ist.

Klingt so, als wenn du CPU limitiert wärst, und deswegen deine GPU "chillt"

Atma
2023-02-02, 01:50:35
Das ist kein getrickse. Seit vielen Jahren werden einige Effekte z. B. nur in einer 1/4 Auflösung berechnet. Die Bildberechnung mit KI zu unterstützen ist die logische Weiterentwicklung.
Was ist es sonst, wenn mit DLSS die effektive Auflösung reduziert und mit FG ganze Frames weggelassen werden? Und keine Ahnung wo der Zusammenhang zwischen einzelnen Effekten die mit 1/4 der nativen Auflösung laufen und weiteren Einsparungen durch AI die logische Weiterentwicklung sein soll?

Mit der RTX 4090 haben wir den größten Leistungssprung seit der 8800 GTX.
Kleiner aber feiner Unterschied: die 8800 GTX schaffte das mit reiner Rohleistung und brauchte dafür keinen 2,5 Node Sprung im Vergleich zum Vorgänger.

BlacKi
2023-02-02, 03:05:14
keine Ahnung wo der Zusammenhang zwischen einzelnen Effekten die mit 1/4 der nativen Auflösung laufen und weiteren Einsparungen durch AI die logische Weiterentwicklung sein soll?


fps(y)

verbesserung vom performance/qualitätsverhältnisses. seit dem einzug von LoD vor ca 15-20 jahren setzt sich dieser trend fort. neue techniken helfen diesen fortschritt fortzuführen. dlss und FG sind das äquvalent zu LoD, ohne das heutige grafik garnicht möglich wäre.

selbst amd sieht den need und will etwas vergleichbares bringen.

jay.gee
2023-02-02, 05:33:42
Das Volumen der Kühler ist auch doppelt so groß...

Die Leistung ist aber eben auch drastisch gestiegen. Ich habe mit 10 Lüftern und einem guten Gehäuse zwar einen sehr guten Airflow, aber die Abwärme auf meiner alten Karte hat mir für die Zukunft der neuen Grafikkartengeneration echt Sorge gemacht.

Razor
2023-02-02, 07:30:16
Die Leistung ist aber eben auch drastisch gestiegen. Ich habe mit 10 Lüftern und einem guten Gehäuse zwar einen sehr guten Airflow, aber die Abwärme auf meiner alten Karte hat mir für die Zukunft der neuen Grafikkartengeneration echt Sorge gemacht.
Da gibt es gleich mehrere Gründe...

Samsung 8nm vs. TMSC 4nm (Fertigungsprozess - ein "heftiger" Sprung!)
die 30'er Reihe basierte ab der 3070ti auf dem GA102 mit 628 mm² welcher aus 28mrd Einheiten besteht
die 40'er Reihe hat auf dieser Ebene schon drei unterschiedliche Chips am Start

RTX4070ti - AD104 mit 295 mm² und 36mrd Transistoren
(die eigentlich eine 4080 hätte sein müssen)
RTX4080 - AD103 mit 379 mm² und 46mrd Transistoren
(die eigentlich hätte eine 4080ti werden müssen)
RTX4090 - AD102 mit 609 mm² und 76mrd Transistoren


Schön bei Wiki abgeschrieben, gell? ;)

Aber was will ich damit sagen? Selbst die 4080... ähm 4070ti hat schon 36mrd Transistoren, weit mehr, als der größte Chip der 30'er Serie.
Wenn man jetzt die Maximalausbauten vergleicht: 28.3mrd vs 76.3mrd = Faktor 2.7...
Simplifiziert müsste die Rechenleistung also bei rund dem 3-fachen liegen.

Oder auch:

10'er: 12nm vs 28nm
20'er: 12nm, aber...
30'er: 8nm (Samsung)
40'er: 4nm (wieder TMSC)

Razor

P.S.: für mich ein brutaler Performance-Sprung, von RTX 2080 kommend und auf RTX 4070ti gehend (die ja eigentlich eine 4080 ist ;-).
Dabei deutlich geringere Stromaufnahme und wesentlich effizientere Kühlung ... den Lüfter hört man auch unter Volllast kaum und das Gehäuse bleibt zu :up:

dildo4u
2023-02-02, 07:44:39
Cyberpunk 2077 jetzt mit Frame Generation: Alle Infos zu DLSS 3, mit Benchmarks, Latenzen und mehr (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Frame-Generation-DLSS-3-mehr-Fps-kuenstliche-Bilder-Interpolation-1412549/)

Benchmarks mit maximaler Raytracing-Komplexität (aber Upsampling) -> RTX 4070 Ti kann mit FG die 4090 erreichen.

MfG
Raff
Der wenige VRam der 4070 TI kein Problem in dem Fall?

readonly
2023-02-02, 09:44:04
FG ist leider tatsächlich nur etwas für VRR oder zumindest 4k 120hz Displays. Mein 4k TV macht nur 60hz in 4k.

FG kann man nicht einschalten mit Vsync (im Treiber). Das ergibt einen Lag aus der Hölle. In 2k macht es keinen Sinn, da ist meine 4070ti eh schnell genug.

Jetzt nicht ganz so dramatisch, da auch 4k RT mit normalem DLSS in 60fps mit leicht zurückgeschraubten Settings läuft. Unterschied sieht man eh kaum. Ist halt nur die Billigversion 🤓

Nächster TV auf jeden Fall mit VRR

wolik
2023-02-02, 14:41:14
FG ist leider tatsächlich nur etwas für VRR oder zumindest 4k 120hz Displays. Mein 4k TV macht nur 60hz in 4k.

FG kann man nicht einschalten mit Vsync (im Treiber). Das ergibt einen Lag aus der Hölle. In 2k macht es keinen Sinn, da ist meine 4070ti eh schnell genug.

Jetzt nicht ganz so dramatisch, da auch 4k RT mit normalem DLSS in 60fps mit leicht zurückgeschraubten Settings läuft. Unterschied sieht man eh kaum. Ist halt nur die Billigversion ��

Nächster TV auf jeden Fall mit VRR

Stimmt nicht. Einfach in NV Panel auf 60 fps begrenzung einstellen. Und in CP2077 ind Witcher läst sich FG super nutzen.

w0mbat
2023-02-02, 17:10:30
del

falscher Faden

readonly
2023-02-02, 17:39:46
Stimmt nicht. Einfach in NV Panel auf 60 fps begrenzung einstellen. Und in CP2077 ind Witcher läst sich FG super nutzen.

Ja mit Tearing 🤓😬 einzig Adaptive Sync und Triple Buffer geht so einigermaßen

wolik
2023-02-02, 23:55:24
Ja mit Tearing 🤓😬 einzig Adaptive Sync und Triple Buffer geht so einigermaßen

Ich habe kein Tearing. Vsync kann man auch über NV Panel boosten.

Slipknot79
2023-02-03, 01:39:45
Habe da auch kein tearing. (y)

readonly
2023-02-03, 02:09:16
Ohne Vsync kein Tearing? Hab alle Optionen ausprobiert. Nur fixe 60hz im NV Panel, da hab ich tearing. Mit richtigem Vsync auf 60hz heftiges laggen. Was habt ihr für Einstellungen im NV Panel?

Ex3cut3r
2023-02-03, 02:13:27
144HZ mit VRR vlt. mal anschaffen? Die kosten mit 1440p ja nur noch schlappe 250-300€

readonly
2023-02-03, 02:30:07
144HZ mit VRR vlt. mal anschaffen? Die kosten mit 1440p ja nur noch schlappe 250-300€

In 86"?🤓

Ex3cut3r
2023-02-03, 02:45:30
In 86"?🤓
Ne in 27" Typische Größe für 1440p.

DrFreaK666
2023-02-03, 02:46:07
144HZ mit VRR vlt. mal anschaffen? Die kosten mit 1440p ja nur noch schlappe 250-300€

Er soll seinen 4k TV durch einen 1440p Monitor ersetzen?

Ex3cut3r
2023-02-03, 02:49:22
Woher soll ich das wissen? In seinem Profil steht nix von seiner HW. In der Sig auch nicht.

Nichtsdestotrotz. Kein VRR = Keine Party. IMHO.

PingpiN
2023-02-03, 10:08:35
Ärgerlich auf mein 75 Zoll Philips tv gibt es auch heftiges tearing wenn ich DLSS 3 einschalte. Mein tv kann auch nur 60hz in 4K. Welche Möglichkeiten gibt es bereits um das Problem zu lösen?

Danke.

BlacKi
2023-02-03, 10:13:43
money shift

Chris Lux
2023-02-03, 10:32:30
Nichtsdestotrotz. Kein VRR = Keine Party. IMHO.
VRR bei TVs ist leider sehr traurig. Die haben meist nur eine VRR-Range von 48-60Hz (korrigiert mich bitte, bei der PS5 habe ich diese Zahlen im Kopf).

Wenn es darunter geht schalten sie dann meist auf diesen Compensation Mode, was nichts anderes ist als Bilder doppelt auszugeben um in der Range zu bleiben. Das führt aber dann wieder zu visuellen Doppelungen (Sample-and-Hold Displays).

Bei TVs ist das einfach eine Shit-Show und ich sehe nicht, dass sich das auf Jahre bessert. Die Hersteller sagen halt "VRR haben wir", aber "VRR at home: BS". Es kotzt mich echt einfach an. So ist meine Lösung mit dem PC am TV einfach auf konstante 60Hz zu gehen (was dank DLSS auch ganz gut klappt).

00-Schneider
2023-02-03, 12:12:54
VRR bei TVs ist leider sehr traurig. Die haben meist nur eine VRR-Range von 48-60Hz (korrigiert mich bitte, bei der PS5 habe ich diese Zahlen im Kopf).


Mit LFC(low framerate compensation) geht es auch bis zu 24Hz. Wird bei Series X Hardwaremäßig durchgängig in allen Games unterstützt, bei PS5 müssen die eweiligen Devs da softwaremäßig ran, die PS5 unterstützt sonst kein LFC von Haus aus, d.h. VRR geht dort in den meisten Fällen nur bis 48Hz.

Bei TVs ist das einfach eine Shit-Show und ich sehe nicht, dass sich das auf Jahre bessert.


Inwiefern Shitshow? Mein 2019(!) gekaufter C9 beherrscht VRR bis runter auf 24Hz wunderbar. Wer am TV zocken will, sollte sich vorher informieren, zu welcher Marke er greift...

Troyan
2023-02-03, 12:17:19
Ärgerlich auf mein 75 Zoll Philips tv gibt es auch heftiges tearing wenn ich DLSS 3 einschalte. Mein tv kann auch nur 60hz in 4K. Welche Möglichkeiten gibt es bereits um das Problem zu lösen?

Danke.

Im nVidia-Treiber für das Profil V-Sync einschalten. Dann capt der Treiber bei Reflex die Frames ~5% unter maximal Hz.

readonly
2023-02-03, 12:36:57
Im nVidia-Treiber für das Profil V-Sync einschalten. Dann capt der Treiber bei Reflex die Frames ~5% unter maximal Hz.

Laggt bei mir wie die Hölle mit FG. Wie gesagt, wenn ich Adaptive Sync und Triple Buffer verwende, geht es so lala.

Schalte aber lieber die Qualität etwas runter [DLSS auf Auto] und nutze dann normal Vsync. Schafft die 4070ti auch in 4k mit über 95% 60fps

Spiele mit dem 360 Gamepad, wenn ich "Eins" sagen kann bis was auf dem Screen passiert, ist es für mich keine Option.

Alles auf einem 86"TV in 4k und gut zu wissen das VRR bei TVs oft nahe am Fake ist. Hatte schon geguckt was es so an Optionen gibt ;D

arcanum
2023-02-03, 12:50:26
Mit LFC(low framerate compensation) geht es auch bis zu 24Hz. Wird bei Series X Hardwaremäßig durchgängig in allen Games unterstützt, bei PS5 müssen die eweiligen Devs da softwaremäßig ran, die PS5 unterstützt sonst kein LFC von Haus aus, d.h. VRR geht dort in den meisten Fällen nur bis 48Hz.




Inwiefern Shitshow? Mein 2019(!) gekaufter C9 beherrscht VRR bis runter auf 24Hz wunderbar. Wer am TV zocken will, sollte sich vorher informieren, zu welcher Marke er greift...

der C9 hat eine range von 40 - 120 Hz - LFC bedeutet dass 120hz und frame doubling genutzt wird damit VRR unter "echten" 40/48 fps - nämlich schon ab 20/24fps die als respektive 40/48 hz ausgegeben werden greift. die PS5 selbst unterstützt VRR erst ab 48 Hz und für 120 Hz müssen die entwickler selbst hand anlegen, sonst laufen die spiele default mit 60hz und VRR ist inaktiv sobald 48 echte fps unterschritten werden. fazit: solange spiele 120hz/FLC unterstützen ist alles wunderbar.

Ex3cut3r
2023-02-03, 13:59:21
Laggt bei mir wie die Hölle mit FG. Wie gesagt, wenn ich Adaptive Sync und Triple Buffer verwende, geht es so lala.

Schalte aber lieber die Qualität etwas runter [DLSS auf Auto] und nutze dann normal Vsync. Schafft die 4070ti auch in 4k mit über 95% 60fps

Spiele mit dem 360 Gamepad, wenn ich "Eins" sagen kann bis was auf dem Screen passiert, ist es für mich keine Option.

Alles auf einem 86"TV in 4k und gut zu wissen das VRR bei TVs oft nahe am Fake ist. Hatte schon geguckt was es so an Optionen gibt ;D

86"? :freak:
Was ein Pixelmatsch. Selbst die 4K sind auf so eine Fläche nur eine Briefmarke. 50 PPi laut DPI Calculator.

https://abload.de/img/screenshot2023-02-031i6frf.png

Da musst du dich aber schon immens weit weg setzen.

Troyan
2023-02-03, 14:08:47
Laggt bei mir wie die Hölle mit FG. Wie gesagt, wenn ich Adaptive Sync und Triple Buffer verwende, geht es so lala.

Schalte aber lieber die Qualität etwas runter [DLSS auf Auto] und nutze dann normal Vsync. Schafft die 4070ti auch in 4k mit über 95% 60fps

Spiele mit dem 360 Gamepad, wenn ich "Eins" sagen kann bis was auf dem Screen passiert, ist es für mich keine Option.

Alles auf einem 86"TV in 4k und gut zu wissen das VRR bei TVs oft nahe am Fake ist. Hatte schon geguckt was es so an Optionen gibt ;D

Liegt daran, dass die native Framerate dann bei 28 FPS oder so liegt. Frame Generation macht bei so tiefen Frames kein Sinn. Dann eher DLSS und hochskalieren.

wolik
2023-02-03, 18:40:05
Laggt bei mir wie die Hölle mit FG. Wie gesagt, wenn ich Adaptive Sync und Triple Buffer verwende, geht es so lala.

Schalte aber lieber die Qualität etwas runter [DLSS auf Auto] und nutze dann normal Vsync. Schafft die 4070ti auch in 4k mit über 95% 60fps

Spiele mit dem 360 Gamepad, wenn ich "Eins" sagen kann bis was auf dem Screen passiert, ist es für mich keine Option.

Alles auf einem 86"TV in 4k und gut zu wissen das VRR bei TVs oft nahe am Fake ist. Hatte schon geguckt was es so an Optionen gibt ;D

CP2077 läuft perfekt. Fast alles max. 5120p

https://abload.de/img/cyberpunk2077_2023_02k2ecr.jpg

https://abload.de/img/1vpc9c.png

https://abload.de/img/2gtcmw.png

PingpiN
2023-02-03, 20:00:05
Laggt bei mir wie die Hölle mit FG. Wie gesagt, wenn ich Adaptive Sync und Triple Buffer verwende, geht es so lala.

Schalte aber lieber die Qualität etwas runter [DLSS auf Auto] und nutze dann normal Vsync. Schafft die 4070ti auch in 4k mit über 95% 60fps

Spiele mit dem 360 Gamepad, wenn ich "Eins" sagen kann bis was auf dem Screen passiert, ist es für mich keine Option.

Alles auf einem 86"TV in 4k und gut zu wissen das VRR bei TVs oft nahe am Fake ist. Hatte schon geguckt was es so an Optionen gibt ;D

Stelle mal im Cyberpunk Menü unter Video Maximale FPS auf 60. Läuft bei mir so jetzt butterweich kein tearing etc mit 100 FPS.

Ex3cut3r
2023-02-03, 21:29:08
CP2077 läuft perfekt. Fast alles max. 5120p
https://abload.de/img/1vpc9c.png


"Modus für geringe Latenz" funktioniert nur in DX11 Titeln, wollte ich nur mal gesagt haben. :freak: ;D

Für DX12 Titel brauchst du dafür die Option im Spiel mit dem Namen: Reflex On + Boost

JackBauer
2023-02-03, 21:38:28
Cyberpunk 2077 HD Reworked Project Announcement

https://www.youtube.com/watch?v=nf5qAp-8HlM

wolik
2023-02-03, 22:43:24
"Modus für geringe Latenz" funktioniert nur in DX11 Titeln, wollte ich nur mal gesagt haben. :freak: ;D

Für DX12 Titel brauchst du dafür die Option im Spiel mit dem Namen: Reflex On + Boost

Völlig egal, ich denke Vsync boost bringt auch nichts. Reflex On wird automatisch bei DLSS 3.0 FG aktiviert.

crux2005
2023-02-03, 22:52:39
Cyberpunk 2077 HD Reworked Project Announcement

https://www.youtube.com/watch?v=nf5qAp-8HlM

:up:

Wie viel VRAM es dann verlangen wird? Die 24 GB Benutzer bekommen vielleicht etwas Mehrwert.

Völlig egal, ich denke Vsync boost bringt auch nichts. Reflex On wird automatisch bei DLSS 3.0 FG aktiviert.

Was aber von FG negiert wird.

-=Popeye=-
2023-02-03, 23:00:12
16GB VRAM sollten dafür reichen, wenn dieses Spiel was nicht frisst dann ist es VRAM.

BlacKi
2023-02-04, 00:01:54
ist aber so gewollt. wenn man wollen würde, dann könnte man auch 48gb vollmachen.

readonly
2023-02-04, 00:27:58
Da musst du dich aber schon immens weit weg setzen.

4 Meter. Also ich bekomme das nicht vernünftig eingestellt mit 60fps und FG

-=Popeye=-
2023-02-04, 01:09:22
ist aber so gewollt. wenn man wollen würde, dann könnte man auch 48gb vollmachen.

Richtig, 16 sollten allerdings für die nächsten 4-5 Jahre save sein.

ChaosTM
2023-02-09, 04:17:33
Nach so vielen Durchläufen auf der 4090er wurde mir eines klar.

Die bestmögliche Qualität ist immer noch ganz klar Nativ und wem die Bildrate nicht reicht,
der schalte halt FG ein. (@4 kommt man darum nicht herum)

Warum-> Flaschen hinter der Bar bzw. alles was stärker reflektiert flickert wie Sau. Das ist selbst mit DLSS Quality immer noch grauslich.

FSR kann das in dem speziellen Fall etwa besser. Es flickert zumindest bei den Flaschen deutlich weniger.

SamLombardo
2023-02-09, 12:27:52
Nach so vielen Durchläufen auf der 4090er wurde mir eines klar.

Die bestmögliche Qualität ist immer noch ganz klar Nativ und wem die Bildrate nicht reicht,
der schalte halt FG ein. (@4 kommt man darum nicht herum)

Warum-> Flaschen hinter der Bar bzw. alles was stärker reflektiert flickert wie Sau. Das ist selbst mit DLSS Quality immer noch grauslich.

FSR kann das in dem speziellen Fall etwa besser. Es flickert zumindest bei den Flaschen deutlich weniger.
Ist mir auch aufgefallen. DLSSQ führt auch hin und wieder zu komisch blinkenden Lichtern bei Bewegung, wenn man Nachts auf der Straße unterwegs ist. Bisher ist für mich Nativ plus FG the way to go.

Sind dir irgendwelche Nachteile bei Frame Generation aufgefallen?

Troyan
2023-02-09, 12:31:01
DLSS unterdrückt keinen Kontrast. Dadurch wird Bloom verstärkt. Normales TAA arbeitet ja mit Farbwerten von mehreren Pixel und versucht dann dies zu glätten. Das reduziert den In-Bild-Kontrast. Dagegen kann man zwar mit Nachschärfung ankämpfen, aber dann fallen die anderen Probleme wie schlechteres AA, Instabilität etc. auf.

ChaosTM
2023-02-09, 17:05:43
Ist mir auch aufgefallen. DLSSQ führt auch hin und wieder zu komisch blinkenden Lichtern bei Bewegung, wenn man Nachts auf der Straße unterwegs ist. Bisher ist für mich Nativ plus FG the way to go.

Sind dir irgendwelche Nachteile bei Frame Generation aufgefallen?


Eigentlich nicht wirklich, aber ich sehe auch nur offensichtliche Fehler. Das müsst sich ein nerdigerer Guy wie krawall anschaun.

wolik
2023-02-09, 18:06:01
CP2077 in 4K (ohne DLSS) sieht (sehr) schlechte als DLDSR 5120 (DLSS Q /FG) aus. Was interessant 5760p (x 2,25) zeigt überhaupt kein Unterschied zu 5120p. Native 8K hat minimales positive Unterschied.
Das kann man nur "mit Lupe" (50 cm Entfernung) an 65" feststellen.
Kein Flackern.

vinacis_vivids
2023-02-09, 21:51:10
Ist mir auch aufgefallen. DLSSQ führt auch hin und wieder zu komisch blinkenden Lichtern bei Bewegung, wenn man Nachts auf der Straße unterwegs ist. Bisher ist für mich Nativ plus FG the way to go.

Sind dir irgendwelche Nachteile bei Frame Generation aufgefallen?

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13232185#post13232185

DLSS zeigt heftige Artifakte. 3 verdammte Jahre nach CP2077 wird dem Laien so ein Schnulz verkauft.
3 Jahre, das sind über 1000 Tage und Nvidia kriegt die hauseigene Demo nicht in den Griff mal sauber darzustellen.

Das ist ein schlechter Witz. Ich erinnere mich noch wie Jensen verliebt war in seine Gigarays.

AMD-Technik FSR 2.1 ist im CP2077 übrigens relativ sauber.

wolik
2023-02-10, 13:51:54
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13232185#post13232185

DLSS zeigt heftige Artifakte. 3 verdammte Jahre nach CP2077 wird dem Laien so ein Schnulz verkauft.
3 Jahre, das sind über 1000 Tage und Nvidia kriegt die hauseigene Demo nicht in den Griff mal sauber darzustellen.

Das ist ein schlechter Witz. Ich erinnere mich noch wie Jensen verliebt war in seine Gigarays.

AMD-Technik FSR 2.1 ist im CP2077 übrigens relativ sauber.

Ich sehe (auf dem Laptop) keinen Unterschied in den Videos. Worauf muss man achten?

ChaosTM
2023-02-10, 16:26:35
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13232185#post13232185

DLSS zeigt heftige Artifakte. 3 verdammte Jahre nach CP2077 wird dem Laien so ein Schnulz verkauft.
3 Jahre, das sind über 1000 Tage und Nvidia kriegt die hauseigene Demo nicht in den Griff mal sauber darzustellen.

Das ist ein schlechter Witz. Ich erinnere mich noch wie Jensen verliebt war in seine Gigarays.

AMD-Technik FSR 2.1 ist im CP2077 übrigens relativ sauber.


FSR ist definitiv nicht sauber. Von dir kommt wirklich hauptsächlich AMD Fanboy Müll. Ähnlich schlimm wie Troyan.

add.: hab beide Versionen noch 2x laufen lassen. Kaum ein Unterschied zwischen FSR und DLSS. Bis auf die Flaschen sind beide sehr "stabil". Sauber ist aber was ganz anderes. Sharpening hab ich auf 0,2 reduziert. 0,5 verschlimmbessert es bei FSR und DLSS.

Jupiter
2023-02-10, 18:01:22
Der Unterschied ist erheblich. DLSS Performance sieht besser aus als FSR Qualität. FSR flimmerte auch bei Alphatexturen.

ChaosTM
2023-02-10, 20:05:29
Wie gesagt - bin kein Spezialist. Die Flaschen im Barbereich sind mit FSR sogar minimal ruhiger. So viel kann ich gerade noch erkennen.
Nativ ist aber beiden Systemen haushoch überlegen in dem Bereich.

add.: DLSS Auto ist eine einzige Katastrophe über den ganzen BM hinweg. Die Palmen zb. flickern wie ein Feuerwerk. Das kann FSR Qualität deutlich ruhiger.
Alles unter FSR Qualität ist aber für die Tonne.

add2.: FSR gewinnt gegen DLSS doch ziemlich klar. Beide auf höchster Stufe.
Und ich muss aufhören BM`s zu analysieren und statt dessen mehr spielen, sonst ende ich wie aufkrawall.. ;)

FunkyChris
2023-02-14, 12:29:57
Habe folgendes festgestellt: die Frame Generation scheint in Kombination mit einer AMD CPU massive Probleme bei höheren Auflösungen auszulösen, hier z. B. sichtbar: https://www.youtube.com/watch?v=1g1dAQSHUPw

Man kann auch klar hören, dass die GPU scheinbar zwischen Volllast und gar keiner Last hin und her springt. Kann das jemand bestätigen?

Edit: scheint ein sehr verbreitetes Problem zu sein leider :(

JackBauer
2023-02-17, 21:19:45
12. März kommt die HD Mod von dem Typen raus der auch schon bei Witcher 3 gemacht hat

aceCrasher
2023-03-09, 18:03:17
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/RTX-Pathtracing-1415110/

Taigatrommel
2023-03-09, 20:51:40
Ob dann gleich die 4090 Ti mit vorgestellt wird?

Brainscan
2023-03-09, 21:23:51
Karte mit dual Chip 48gb RAM. Bringt dann mit dlss und FG 30fps 😀😀😀

Sardaukar.nsn
2023-03-09, 21:32:51
Path Tracing bringt meine Hardware schon in Quake 2 RTX ans Limit. Bei CP2077? Gute Nacht!

Slipknot79
2023-03-09, 22:14:20
Das Problem ist nicht path trading, sondern 4k. ;)
Die 4090 ist eben keine 4k Karte.

Brainscan
2023-03-09, 22:21:04
Das Problem ist nicht path trading, sondern 4k. ;)
Die 4090 ist eben keine 4k Karte.

Lol was dann?

Hatstick
2023-03-09, 23:18:23
Dann brauche ich nur noch RTX Pathtracing Kohle und ab gehts! :biggrin:

JackBauer
2023-03-12, 16:33:18
https://www.nexusmods.com/cyberpunk2077/mods/7652?tab=files

hd reworked v1.0 ist erschienen

akuji13
2023-03-12, 17:17:13
Sehr schön. :)

Etliche Texturen sehen mal wieder dramatisch besser aus.

Ex3cut3r
2023-03-12, 17:53:35
Jo. Echt Wahnsinn, wenn man sich die Screenshots ansieht. Und das nur mit +800MB mehr VRAM Verbrauch, da fragt man sich schon, warum CDPR da nicht noch eine weitere Qualitätsstufe für Texturen veröffentlicht hat. Gut, beim rls Ende 2020 hatten die meisten immer noch 8 GB Karten. Und diese waren damals schon ab 1440p randvoll.

Naja, das ganze LOD in dem Spiel ist halt massiv problematisch. Beim Auto fahren, da darf man eigentlich nicht auf die Distanz achten, weil man immer die Schatten/AO aufploppen sieht, hat schon etwas von einem N64 Game teilweise. X-D

JackBauer
2023-03-12, 17:59:39
Jo. Echt Wahnsinn, wenn man sich die Screenshots ansieht. Und das nur mit +800MB mehr VRAM Verbrauch, da fragt man sich schon, warum CDPR da nicht noch eine weitere Qualitätsstufe für Texturen veröffentlicht hat. Gut, beim rls Ende 2020 hatten die meisten immer noch 8 GB Karten. Und diese waren damals schon ab 1440p randvoll.

vielleicht mit RT sicher nicht so

hab selber nur ne 3060 ti und komme nie über 5000 VRAM Verbrauch, selbst mit der MOD jetzt

ok vielleicht bei anderen Szenen aber da wo ich jetzt gerade bin nicht

generell reicht 8GB VRAM bei WQHD überall locker

das einzige Spiel was ich so in Erinnerung habe ist Rise of the Tomb Raider warum auch immer, vor allem der Level am Schluss mit dem Eis Dorf

jay.gee
2023-03-12, 18:19:22
Hier noch in bewegten Bildern. Jetzt noch das RT-Update und ich starte einen 2. Durchgang als Warm-up zum DLC:
xCSCG-eM-ro

Jupiter
2023-03-12, 20:16:27
Auf diese Mod wartete ich schon lange. Gefällt mir bis jetzt sehr gut.

Welche Grafikmod ist noch zu empfehlen?

JackBauer
2023-03-12, 21:03:50
da ist noch viel Luft nach oben

700 mb groß ist ja nicht viel

Witcher 3 letzte Version hat 10 GB

BlacKi
2023-03-12, 21:38:36
Hier noch in bewegten Bildern. Jetzt noch das RT-Update und ich starte einen 2. Durchgang als Warm-up zum DLC:
https://youtu.be/xCSCG-eM-roich frage mich, ob das schlechte LoD nicht die hälfte der teilweise eher geringen verbesserung nicht wieder schluckt.


ich finds nach wie vor schade, das CDR zuviel komic/kitsch optic ins spiel gebracht hat. optisch finde ich WD legion wesentlich ansprechender. hat einen realistischen touch, die immersion wesentlich besser.

Raff
2023-03-12, 21:58:01
Jo. Echt Wahnsinn, wenn man sich die Screenshots ansieht. Und das nur mit +800MB mehr VRAM Verbrauch, da fragt man sich schon, warum CDPR da nicht noch eine weitere Qualitätsstufe für Texturen veröffentlicht hat. Gut, beim rls Ende 2020 hatten die meisten immer noch 8 GB Karten. Und diese waren damals schon ab 1440p randvoll.

Genau das ist der Punkt: Technikpartner Nvidia hatte Ende 2020 ein großes Interesse daran, dass die speicherarmen Ampere-Karten (also alles abseits der RTX 3090) nicht beim ersten Showcase einknicken wie die Strohhälmchen, die sie in Wahrheit sind. Das ist nun anders, Ada ist ordentlich bis sorgenfrei bestückt - und die neueren Amperes ebenfalls (12 GiByte). Bin sehr gespannt auf die Mod. =)

Hier noch in bewegten Bildern. Jetzt noch das RT-Update und ich starte einen 2. Durchgang als Warm-up zum DLC:
https://youtu.be/xCSCG-eM-ro

Däm, stimmt, RT Overdress ;) kommt ja auch noch. Zeit, Ampere ins Seniorenheim einzuweisen ...

MfG
Raff

aufkrawall
2023-03-12, 22:01:23
Scheint das Streaming nicht zu jucken, Frame Times immer noch gut. Toter Platzhalter-Content in Form der Open World sieht aber leider auch immer noch tot aus...

crux2005
2023-03-12, 23:23:33
Das ist nun anders, Ada ist ordentlich bis sorgenfrei bestückt - und die neueren Amperes ebenfalls (12 GiByte).

Finde ich nicht. Die 4070 Ti war eigentlich als 4080 12G gedacht (identisch VRAM zu der "neueren" 3080 12G). Nur die aktuelle 4080 ist zusammen mit der 4090 ordentlich bestückt. Davor war nur die 3090 ordentlich bestückt.

Oder ich sag es anders. Der Ada Stack hat aktuell nur 1 Karte mehr mit reichlich VRAM als Ampere.

Troyan
2023-03-12, 23:25:41
ich finds nach wie vor schade, das CDR zuviel komic/kitsch optic ins spiel gebracht hat. optisch finde ich WD legion wesentlich ansprechender. hat einen realistischen touch, die immersion wesentlich besser.

Legion sieht deutlich schlechter aus und läuft kaum besser.

Raff
2023-03-12, 23:44:16
Finde ich nicht. Die 4070 Ti war eigentlich als 4080 12G gedacht (identisch VRAM zu der "neueren" 3080 12G). Nur die aktuelle 4080 ist zusammen mit der 4090 ordentlich bestückt. Davor war nur die 3090 ordentlich bestückt.

Oder ich sag es anders. Der Ada Stack hat aktuell nur 1 Karte mehr mit reichlich VRAM als Ampere.

Du liebst es zwar, mir aus Prinzip zu widersprechen, aber wir meinen eigentlich das Gleiche. :wink: Ordentlich: 12 GiByte. Sorgenfrei: 16+ GiByte. So meinte ich das. Ich liebe es ja auch, speicherseitig gehandicapte Modelle zu flamen, bleibe dabei aber datengetrieben. Das Internet hat eh schon zu viele falsche Gefühle.

Für Cyberpunk ohne Mods sind 12 Geforce-GiByte voll in Ordnung - die Frage ist, wie's mit HD Reworked Mod und Frame Generation aussieht. Letzteres erhöht nämlich die Belegung.

MfG
Raff

crux2005
2023-03-12, 23:47:49
Gerade von dir lieber Raff hätte ich mehr Kritik an der NV VRAM Politik erwartet. Die 12GiB VRAM für 900€+ sind 2023 eine Frechheit. Von den geplanten 8GiB 4060 und co. ganz zu schweigen.

Raff
2023-03-12, 23:52:05
Ich hätte da viel rigoroser draufgehauen, wenn Extremtests ernste Probleme ergeben hätten (wie bei der RTX 3070). Haben sie aber nicht. Insofern das Fazit "passt für aktuelle Spiele und normale Auflösungen, aber sicher nicht lange". Kalter Kaffee, das Thema, auch wenn der in wenigen Wochen mit der RTX 4070 wieder hochgewürgt wird. :D

€dit: Ich habe jetzt mal durch diverse Locations und Spielstände gezappt. UHD + DLSS Q, ansonsten alles raufgeballert. Durchschnittlich nur 40 Fps trotz 2 GHz (mit einigen gemeinen Drops auf ~30 Fps), Speicherallokation maximal 11,9 GiByte. Dürfte nach längerer Spielzeit ohne Leerung noch etwas hochgehen. 4070-Ti-Nutzer mit ersten Erfahrungsberichten da? :)

MfG
Raff

BlacKi
2023-03-12, 23:52:50
Legion sieht deutlich schlechter aus und läuft kaum besser.war rein auf den optischen touch bezogen.

Lurtz
2023-03-13, 09:48:13
Ich hätte da viel rigoroser draufgehauen, wenn Extremtests ernste Probleme ergeben hätten (wie bei der RTX 3070). Haben sie aber nicht. Insofern das Fazit "passt für aktuelle Spiele und normale Auflösungen, aber sicher nicht lange". Kalter Kaffee, das Thema, auch wenn der in wenigen Wochen mit der RTX 4070 wieder hochgewürgt wird. :D

Hm, aber Cyberpunk 2077 ist ja nun auch schon über zwei Jahre alt, während ihr bei HL zB die 12 GB auch schon als nicht mehr ausreichend beschrieben habt.

Die ganzen Crossgen-Portierungen wollen mittlerweile schon deutlich mehr VRAM, dabei hat die Konsolengeneration was Exklusivtitel angeht noch gar nicht so richtig angefangen.

Raff
2023-03-13, 10:07:35
Keine Sorge. Wenn sich abzeichnet, dass 12 GiB nun standardmäßig überlaufen, werden die Empfehlungen natürlich angepasst. Macht euch lieber mal Gedanken, dass das woanders auch so benannt wird. Es hat den Dampfhammer Hogwarts gebraucht, damit die RTX 3070 bei einigen Publikationen (US-Raum) endlich ernsthaft an den Pranger gestellt wurde. PCGH hat hingegen schon 2020 gewarnt (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/) - und wurde dafür nicht nur einmal kritisiert. ;)

MfG
Raff

crux2005
2023-03-13, 20:11:46
Ich hätte da viel rigoroser draufgehauen, wenn Extremtests ernste Probleme ergeben hätten (wie bei der RTX 3070). Haben sie aber nicht. Insofern das Fazit "passt für aktuelle Spiele und normale Auflösungen, aber sicher nicht lange". Kalter Kaffee, das Thema, auch wenn der in wenigen Wochen mit der RTX 4070 wieder hochgewürgt wird. :D

€dit: Ich habe jetzt mal durch diverse Locations und Spielstände gezappt. UHD + DLSS Q, ansonsten alles raufgeballert. Durchschnittlich nur 40 Fps trotz 2 GHz (mit einigen gemeinen Drops auf ~30 Fps), Speicherallokation maximal 11,9 GiByte. Dürfte nach längerer Spielzeit ohne Leerung noch etwas hochgehen. 4070-Ti-Nutzer mit ersten Erfahrungsberichten da? :)

MfG
Raff

Ich hegen keinen Groll gegen dich. Aber ich finde es kommen von dir teilweise wiedersprüchliche Aussagen.

btw: das gleiche ließe sich damals über die 3080 10GB sagen. "passt für aktuelle Spiele und normale Auflösungen".

Aber lassen wir es. ;)

Jupiter
2023-03-13, 20:15:38
Die Entwickler können beim VRAM auch optimieren. Das wird komischerweise oft vergessen oder bewusst ausgeblendet.

Dead Space hatte zuletzt auch durch VRAM Überfüllung geruckelt und das wurde durch einen einfache Aktualisierung behoben. Viel kann optimiert werden. Crysis 3 war zum Beispiel noch auf den 256 MB der PlayStation 3 möglich. Star Citizen ist auch ambitioniertes als die meisten Spiele und der Titel kommt mit 8 GB oder weniger aus. Wenn die Entwickler nicht optimieren, würde SC auch dutzende GB VRRAM benötigen. Ohne das es besser aussieht. Las dazu genug Entwicklerkommentare.

Raff
2023-03-13, 21:25:50
Ich hegen keinen Groll gegen dich. Aber ich finde es kommen von dir teilweise wiedersprüchliche Aussagen.

btw: das gleiche ließe sich damals über die 3080 10GB sagen. "passt für aktuelle Spiele und normale Auflösungen".

Aber lassen wir es. ;)

Meine Aussagen passen sich dem Geschehen schnell an (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-Videospeicher-Hogwarts-Legacy-1413131/), weil ich täglich neue Messungen (= Wissen) durchführe. :) Tatsächlich war's Ende 2020 etwas einfacher, die 10 GiB einer RTX 3080 zu überfahren, als heute die 12 GiB einer RTX 4070 Ti. Und darauf basiert, was ich gerade schreibe. Warte mal den Release der RTX 4070 ab, eventuell sind wir da schon etwas weiter. Am Ende des Tages sind wir uns einig: 12 GiByte erlauben kein sorgenfreies Dasein - aber ein weitestgehend angenehmes.

MfG
Raff

The_Invisible
2023-03-13, 21:42:37
Ich hätte da viel rigoroser draufgehauen, wenn Extremtests ernste Probleme ergeben hätten (wie bei der RTX 3070). Haben sie aber nicht. Insofern das Fazit "passt für aktuelle Spiele und normale Auflösungen, aber sicher nicht lange". Kalter Kaffee, das Thema, auch wenn der in wenigen Wochen mit der RTX 4070 wieder hochgewürgt wird. :D

€dit: Ich habe jetzt mal durch diverse Locations und Spielstände gezappt. UHD + DLSS Q, ansonsten alles raufgeballert. Durchschnittlich nur 40 Fps trotz 2 GHz (mit einigen gemeinen Drops auf ~30 Fps), Speicherallokation maximal 11,9 GiByte. Dürfte nach längerer Spielzeit ohne Leerung noch etwas hochgehen. 4070-Ti-Nutzer mit ersten Erfahrungsberichten da? :)

MfG
Raff

Hatte mit meiner 3080 Ti jedenfalls auch nie Probleme, waren UHD@DLSS-B und sonst alles max. was ich so auch 70 Stunden durchgespielt habe.

Frisst FrameGeneration wirklich mehr Speicher? Hab im Spiel mal hin und hergeswitcht und da hat sich nix getan...

crux2005
2023-03-13, 22:11:05
Meine Aussagen passen sich dem Geschehen schnell an (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-Videospeicher-Hogwarts-Legacy-1413131/), weil ich täglich neue Messungen (= Wissen) durchführe. :) Tatsächlich war's Ende 2020 etwas einfacher, die 10 GiB einer RTX 3080 zu überfahren, als heute die 12 GiB einer RTX 4070 Ti. Und darauf basiert, was ich gerade schreibe. Warte mal den Release der RTX 4070 ab, eventuell sind wir da schon etwas weiter. Am Ende des Tages sind wir uns einig: 12 GiByte erlauben kein sorgenfreies Dasein - aber ein weitestgehend angenehmes.

MfG
Raff

Danke dir für die Erklärung.

Das ist interessant. Hängt wohl mit der aktuellen Lage und den current-gen Konsolen zusammen. Abseits von Texture Packs und RT steigt der VRAM Bedarf nur schleichend.

crux2005
2023-03-15, 00:02:01
HWU hat die 3080 10G gegen die 4070 Ti neu getestet:

W8ETNnQW33s

Nur in 2 Spielen @ 4K + RT hatte die 3080 nicht genug VRAM. Darktide und Hogwarts Legacy. Aber die 4070 Ti konnte sich auch nicht absetzten. Die +2GiB VRAM brachten ihr nichts.

Jupiter
2023-03-18, 13:00:39
ber die letzten Wochen habe ich in Cyerpunk 2077 sehr viele Modifikationen installiert Der VRAM verbrauch stieg um etwa 1,5 GB.

Qualitativ hochwertige Texturen
https://www.nexusmods.com/cyberpunk2077/mods/7652

Erheblich verbessertes LOD und höhere Sichtweite bei Gebäuden und kleineren Objekten. 2 Mods.
https://www.nexusmods.com/cyberpunk2077/mods/4923

Weniger plötzlich auftauchende Vegetation
https://www.nexusmods.com/cyberpunk2077/mods/3627?tab=files&file_id=24967

Bessere Objektqualität von Nahrungsmitteln
https://www.nexusmods.com/cyberpunk2077/mods/4818

Verbessertes LOD für Werbetafeln
https://www.nexusmods.com/cyberpunk2077/mods/3184

Verbesserte Regenqualität
https://www.nexusmods.com/cyberpunk2077/mods/2001

Mehr Nebel
https://www.nexusmods.com/cyberpunk2077/mods/7623

Für manche Mods musste auch das genutzt werden
https://www.nexusmods.com/cyberpunk2077/mods/4789
https://www.nexusmods.com/cyberpunk2077/mods/3051?tab=description


All diese Mods müssen in diesen Ordner
Cyberpunk 2077\archive\pc\mod

Keine Installation benötigt. Die Datei muss nur in den Ordner.

Den sehe ich mir als nächstes an
https://www.nexusmods.com/cyberpunk2077/mods/7392?tab=description

JackBauer
2023-03-18, 19:13:10
danke für die Liste

werd ich mal austesten

Jupiter
2023-03-22, 20:23:19
Pathtracingvorschau kommt am 11.04.2023
https://blogs.nvidia.com/blog/2023/03/22/cyberpunk-2077-path-traced-visuals-gdc/

Raff
2023-03-22, 20:40:48
Cool. =)

Ich sehe ein Muster: eine Woche Nvidia-Dauerberieselung -> https://www.3dcenter.org/news/news-des-14-maerz-2023

MfG
Raff

Brainscan
2023-03-22, 21:13:56
Ich bin ja mal gespannt ob ich mit meinem System mit FG und DLSS 30fps bekomme 😀

Raff
2023-03-22, 21:20:39
Nvidia bewirbt im Blog wieder stolz, dass dein 90-TFLOPS-Biest dank DLSS nur 1/8 der Pixel berechnen und den Rest rekonstruieren muss. Wird schon klappen. Knapp. :uup: Anyway: The final frontier!

MfG
Raff

Nightspider
2023-03-22, 21:22:48
Vielleicht kündigt Nvidia bald noch die 4090ti mit vollem Chip an für nur 500 Euro Aufpreis. :D

Brainscan
2023-03-22, 21:25:53
Vielleicht kündigt Nvidia bald noch die 4090ti mit vollem Chip an für nur 500 Euro Aufpreis. :D

Naja die Preise der 4090 sind ja jetzt eigentlich ganz geschmeidig. Rechnen wir jetzt 500€ auf die 1809€bin ich dabei 😀😀😀

crux2005
2023-03-22, 21:26:16
Pathtracing. Klar. Nicht mal Raytracing wird in der Masse benutzt. Aber NV braucht Pathtracing damit es einen Grund für neue Grakas gibt. Bleibt aber mindestens bis zur nächsten Konsolengen. (realistisch sogar länger) ein PC "Schmackerl".

Naja die Preise der 4090 sind ja jetzt eigentlich ganz geschmeidig.

Dein Realitätsverlust ist so deutlich...

SamLombardo
2023-03-22, 22:10:27
Pathtracingvorschau kommt am 11.04.2023
https://blogs.nvidia.com/blog/2023/03/22/cyberpunk-2077-path-traced-visuals-gdc/
Was ist denn eine Pathtracingvorschau? Kommt Pathtracing am 11.04. oder kommt eine Vorschau auf Pathtracing?

Nightspider
2023-03-22, 22:28:56
Vorschau = Teaser

Der Trailer kommt am 11.04. ;D

Troyan
2023-03-22, 22:34:55
Was ist denn eine Pathtracingvorschau? Kommt Pathtracing am 11.04. oder kommt eine Vorschau auf Pathtracing?

Ne, eher eine Art Technologieerweiterung. "Preview" bezieht sich wohl auf das, was man in Zukunft in Spielen erwarten kann.

Das Ding schafft 1080p/60FPS+ auf einer 4090. Stell dir da erstmal die Gesichter von AMD Leuten vor, wenn die mit 60 FPS in 360p oder so spielen müssen. :eek::cool::freak:

QUERSCHLÄGER
2023-03-22, 22:45:17
Stell dir da erstmal die Gesichter von AMD Leuten vor, wenn die mit 60 FPS in 360p oder so spielen müssen. :eek::cool::freak:

Als wenn die Fratzen anders aussähen wie die von denen, die sich einen 4k-Eimer und/oder ne 144hz-Schüssel aufschwatzen lassen haben, wo sie dann verständlicherweise auch versuchen, ein 1:1-Verhältnis zu erzielen (teh next big thing for teh gaymers!!!!!!!!).

Aber ich sehe schon bei den neuen Screenshots, daß man sich ab jetzt bei gar nichts mehr zurückhält, was Spiegelungen betrifft. Nun wird in mehreren layern aus jedweder Entfernungen alles spiegeln, nur um den Unterschied größtmöglich erscheinen zu lassen :facepalm:.

crux2005
2023-03-22, 22:50:42
Als wenn die Fratzen anders aussähen wie die von denen, die sich einen 4k-Eimer und/oder ne 144hz-Schüssel aufschwatzen lassen haben, wo sie dann verständlicherweise auch versuchen, ein 1:1-Verhältnis zu erzielen (teh next big thing for teh gaymers!!!!!!!!).

Aber ich sehe schon bei den neuen Screenshots, daß man sich ab jetzt bei gar nichts mehr zurückhält, was Spiegelungen betrifft. Nun wird in mehreren layern aus jedweder Entfernungen alles spiegeln, nur um den Unterschied größtmöglich erscheinen zu lassen :facepalm:.

Weil IRL auch alles deutlich mehr reflektiert als das was manche in Spielen schon als zu viel ansehen.

QUERSCHLÄGER
2023-03-22, 22:54:12
Jaja, das kennen wir alles schon. nV lacht sich über deine Aussage vermutlich noch tot und denkt sich "warte mal Stufe 5 ab, was wir dann noch alles reinknallen". Ist auch Wurscht, so kann man schon mal die Basis für RTX 5 legen.

Troyan
2023-03-22, 22:57:44
Als wenn die Fratzen anders aussähen wie die von denen, die sich einen 4k-Eimer und/oder ne 144hz-Schüssel aufschwatzen lassen haben, wo sie dann verständlicherweise auch versuchen, ein 1:1-Verhältnis zu erzielen (teh next big thing for teh gaymers!!!!!!!!).

Aber ich sehe schon bei den neuen Screenshots, daß man sich ab jetzt bei gar nichts mehr zurückhält, was Spiegelungen betrifft. Nun wird in mehreren layern aus jedweder Entfernungen alles spiegeln, nur um den Unterschied größtmöglich erscheinen zu lassen :facepalm:.

Wenigsten sieht man was. Fortnite mit UE5 läuft in 1080p mit ~110 FPS und das Ding ist meilenweit vom Cyberpunk mit Overdrive Raytracing entfernt.

Die Zukunft wird nicht rosig sein, wenn man mehr als 60 FPS will...

DrFreaK666
2023-03-23, 01:45:11
Wenn man zu blöd ist Regler zu bedienen, die es schon seit Jahrzehnten in PC-Games gibt, dann hast du sogar Recht.
Aber wenn man schaut mit welchen Grafikkarten auf Steam gespielt wird, dann wissen die meisten wohl, wofür es das Settings-Menü gibt.

crux2005
2023-03-23, 02:19:54
Wenn man zu blöd ist Regler zu bedienen, die es schon seit Jahrzehnten in PC-Games gibt, dann hast du sogar Recht.
Aber wenn man schaut mit welchen Grafikkarten auf Steam gespielt wird, dann wissen die meisten wohl, wofür es das Settings-Menü gibt.

Oder die meisten spielen noch ältere Spiele in 1080p. :D ;)

DrFreaK666
2023-03-23, 03:49:33
Ich hab schon in DOS gelernt auf volle Details zu verzichten.
Ultima Underworld flüssig mit max. Details auf dem PC meines Vaters? Vergiss es

SamLombardo
2023-03-23, 07:28:55
Ne, eher eine Art Technologieerweiterung. "Preview" bezieht sich wohl auf das, was man in Zukunft in Spielen erwarten kann.

Das Ding schafft 1080p/60FPS+ auf einer 4090. Stell dir da erstmal die Gesichter von AMD Leuten vor, wenn die mit 60 FPS in 360p oder so spielen müssen. :eek::cool::freak:
Ah alles klar, danke. Ich freue mich drauf.

Zu 60fps bei 1080p mit ner 4090...ne Vermutung oder gibt's da schon Benchmarks?

dargo
2023-03-23, 08:11:12
Ne, eher eine Art Technologieerweiterung. "Preview" bezieht sich wohl auf das, was man in Zukunft in Spielen erwarten kann.

Das Ding schafft 1080p/60FPS+ auf einer 4090. Stell dir da erstmal die Gesichter von AMD Leuten vor, wenn die mit 60 FPS in 360p oder so spielen müssen. :eek::cool::freak:
Wow... ganze 60fps bei 1080p mit einer ~2000€ Karte? Ich bin beeindruckt. ;D ;D ;D Die ganzen AMD Leute haben CP77 schon längst durchgespielt, abgehackt und sind bei den nächsten Games angekommen.

Chris Lux
2023-03-23, 08:20:40
Pathtracing. Klar. Nicht mal Raytracing wird in der Masse benutzt. Aber NV braucht Pathtracing damit es einen Grund für neue Grakas gibt. Bleibt aber mindestens bis zur nächsten Konsolengen. (realistisch sogar länger) ein PC "Schmackerl".
Warum? Was soll dieses ständige Geheule? Pixel Shader hast du doch sicher auch gefeiert? Die Technik entwickelt sich weiter. Warum sollte man sich dem versperren? Klar rennt man irgendwann in Deminishing Returns. Aber warum sich deshalb so dem Fortschritt verwehren?

Wenn man darauf keine guten Antworten hat gilt das alte: troll dich.

akuji13
2023-03-23, 08:39:08
Die olle Diskussion gabs in der Vergangenheit auch immer wieder.

Als man in z. B. Stalker zwischen "Full Dynamic Lightning" und "Static Lightning" wählen konnte, hieß es wahlweise:

"Sieht schlechter aus!"
"Sieht kaum besser aus!"
"Sieht unrealistisch aus!"
"Kostet zuviel Leistung!"

Damals wie heute gilt, nicht jeder kann es spielbar nutzen, nicht jeder will es überhaupt nutzen.

Ich freue mich schon jetzt drauf, hab erst 150 Stunden in CP verbracht.

dargo
2023-03-23, 10:41:04
Mit dem kleinen aber feinen Unterschied, dass damals schnellste Grafikkarten 1/3 von dem gekostet haben was heute verlangt wird. Aber welchen Spieler da draußen interessieren schon Grafikkartenpreise. :tongue: Nüchtern betrachtet reichen die 1700+€ einer 4090 noch nicht mal da 1080p 60fps im Jahre 2023 zumindest für mich ein Witz sind.

akuji13
2023-03-23, 10:44:15
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Release-Pathtracing-Update-1416036/

Overdrive kommt am 11.04.

Mit dem kleinen aber feinen Unterschied, dass damals schnellste Grafikkarten 1/3 von dem gekostet haben was heute verlangt wird.

Mein Heizöl hat damals auch viel weniger gekostet.
Und meine Versicherungen und und und.

Die Differenz reicht locker für eine Grafikkarte nach heutigen Preisen.

Zumal der Preis erstmal keine Rolle spielt, wenn selbst die schnellsten Grafikkarten heute wie damals @max keine hohen fps generieren können:
https://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/benchmarks-stalker-shadow-chernobyl
https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/29/

Nüchtern betrachtet reichen die 1700+€ einer 4090 noch nicht mal da 1080p 60fps im Jahre 2023 zumindest für mich ein Witz sind.

Gut das deine Meinung nicht das Zentrum des Universums ist. :)

aufkrawall
2023-03-23, 10:47:51
Wenn man darauf keine guten Antworten hat gilt das alte: troll dich.
Eine Antwort wäre, dass massiv bessere BQ in Fortnite durch HW-RT auf einer 6700 XT nur 20% kostet:
https://abload.de/thumb/fortniteclient-win64-a9cfd.png (https://abload.de/image.php?img=fortniteclient-win64-a9cfd.png) https://abload.de/thumb/fortniteclient-win64-yligm.png (https://abload.de/image.php?img=fortniteclient-win64-yligm.png)

Performance selbst auf Lovelace auf einen Bruchteil der fps reduzieren, also Ruckelorgie mit 900€ 4070 Ti?
Ist doch völlig weltfremder Schwachsinn...

CP77 RT sieht btw. aus wie Arsch vs. Fortnite. Gibt seit dem letzten Content-Update auch eine "Cyberpunk"-Location, und das sieht so unglaublich viel plastischer und dynamischer aus...

SamLombardo
2023-03-23, 11:52:43
Fortnite sieht im Vergleich zu Cyberpunk aus wie ein Low Polygon Nintendo Switch Game. Dass es jetzt das (wirklich schicke) Lumen nutzt ändert daran nichts.

dildo4u
2023-03-23, 12:05:07
Pathtracing ist auch für UE 5 geplant du brauchst das einfach wenn du PC GPU ausnutzen willst es wird in 2024 mit 3nm GPU noch mal ein Sprung geben.
Alles was CDPR jetzt lernt können sie auch in Witcher 4 umsetzen.


https://docs.unrealengine.com/5.0/en-US/path-tracer-in-unreal-engine/

dargo
2023-03-23, 12:06:37
Gut das deine Meinung nicht das Zentrum des Universums ist. :)
Das Kompliment gebe ich gerne zurück. :)

Pathtracing ist auch für UE 5 geplant du brauchst das einfach wenn du PC GPU ausnutzen willst es wird in 2024 mit 3nm GPU noch mal ein Sprung geben.
Auf was? 3.000€? ;D Nvidia ist nicht mal in der Lage jetzt schon bei 5nm mehr Performance pro € vs. alte Generation zu liefern. Außer vielleicht bei der 4090.

akuji13
2023-03-23, 12:18:45
Das Kompliment gebe ich gerne zurück. :)

Jeder von uns macht sein Ding, also alles supi. :)

Auf was? 3.000€? ;D Nvidia ist nicht mal in der Lage jetzt schon bei 5nm mehr Performance pro € vs. alte Generation zu liefern. Außer vielleicht bei der 4090.

AMD besticht natürlich durch seine RT performance. :D

dildo4u
2023-03-23, 12:28:46
Es gibt noch nicht mal reine PS5 Games auf dem PC natürlich müssen sie was in der Zwischenzeit für Nvidia GPUs finden PS6 kann 2026 oder 2027 kommen.

Mr. Pink
2023-03-23, 12:38:19
Worin genau besteht nun eigentlich das Problem das es für das Game ein optionales Grafikupdate gibt das einen Ausblick auf künftige Grafik erlaubt und selbst einer 4090 zu schaffen macht? Kann mir das jemand in einem Satz erklären? Es ist doch völlig in Ordnung wenn ein Hersteller ein Spiel als Showcase für künftige Technik nutzt. Allemal besser als eine Techdemo die man nur anschauen kann und bei der sich jeder fragt wann man das ganze endlich mal in einem Spiel zu Gesicht bekommt. Nun gibt es diesen Appetizer in Form eines tollen Games und dann ist es natürlich auch wieder nicht recht. Das die Hardwareanforderungen ernorm sind muss dabei nicht wundern, das liegt quasi in der Natur der Sache.

dildo4u
2023-03-23, 12:52:19
Es spricht Gar nix dagegen es ist sogar extrem beeindruckend und sagt einem das reine Shooter z.b locker machbar sind CP scheint mir Worst Case.

dargo
2023-03-23, 13:04:07
Es gibt noch nicht mal reine PS5 Games auf dem PC natürlich müssen sie was in der Zwischenzeit für Nvidia GPUs finden PS6 kann 2026 oder 2027 kommen.
Klar... deswegen kommen so viele neue Games raus mit einem Lederjacken-RT-Modus. ;D Sieh es endlich ein... NV sucht mit Geldscheinen nach vereinzelten Milchkühen. CDPR ist da die Nummer 1.

Es spricht Gar nix dagegen es ist sogar extrem beeindruckend und sagt einem das reine Shooter z.b locker machbar sind CP scheint mir Worst Case.
Und solche Sätze kommen von jemanden der weiter auf seiner GTX 1070 hockt, kannste dir nicht ausdenken.

aufkrawall
2023-03-23, 13:07:28
Pathtracing ist auch für UE 5 geplant
Nur ist das überhaupt nicht für performante Consumer-Echtzeitgrafik gedacht... :rolleyes:

dildo4u
2023-03-23, 13:11:18
Klar... deswegen kommen so viele neue Games raus mit einem Lederjacken-RT-Modus. ;D Sieh es endlich ein... NV sucht mit Geldscheinen nach vereinzelten Milchkühen. CDPR ist da die Nummer 1.


Logisch die dicken GPU langweilen sich mit Raster Optik und dann kommt jetzt Framegeneration dazu, AMD wird genau so RDNA4 Modelle haben die ihre Preise mit deutlich besserer Optik rechtfertigen müssen.
Immer die selbe Leier der AMD User einer muss vorangehen damit es Massentauglich wird siehe DLSS.

aufkrawall
2023-03-23, 13:19:00
Noch einer, der nicht checkt, dass jede Menge UE5 AAA-Titel mit Lumen in der Pipeline sind...

dargo
2023-03-23, 13:19:34
Erzähl mir doch keinen Stuss. Wenn dir die aktuellen Grafikkarten nicht zu teuer wären würdest du schon längst aufrüsten. Wen willst du hier verarschen?

btw.
Nvidia meinte 2023 kommen die ersten Titel die RT-Hardware voraussetzen werden, ansonsten sind die gar nicht erst spielbar. Da bin mal gespannt was sich davon bewahrheitet. ;D Aber das Jahr ist noch jung. ;)

DrFreaK666
2023-03-23, 13:20:54
...Und solche Sätze kommen von jemanden der weiter auf seiner GTX 1070 hockt, kannste dir nicht ausdenken.

Was hat das eine mit dem anderen zu tun? Als Seat Leon Fahrer kann ich trotzdem über Ferraris reden oder muss ich mir dafür einen Ferrari kaufen?

...
btw.
Nvidia meinte 2023 kommen die ersten Titel die RT-Hardware voraussetzen werden, ansonsten sind die gar nicht erst spielbar. Da bin mal gespannt was sich davon bewahrheitet. ;D Aber das Jahr ist noch jung. ;)

Nvidias Rennspiel soll dieses Jahr erscheinen. Da hast schon ein Spiel

dargo
2023-03-23, 13:23:17
Was hat das eine mit dem anderen zu tun? Als Seat Leon Fahrer kann ich trotzdem über Ferraris reden oder muss ich mir dafür einen Ferrari kaufen?
RT kann für ihn gar nicht so wichtig sein wenn er weiterhin keine RT-fähige Hardware am PC nutzt. Stattdessen reicht ihm eine PS5. ;)


Nvidias Rennspiel soll dieses Jahr erscheinen. Da hast schon ein Spiel
Wow.. Wahnsinn, und dann noch von Nvidia selbst. Ja dann werden sich sicherlich alle gleich auf teure RT-Hardware stürzen. ;D ;D ;D

akuji13
2023-03-23, 13:44:01
Noch einer, der nicht checkt, dass jede Menge UE5 AAA-Titel mit Lumen in der Pipeline sind...

Und die laufen dann alle schlecht auf den Karten von NV? :wink:

dargo
2023-03-23, 13:48:30
Immer die selbe Leier der AMD User einer muss vorangehen damit es Massentauglich wird siehe DLSS.
Och bitte... sollen wir mal ein wenig in der Vergangenheit rumwüllen? Von wem kam zuerst SAM bzw. Resize Bar? :rolleyes: Von wem kam zuerst die Initiative zu Mantle und die Entstehung daraus von D3D12/Vulkan? Vom letzteren wollte Nvida nicht mal was wissen zum damaligen Zeitpunkt. Warum wohl? :rolleyes: Nvidia ist nichts weiter als eine Technologiebremse solange die Konkurrenz im gleichen Maße oder sogar mehr von irgendwas profitiert. G-Sync hatten die auch auf Teufel komm raus versucht zu halten, bis das Spielchen nicht mehr aufging. Jetzt ist halt RT die neue Milchkuh auf absehbare Zeit.

Und die laufen dann alle schlecht auf den Karten von NV? :wink:
Du könntest mit deiner Denkweise direkt bei Nvidia anfangen. Die versuchen auch immer alles auf Teufel komm raus durchzudrücken was der Konkurrenz schadet anstatt an die gesamte PC-Community zu denken. Im übrigen ist aufkrawall vor kurzem auf die RX 6700XT gewechselt weil offenbar Fortnite so toll mit Nvidia Hardware läuft. ;)

dildo4u
2023-03-23, 14:24:58
Der Treiber für den Overdrive Modus ist raus.


https://videocardz.com/driver/nvidia-geforce-game-ready-531-41

aufkrawall
2023-03-23, 14:29:22
Und die laufen dann alle schlecht auf den Karten von NV? :wink:
War das meine Aussage? Es ging darum, dass auch noch massiv bessere Grafik möglich ist, ohne gleich auf komplettes PT mit nochmal viel niedrigeren fps zu gehen.
Aber ja, Fortnite läuft leider vergleichsweise schlecht auf Nvidia. Gibt sowohl stärkere Streaming-Einbrüche, als auch wird die Hardware nicht besonders gut ausgelastet. Trotz HW-RT ist die 3060 Ti "nur" = 6700 XT:
https://www.youtube.com/watch?v=iHzcdr3wL3E

dargo
2023-03-23, 14:34:05
AMD besticht natürlich durch seine RT performance. :D
Ich hatte mich dabei nicht mal auf RT-Performance bezogen. Aber wenn du das Thema schon ansprichst wo genau ist Nvidia in vergleichbarer Preisklasse bei RT dermaßen überlegen außerhalb sinnfreier Lederjacken-RT-Modis? Eine 4070TI kostet ähnlich viel wie eine 7900XT und bei RT nehmen sich beide nicht viel. Nur weil Nvidia eine neue Preisklasse ganz oben ins Leben ruft gibts leider nichts zu feiern für die PC-Community. Denn außerhalb von paar Nerds juckt sowas niemanden. Es gibt bei RT so viele Parallelen zu damaligen Tessellation mit hirnverbrannten Faktoren, dass es schon wieder lustig ist. ;D

Brainscan
2023-03-23, 14:34:51
Der Treiber für den Overdrive Modus ist raus.


https://videocardz.com/driver/nvidia-geforce-game-ready-531-41

Schöner Treiber Diablo4 Beta , Last of Us 1 , Resident Evil 4 Remake und CP support. Gefällt mir

aufkrawall
2023-03-23, 14:36:26
Schöner Treiber Diablo4 Beta , Last of Us 1 , Resident Evil 4 Remake und CP support. Gefällt mir
Läuft halt auch fast immer alles ohne den neuen Treiber. Imho ist das größtenteils nur Marketing und es dürfte oft gar keine Änderungen speziell für die angeführten Titel geben. Wenn man Glück hat, schalten sie mal wieder rBAR für irgendein Spiel an. :freak:

Brainscan
2023-03-23, 14:43:42
Läuft halt auch fast immer alles ohne den neuen Treiber. Imho ist das größtenteils nur Marketing und es dürfte oft gar keine Änderungen speziell für die angeführten Titel geben. Wenn man Glück hat, schalten sie mal wieder rBAR für irgendein Spiel an. :freak:


Ist doch wie beim Essen 😀, das Auge isst mit. So auch mit den treiben. Liest sich schöner wenn es drin steht 🫣

BlacKi
2023-03-23, 15:09:04
Wenn man Glück hat, schalten sie mal wieder rBAR für irgendein Spiel an. :freak:
oder aus: Disable Horizon Zero Dawn Resizable Bar profile on Intel platforms [3759681] not a bug, its a feature.

aufkrawall
2023-03-23, 15:21:18
oder aus: not a bug, its a feature.
Hatten sie auch schon bei Hitman 3 gemacht. Es hat aber nicht funktioniert, man muss gegen die Performance-Einbuße im CPU-Limit weiterhin rBAR manuell per Inspector im Profil komplett deaktivieren.
Sind übrigens auf dem 13700K ~160fps vs. ~200fps. War hier mit Radeon genau so.

War, weil jetzt mit dem 5700X/Board es nicht mehr auftritt. :D

akuji13
2023-03-23, 15:24:49
Es ging darum, dass auch noch massiv bessere Grafik möglich ist, ohne gleich auf komplettes PT mit nochmal viel niedrigeren fps zu gehen.

Es ging darum, das man jetzt schickes RT mit durchwachsener performance genießen kann und später dann mit besseren Lösungen bessere Ergebnisse.

Man verliert also durch den Kauf einer 40er Karte, außer Geld, erstmal nix, man erkauft sich keinen langfristigen Nachteil soweit man das stand jetzt beurteilen kann.

Wozu dann also die Aufregung um ein optionales feature?

Ich hatte mich dabei nicht mal auf RT-Performance bezogen. Aber wenn du das Thema schon ansprichst wo genau ist Nvidia in vergleichbarer Preisklasse bei RT dermaßen überlegen außerhalb sinnfreier Lederjacken-RT-Modis?

Für dich sinnfrei.
Da sind wir wieder angekommen, im Zentrum des Universums. :wink:

Denn außerhalb von paar Nerds juckt sowas niemanden.

Ich bin der nerd, reicht also das es mich juckt. :wink:

Ex3cut3r
2023-03-23, 15:44:16
Als ob AMD irgendwie preiswerter wären. Was kann eine 7900 XTX für die gleiche Summe, besser als eine 4080? Also ich seh da nichts...was für eine AMD Karte sprechen wurde.

Bei der 6er Gen von AMD, waren sie wenigstens im Raster ein wenig besser, und bei der Effizienz. Bei der 7er Gen haben sie beides an Nvidia abgegeben. Also was bleibt denn übrig? :confused:

Und wer den Geld Cheat hat, der kauft sich eh eine 4090, die alles nochmal besser kann. Ob man nun 1300€ für eine AMD Karte (lol) ausgibt, oder aber 1900€ für ne 4090. Ist dann auch Wumpe.

aufkrawall
2023-03-23, 15:50:19
Es ist maximal die 7900 XT als 4070 Ti-Gegenspieler interessant, ja.
Aber dann gibt es auch noch den nicht geisteskranken Preisbereich, und da gibts bei Nvidia nur 8GB-Schrott oder die nicht besonders schnelle 3060.

akuji13
2023-03-23, 15:58:51
Geisteskrank ist stets relativ.

Außer mir kenne ich niemanden im realen Leben, der je mehr als 500€ für eine Grafikkarte ausgeben würde.
Und die sind auch schon die Ausnahmen, ~300€ ist in der Regel die Obergrenze.

Ex3cut3r
2023-03-23, 16:04:02
Schwierig. Laut Steam haben mittlerweile mehr Leute eine 3080 10GB als eine RX 580 im Rechner. Und das trotz Scalper Preise und immensen 3080 Pandemie Preis. Also so viele Leute kaufen dann doch nicht bis max 300€ ein :freak:

https://abload.de/thumb/screenshot2023-03-231j4fl7.png (https://abload.de/image.php?img=screenshot2023-03-231j4fl7.png)

akuji13
2023-03-23, 16:10:03
Hängt natürlich vom Umfeld ab.

Meines ist 45+ und mit Haus und Kindern bleibt oft nicht viel übrig.
Zusätzlich sind das eben keine nerds, da reichen 1080p auch mit 35fps und RT ist meistens gar kein Begriff.

dargo
2023-03-23, 17:27:08
Schwierig. Laut Steam haben mittlerweile mehr Leute eine 3080 10GB als eine RX 580 im Rechner. Und das trotz Scalper Preise und immensen 3080 Pandemie Preis. Also so viele Leute kaufen dann doch nicht bis max 300€ ein :freak:

https://abload.de/thumb/screenshot2023-03-231j4fl7.png (https://abload.de/image.php?img=screenshot2023-03-231j4fl7.png)
Jetzt müsste man aus der Statistik nur noch rausfischen können wie viele 3080 eher aufs Miningkonto als aufs Gaming gegangen sind weil jeder Pöbel mit seiner Graka Geld drucken konnte. :tongue:

DrFreaK666
2023-03-23, 18:08:42
Schwierig. Laut Steam haben mittlerweile mehr Leute eine 3080 10GB als eine RX 580 im Rechner. Und das trotz Scalper Preise und immensen 3080 Pandemie Preis. Also so viele Leute kaufen dann doch nicht bis max 300€ ein :freak:

https://abload.de/thumb/screenshot2023-03-231j4fl7.png (https://abload.de/image.php?img=screenshot2023-03-231j4fl7.png)

Auf die Idee gekommen, dass manche Scalper ihre Karten nicht los geworden sind, Steam aber trotzdem installiert ist?

Jupiter
2023-03-23, 18:33:38
Und die Schürfer haben alle einseitig NVidia und kein AMD gekauft?

Mit dem kleinen aber feinen Unterschied, dass damals schnellste Grafikkarten 1/3 von dem gekostet haben was heute verlangt wird. Aber welchen Spieler da draußen interessieren schon Grafikkartenpreise. :tongue: Nüchtern betrachtet reichen die 1700+€ einer 4090 noch nicht mal da 1080p 60fps im Jahre 2023 zumindest für mich ein Witz sind.

Dafür waren die schneller obsolet. Heute gibt es noch Spieler mit fast 10 Jahre alten Karten.

dargo
2023-03-23, 18:51:32
Dafür waren die schneller obsolet. Heute gibt es noch Spieler mit fast 10 Jahre alten Karten.
Aber die können doch gar nicht die unverzichtbare RT-Dröhnung genießen. :confused: Alles unter RTX ist doch nach Meinung einiger hier längst obsolet. ;)

jay.gee
2023-03-23, 19:48:03
Mal wieder Schnappatmung wegen RT und einer Technologie-Demo. Ich stelle mir gerade vor, die Spieler damals hätten bei den jeweiligen neuen Showcases von 3DMark, nvidia GameWorks und Co keine funkelnden Augen, sondern chronische Schnappatmung bekommen. :|

DrFreaK666
2023-03-23, 20:14:29
Mal wieder Schnappatmung wegen RT und einer Technologie-Demo. Ich stelle mir gerade vor, die Spieler damals hätten bei den jeweiligen neuen Showcases von 3DMark, nvidia GameWorks und Co keine funkelnden Augen, sondern chronische Schnappatmung bekommen. :|

Bei dem Quecksilber-Wasser in Morrowind hatten damals viele Schnappatmung

crux2005
2023-03-23, 21:09:47
Ich bedanke mich noch bei Aufkrawall für die tolle Antwort.

Eine Antwort wäre, dass massiv bessere BQ in Fortnite durch HW-RT auf einer 6700 XT nur 20% kostet:
https://abload.de/thumb/fortniteclient-win64-a9cfd.png (https://abload.de/image.php?img=fortniteclient-win64-a9cfd.png) https://abload.de/thumb/fortniteclient-win64-yligm.png (https://abload.de/image.php?img=fortniteclient-win64-yligm.png)

Performance selbst auf Lovelace auf einen Bruchteil der fps reduzieren, also Ruckelorgie mit 900€ 4070 Ti?
Ist doch völlig weltfremder Schwachsinn...

CP77 RT sieht btw. aus wie Arsch vs. Fortnite. Gibt seit dem letzten Content-Update auch eine "Cyberpunk"-Location, und das sieht so unglaublich viel plastischer und dynamischer aus...

@Chris Lus: Ich versperre mich nicht neuer Technik. Meine oder deine Meinung hier im Forum werden auch nichts ändern. Nur finde ich es gäbe es andere Prioritäten. Aber NV will Geld verdienen...

Evil Ash
2023-03-23, 21:14:18
Ich habe nun mal aus Spaß nach Fortnite "Cyberpunk"-Location gesucht ... ist es das? Mein Gott ist das gruselig ... schlecht. oO

aufkrawall
2023-03-23, 21:18:36
Soll man deine Gedanken lesen, um zu wissen, was du meinst? Klappt nämlich nicht (tippe mal, das ist auch gut so :freak: ).

crux2005
2023-03-23, 21:19:56
Ich habe nun mal aus Spaß nach Fortnite "Cyberpunk"-Location gesucht ... ist es das? Mein Gott ist das gruselig ... schlecht. oO

Es geht ums RT nicht um den Content. Das eine von der Community gemachte Map nicht dem Original das Wasser reichen kann ist echt nicht unerwartet.

Evil Ash
2023-03-23, 21:28:34
Es geht ums RT nicht um den Content. Das eine von der Community gemachte Map nicht dem Original das Wasser reichen kann ist echt nicht unerwartet.

Steht aber da oben:
"... eine "Cyberpunk"-Location, und das sieht so unglaublich viel plastischer und dynamischer aus..."

Erm ...:
https://i.imgur.com/dJJpGXD.jpg

aufkrawall
2023-03-23, 21:28:52
Ist schon von Epic selbst und Teil der regulären BR-Map. Dürfte aber kaum/gar keine Screenshots davon im Netz mit PC-Details geben.

Ok, er postet stattdessen einen vermatschten Screenshots aus einem Video. Ab auf die Troll-Liste...

Jupiter
2023-03-23, 21:43:12
Cyberpunk 2077 hat auch sehr realistisch aussehende Materialien. Die vielen volumetrischen gefallen mir auch sehr.

Was mir derzeit noch am meisten fehlt ist das jede der unzähligen Lichtquellen Schatten wirft und das die Schatten auf Wasser nicht scharfkantig sind.

Reflexionen in Reflexionen klingen auch sehr gut. Eigentlich bräuchte ich keine RTX 4090 aber wegen Cyberpunk 2077 würde ich einen Kauf in Erwägung ziehen.

9KyqCrSqz0g

hFVdHps8O_Y

Troyan
2023-03-23, 21:51:03
Ah alles klar, danke. Ich freue mich drauf.

Zu 60fps bei 1080p mit ner 4090...ne Vermutung oder gibt's da schon Benchmarks?

nVidia hat zum Lovelace Launch ein Video gepostet: https://youtu.be/spq0jSWRCqI?t=28

22 FPS in 4K, mit DLSS Performance sind es 62 FPS.

crux2005
2023-03-23, 23:31:06
Ist schon von Epic selbst und Teil der regulären BR-Map. Dürfte aber kaum/gar keine Screenshots davon im Netz mit PC-Details geben.

Ok, er postet stattdessen einen vermatschten Screenshots aus einem Video. Ab auf die Troll-Liste...

Dachte er spricht von Fortnite Creative 2.0...

Ah, die Bilder, toll ;D

dildo4u
2023-03-29, 07:03:01
cr9ZPRKm9dU

Troyan
2023-04-04, 15:25:46
Jetzt im richtigen Thread:
Preview der Preview des RT Overdrive: https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-ray-tracing-overdrive-update-launches-april-11/

00-Schneider
2023-04-04, 15:26:10
Bin mal auf die Performance auf einer 4090 gespannt.

Native 4K/Max ohne DLSS dann 20fps?

---------

Wie viel schafft eine 4090 aktuell in 4K/Native ohne DLSS?

Troyan
2023-04-04, 15:43:00
Laut dem Video sind es <=22 FPS in 4K mit der 4090 ohne DLSS.

Mit dem aktuellen Raytracing sind es ca. 40FPS im internen Benchmark: https://www.youtube.com/watch?v=mcs95-wbKGU

dargo
2023-04-04, 15:44:54
Bin mal auf die Performance auf einer 4090 gespannt.

Native 4K/Max ohne DLSS dann 20fps?

Bis zu 16fps gehen auch. ;D ;D ;D
https://youtu.be/Tk7Zbzd-6fs?t=58

00-Schneider
2023-04-04, 15:51:08
Ahh, ja, sry wegen der Blindheit. DLSS wird dann Performance+FG in dem Video gewesen sein?

Troyan
2023-04-04, 15:52:50
Ja, DLSS Performance hatte im alten Video ca. 62 FPS gemacht, FG dann nochmal 50%. Kein Plan, wie die jetzt auf 133 FPS kommen - vielleicht Ultra Performance.

beats
2023-04-04, 16:16:31
40-60

Slipknot79
2023-04-04, 22:55:07
Problem ist nicht pathtracing, sondern 4k (y). :redface:

Troyan
2023-04-05, 10:22:16
Angeblich hat jemand sich hier mit der aktuellen Version die selben Szenen gesucht: https://www.youtube.com/watch?v=dNdeWvyS0_k

Vorallem Nachts sollte es einen weiteren Quantensprung durch RTXDI geben. Jede Lichtquelle als reale Lichtquelle hilft massiv die Qualität aufzuwerten.

The_Invisible
2023-04-05, 10:33:55
Ja, DLSS Performance hatte im alten Video ca. 62 FPS gemacht, FG dann nochmal 50%. Kein Plan, wie die jetzt auf 133 FPS kommen - vielleicht Ultra Performance.

Vielleicht noch kein SER? Bin ja gespannt was da kommt...

@Slipknot79
Klar, mit Briefmarkenauflösung 320x240 wäre natürlich einiges leichter ; )

Slipknot79
2023-04-05, 23:30:06
Man cans auch übertreiben ;)
Zu 320x240 Zeiten gabs bereits auch 1024×768, nur dass damit nichts spielbar war wegen Geruckle, sogar 640x480 war teilweise problematisch. (y)
Immerhin gibt sich Lederjacke Mühe mit DLSS/FG in 4k während Lisa ihre Kunden abkacken lässt.

Chris Lux
2023-04-06, 08:42:12
Bei Crysis musste man im Grunde auch zwei Generationen warten ehe es "flüssig" spielbar war. Dann aber auch noch im SLI und mit Micro-Rucklern. Ich freue mich auf den neuen Hardware-Fresser ;)

dargo
2023-04-06, 10:42:39
Bei Crysis musste man im Grunde auch zwei Generationen warten ehe es "flüssig" spielbar war. Dann aber auch noch im SLI und mit Micro-Rucklern. Ich freue mich auf den neuen Hardware-Fresser ;)
Gib mir Zugriff bei CP77 auf diverse Parameter in der Engine und ich generiere dir eine Diashow auf einer RTX 4090. Dafür brauche ich nicht mal Raytracing. Schon putzig wie manche hier drauf sind. ;D

Chris Lux
2023-04-06, 10:48:43
Gib mir Zugriff bei CP77 auf diverse Parameter in der Engine und ich generiere dir eine Diashow auf einer RTX 4090. Dafür brauche ich nicht mal Raytracing. Schon putzig wie manche hier drauf sind. ;D
Und? Wenn der visuelle Vorteil sichtbar ist, ist es doch toll, dass die Technik endlich voran getrieben wird.

Troyan
2023-04-06, 10:49:07
Bei Crysis musste man im Grunde auch zwei Generationen warten ehe es "flüssig" spielbar war. Dann aber auch noch im SLI und mit Micro-Rucklern. Ich freue mich auf den neuen Hardware-Fresser ;)

Dürfen nicht vergessen, der Sprung hier ist immens. So fantastisch Crysis war, wir reden hier bei Cyberpunk eigentlich vom Endgame von Rendering. Mehr als Pathtracing gibt es nicht. Und Cyberpunk ist da bei >90%.

Das sowas in 1440p wohl mit einer 4070TI mit DLSS Performance ca. 60 FPS erreichen kann, ist schon irgendwie cool. Und die 4070TI kostet auch nur $150 mehr als die 8800GTX. Also inflationsbereinigt deutlich "günstiger" als vor 16 Jahren.

Chris Lux
2023-04-06, 10:54:45
Es ist aber immer noch ein weitläufiges Endgame. Man muss nur mal schauen was da noch an Forschung betrieben wird (material simulation, spectral rendering...). Ich denke das PT Modell von Cyberpunk ist immer noch super einfach, um eben "Echtzeit" Rendering machen zu können.

Dampf
2023-04-06, 11:02:26
Angeblich hat jemand sich hier mit der aktuellen Version die selben Szenen gesucht: https://www.youtube.com/watch?v=dNdeWvyS0_k

Vorallem Nachts sollte es einen weiteren Quantensprung durch RTXDI geben. Jede Lichtquelle als reale Lichtquelle hilft massiv die Qualität aufzuwerten.

Nice, das sieht schon deutlich besser aus.

Nvidia treibt die Industrie nach vorne :up:

Troyan
2023-04-06, 11:15:01
Es ist aber immer noch ein weitläufiges Endgame. Man muss nur mal schauen was da noch an Forschung betrieben wird (material simulation, spectral rendering...). Ich denke das PT Modell von Cyberpunk ist immer noch super einfach, um eben "Echtzeit" Rendering machen zu können.

Das sind alles Verbesserungen. Aber der große Schritt kommt mit dem Schritt zum Pathtracing bei der Lichtberechnung. Bessere Denoiser, besseres Sampling, DL Methoden sind dann für schnellere Berechnungen hilfreich.

Nach Pathtracing käme eigentlich nur noch DL und das Erstellen von Bilder durch reine (Text-)Beschreibung anstelle von mathematischen Funktionen.

SamLombardo
2023-04-06, 11:36:32
Hat schon jemand was gelesen um welche Uhrzeit es am 11.04. losgeht? Hoffentlich doch nicht wieder erst 19 Uhr...

JackBauer
2023-04-06, 12:03:39
also es turnt mich schon an

hab erst die Appartment Mission gespielt, also erst 5 Stunden drin

werd mir wohl ne 4070ti zulegen, sollten sich 70 frames ausgehen

jay.gee
2023-04-06, 12:24:35
Gib mir Zugriff bei CP77 auf diverse Parameter in der Engine und ich generiere dir eine Diashow auf einer RTX 4090. Dafür brauche ich nicht mal Raytracing. Schon putzig wie manche hier drauf sind. ;D

Als wenn es darum gehen würde, irgendwelche Hardware-Konstellationen ans Limit zu bringen. Wir leben doch längst in einer Epoche, in der man Texturen, Vegetation, Wasserdarstellungen usw. super realistisch einfangen kann. In vielen Flug- oder Rennsimulationen muss ich bei Screenhots heutzutage oft mehrmals hinschauen, ob es sich da um ein Spiel, oder aber um ein reales Foto handelt.

Der nächste Schritt zum Fotorealismus geht für mich hauptsächlich über die Komplexität einer simulierten Echtzeitbeleuchtung. Mutter Erde mit seiner grandiosen und unzähligen Farb- und Beleuchtungsvielfalt ist nun einmal ein echtes Wunder der Natur. Irgendwie schade, dass du dich dem Fortschritt in deinem Grabenkampf der Hardwarehersteller, in den vergangenen Jahren mehr und mehr verweigerst.

Raff
2023-04-06, 12:36:26
Da ich's gerade gemessen habe (Cyberpunk 2077 v1.61 mit allem und Schaf): Man kann AD104 in WQHD um Faktor 4,7 beschleunigen, wenn man Pixelsparen und Frame-Generierung maximal dazuballert. Hübsch ist das dann nicht mehr, aber es gibt einen Kompromiss: DLSS B + Frame Generation bringt bei gegenüber TAA vergleichbarer Qualität gut dreimal so viele Fps - das sind gute Aussichten für das Pathtracing. Sicher, je mehr Strahlen, desto sichtbarer wird das Pixelsparen, aber spielbar kriegt man das gewiss - nur keinesfalls mit "echten", voll berechneten Frames.

MfG
Raff

dargo
2023-04-06, 13:02:35
Dürfen nicht vergessen, der Sprung hier ist immens. So fantastisch Crysis war, wir reden hier bei Cyberpunk eigentlich vom Endgame von Rendering.
you made my day :lol:

dildo4u
2023-04-07, 15:50:05
Gameplay footage captured on a PC with the following configuration:
CPU: AMD Ryzen 9 7900X 12-Core Processor 4.70 GHz
GPU: NVIDIA GeForce RTX 4090
RAM: Kingston Fury DDR 5 128 GB (4X32GB)
All in-game graphics settings are maxed out and resolution set to 4K.



3FG_My0b3mY

Ex3cut3r
2023-04-10, 15:01:43
Path Tracing Preview von Alex:

I-ORt8313Og

Unglaublich wie Kacke das Raster Only Setting aussieht, aber gibt ja genug AMDler die immer noch davon schwafeln, das RT keinen Mehrwert bringt. ;D

DrFreaK666
2023-04-10, 15:15:55
Wad gibt's da zu lachen? Overdrive dürfte bei dir auch nur furchtbar laufen :rolleyes:

Holundermann
2023-04-10, 15:16:33
Schaut das gut aus. Wird es auch auf AMD karten laufen oder ist es NVIDIA exklusiv?

DrFreaK666
2023-04-10, 15:17:52
Es wird bestimmt auch auf AMD-Karten "laufen" :D
Auf AMD-Karten wahrscheinlich erst ab der 8900XT wirklich nutzbar

Jupiter
2023-04-10, 16:53:48
Dagegen sieht alles bisher existierende eine Generation schlechter aus. Gibt es Informationen zur einrr möglichen RTX4090Ti?

aufkrawall
2023-04-10, 17:05:08
Dagegen sieht alles bisher existierende eine Generation schlechter aus.
Jo, etwa der komplette Open World Content des Spiels.

Ex3cut3r
2023-04-10, 18:45:11
Wad gibt's da zu lachen? Overdrive dürfte bei dir auch nur furchtbar laufen :rolleyes:

Und du kannst es dir bei einer Tasse Tee auf YouTube anschauen. :biggrin:

Ich plane den Kauf einer 4080 Ti später noch.

TheCounter
2023-04-10, 18:50:36
Full Raytracing - This is the way

Sieht wirklich fantastisch aus. Eine massive Verbesserung :up:

Freu mich schon darauf, wenn alle neuen Spiele komplett darauf setzen. Zumindest als alternativer Modus wie jetzt bei CP.

Jupiter
2023-04-10, 19:02:03
Jo, etwa der komplette Open World Content des Spiels.

Das ist kein Sandkasten- sondern ein Handlungsspiel und dennoch sind die Kämpfe gegen KI in der offenen Welt sehr unterhaltsam.

SamLombardo
2023-04-10, 19:06:36
Ich freu mich auch drauf. Habe mit meinem zweiten Cyberpunk Durchgang extra darauf gewartet. Morgen geht's los:). Ich hoffe auf 60fps mir DLSSQ und FG. Könnte klappen, mal sehen.

@Ex3cut3r, 4090ti, weiß nicht ob das so eine gute "Taktik" ist. Wartest ewig, dann hast du vielleicht ein halbes Jahr die schnellste Karte (ob die Unterschiede zur 4090 wirklich merkbar sind, ist auch lange nicht sicher) und nach ein paar Monaten kommt schon wieder die deutlich schnellere 5090 mit DLSS 4 und whatever. Also 3090ti reloaded. Lieber jetzt ne 4090, sofort Spaß haben und dann in zwei Jahren weiter sehen....aber natürlich jeder wie er mag:wink:

sapito
2023-04-10, 19:17:12
Ich freu mich auch drauf. Habe mit meinem zweiten Cyberpunk Durchgang extra darauf gewartet. Morgen geht's los:). Ich hoffe auf 60fps mir DLSSQ und FG. Könnte klappen, mal sehen.

@Ex3cut3r, 4090ti, weiß nicht ob das so eine gute "Taktik" ist. Wartest ewig, dann hast du vielleicht ein halbes Jahr die schnellste Karte (ob die Unterschiede zur 4090 wirklich merkbar sind, ist auch lange nicht sicher) und nach ein paar Monaten kommt schon wieder die deutlich schnellere 5090 mit DLSS 4 und whatever. Also 3090ti reloaded. Lieber jetzt ne 4090, sofort Spaß haben und dann in zwei Jahren weiter sehen....aber natürlich jeder wie er mag:wink:

scheiss lesekompetenz und so :freak:

Ich plane den Kauf einer 4080 Ti später noch.

da steht 80 und nicht 90 du.... ;D


k.a. ob/ wann 4080ti rauskommt und dann zu welchem Preis ....


deswegen jetzt kaufen oder es sein lassen

Blase
2023-04-10, 19:17:57
Path Tracing Preview von Alex:

Gibt Szenen, die klar besser aussehen, musste aber auch bei einigen Vergleichen stoppen und hätte mich nicht entscheiden können, welches der drei Vergleichsbilder nun besser aussieht. Anyway - ich freu mich drauf :up:

Will aber nicht DLSS@P spielen. Schade, dass zu DLSS@Q nichts gesagt worden ist :rolleyes:

Dagegen sieht alles bisher existierende eine Generation schlechter aus. Gibt es Informationen zur einrr möglichen RTX4090Ti?

Selbst wenn, kannst auf die 18 FPS einer 4090 ja mal 20 Prozent drauf tun ;)

MfG Blase

SamLombardo
2023-04-10, 19:26:50
scheiss lesekompetenz und so :freak:



da steht 80 und nicht 90 du.... ;D

Oh. Duckundweg:weg:

Sardaukar.nsn
2023-04-10, 19:28:16
Erscheint ja auch schon morgen :)

The_Invisible
2023-04-10, 19:48:23
Gibt Szenen, die klar besser aussehen, musste aber auch bei einigen Vergleichen stoppen und hätte mich nicht entscheiden können, welches der drei Vergleichsbilder nun besser aussieht. Anyway - ich freu mich drauf :up:

Will aber nicht DLSS@P spielen. Schade, dass zu DLSS@Q nichts gesagt worden ist :rolleyes:



Selbst wenn, kannst auf die 18 FPS einer 4090 ja mal 20 Prozent drauf tun ;)

MfG Blase

In UHD ist DLSS-P auch in Ordnung, DLSS-B wird aber sicher auch gehn. Ansonsten wundert mich das nix zu SER gesagt wurde, ist das jetzt drin?

Ansonsten auch schon gespannt das mal live probieren zu drüfen...

Tesseract
2023-04-10, 19:52:15
overdrive hat wieder diesen realen look der mich schon in metro exodus EE von RT als gaming-technologie überzeugt hat. ich bin nach wie vor der meinung RTGI ist wesentlich transformativer als RT-reflexionen und visuell das absolute killerfeature.

frix
2023-04-10, 21:09:33
Verdammt sieht das gut aus. Ein krasser sprung weg vom gamey look.

Atma
2023-04-10, 21:15:45
Eine 4090 macht in 4K mit DLSS 2 Performance 59 FPS. Dann sollte eine 3090 (Ti) in 1440p mit DLSS 2 Performance/Balanced hoffentlich wenigstens 30-40 FPS schaffen, damit man es sich zumindest ein wenig anschauen kann :usad: