Archiv verlassen und diese Seite im Standarddesign anzeigen : Hogwarts Legacy - Technik-Thread
Döner-Ente
2023-02-08, 13:09:11
Hier bitte alle Diskussionen rund um die Technik des Spiels rein.
ZomBy7
2023-02-08, 13:50:23
Ich bin stark der Meinung, das die ganze VRAM Problematik einfach durch schlechte Optimierung zustande kommt.
Durch DirectStorage kann ich den VRAM einer 3080 10GB mit einer Pcie4 NVME in 1,5 Sekunden komplett ersetzen.
Haben es sich halt leicht gemacht und einfach den Ressourcenmanagement Code von den Konsolen genommen/portiert.
dargo
2023-02-08, 14:17:08
Ich bin stark der Meinung, das die ganze VRAM Problematik einfach durch schlechte Optimierung zustande kommt.
Durch DirectStorage kann ich den VRAM einer 3080 10GB mit einer Pcie4 NVME in 1,5 Sekunden komplett ersetzen.
Nichts für ungut... aber 1500ms ist eine "halbe" Ewigkeit im Rendering. :freak:
ZomBy7
2023-02-08, 14:56:13
Nichts für ungut... aber 1500ms ist eine "halbe" Ewigkeit im Rendering. :freak:
Mir gehts ja darum, dass man über DirectStorage streamt und somit viel weniger Texturen vorhalten muss.
Lowkey
2023-02-08, 14:59:49
Da kommt doch bestimmt um 15:oo der Hogwarts-Nvidia-Mega-Treiber.
Da isser:
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
Eh: nichts für Hogwarts :(
dargo
2023-02-08, 15:01:32
@ZomBy7
Ok... aber das ist halt PC-Plattform. Da müssen DEVs viele Jahre alte Hardware "mitschleppen" damit die Verkaufszahlen stimmen. Irgendwann wird auch DS am PC im Bereich Vram-Einsparung zum Einsatz kommen. Ich fürchte bloß bis dahin spielt ne 3080 keine Rolle mehr. :freak:
Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-Videospeicher-Hogwarts-Legacy-1413131/) :D
Ich hoffe, dass ein Mod die ganzen Technik-Postings aus dem anderen Thread hier reinkopiert, das wäre dufte. :)
MfG
Raff
dildo4u
2023-02-08, 15:31:32
Hogwarts scheint einfach in den Hauptspeicher zu cachen zumindest machen Angaben wie 32GB empfohlen Sinn.
QCq64XzLywc
Brainscan
2023-02-08, 15:36:59
Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-Videospeicher-Hogwarts-Legacy-1413131/) :D
Ich hoffe, dass ein Mod die ganzen Technik-Postings aus dem anderen Thread hier reinkopiert, das wäre dufte. :)
MfG
Raff
Ja so schnell kann es gehen, ich HOFFE das ich mit meinen 24GB noch bis zur 5090 auskommen werde :)
Brainscan
2023-02-08, 15:38:17
Da kommt doch bestimmt um 15:oo der Hogwarts-Nvidia-Mega-Treiber.
Da isser:
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
Eh: nichts für Hogwarts :(
ECHT JETZT, keine Treiber Optimerung für Hogwarts, wie krass is das den jetzt
Brainscan
2023-02-08, 15:40:18
Treiber is da, aber keine Hogwarts Optimierung :)
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-40-series-laptop-game-ready-driver/
Lowkey
2023-02-08, 15:40:45
Das Raff Video ist nur für Leute ohne aktuelle Grafikkarte gedacht. Man kann sich ja wirklich alles sparen, wenn man direkt eine 4090 einbaut :>
PS: die Augen von Raff werden immer kleiner. Früher waren sie wenigstens noch rot.
SamLombardo
2023-02-08, 15:45:37
Das Raff Video ist nur für Leute ohne aktuelle Grafikkarte gedacht. Man kann sich ja wirklich alles sparen, wenn man direkt eine 4090 einbaut :>
PS: die Augen von Raff werden immer kleiner. Früher waren sie wenigstens noch rot.
Welches Raff Video meinst du denn?
Döner-Ente
2023-02-08, 15:47:03
Wobei ich ehrlich gesagt, nicht nur bei dem Spiel, mal wissen möchte, mit welcher Begründung 8 GB auf einmal nicht mehr reichen, man gefühlt immer öfter mit Shader-Gestotter zu kämpfen hat usw., ohne das die Spiele großartig besser aussehen als vor 2-3 Jahren oder so.
DrFreaK666
2023-02-08, 15:50:00
lol
Was erwartet ihr vom Treiber?
Angeblich optimierte Treiber steigern eher selten die Performance signifikant, wenn überhaupt. Und wenn es keine Grafikfehler gibt, dann ist ein Treiber auch nicht zwingend nötig.. Das spricht für das Spiel
Brainscan
2023-02-08, 15:54:01
lol
Was erwartet ihr vom Treiber?
Angeblich optimierte Treiber steigern eher selten die Performance signifikant, wenn überhaupt. Und wenn es keine Grafikfehler gibt, dann ist ein Treiber auch nicht zwingend nötig.. Das spricht für das Spiel
lach ich dich aus wenn du ein Kommentar abgibst ?
Also lass es
DrFreaK666
2023-02-08, 16:00:56
lach ich dich aus wenn du ein Kommentar abgibst ?
Also lass es
Hab mehr als "lol" geschrieben.
Vielleicht gehst darauf ein
Brainscan
2023-02-08, 16:01:19
Hab mehr als "lol" geschrieben
war auch nen witz , wollte mal einen auf hart machen :)
Alles gut
IchoTolot
2023-02-08, 16:01:51
Mir ist die Bedeutung von VRAM beim Wechsel von 6600XT 8GB auf 6900XT 16 GB deutlich geworden. Probleme in Horizon Zero Dawn oder sogar Dishonored in 4K und nicht ladenden Texturen, das alles ist weg.
Meine nächste GPU wird nicht weniger als 16 GB oder sogar 20 GB haben.
Brainscan
2023-02-08, 16:06:04
Mir ist die Bedeutung von VRAM beim Wechsel von 6600XT 8GB auf 6900XT 16 GB deutlich geworden. Probleme in Horizon Zero Dawn oder sogar Dishonored in 4K und nicht ladenden Texturen, das alles ist weg.
Meine nächste GPU wird nicht weniger als 16 GB oder sogar 20 GB haben.
Hat mich letztes Jahr schon genervt das ich mit meiner 3090TI NICHT FarCry6 mit High Res Texturen spielen konnte.
Sorry ich meine eine 3080TI
Ex3cut3r
2023-02-08, 16:40:42
Hat mich letztes Jahr schon genervt das ich mit meiner 3090TI NICHT FarCry6 mit High Res Texturen spielen konnte :)
Was für ein Quatsch erzählst du da?
24GB VRAM reichten nicht für FC6 aus? Laut Raff, PCGH reichten schon 11-12GB dafür aus. Hattest du das Spiel 2x mal gleichzeitig am laufen? :freak:
LuckyD
2023-02-08, 17:11:44
Mir ist die Bedeutung von VRAM beim Wechsel von 6600XT 8GB auf 6900XT 16 GB deutlich geworden. Probleme in Horizon Zero Dawn oder sogar Dishonored in 4K und nicht ladenden Texturen, das alles ist weg.
Meine nächste GPU wird nicht weniger als 16 GB oder sogar 20 GB haben.
Genau so seh ich das auch. Und dann am besten noch für 800 Euro und nicht mehr. Darum ist die 4080 mit 16 GiB für 800 Euro mein nächstes Ziel (auch, wenn es noch Jahre dauern sollte)
MiamiNice
2023-02-08, 17:25:43
Was für ein Quatsch erzählst du da?
24GB VRAM reichten nicht für FC6 aus? Laut Raff, PCGH reichten schon 11-12GB dafür aus. Hattest du das Spiel 2x mal gleichzeitig am laufen? :freak:
Wenn ich ihn richtig verstehe hat er einen High Res Mod geladen. Den hat wahrscheinlich PCGH nicht getestet? Texturen brauchen VRam.
DrFreaK666
2023-02-08, 17:36:30
Wenn ich ihn richtig verstehe hat er einen High Res Mod geladen. Den hat wahrscheinlich PCGH nicht getestet? Texturen brauchen VRam.
High Res Texturen gab es glaub separat bei Ubisoft zum Download
Heimscheißer
2023-02-08, 17:41:57
Bei YT gibts Videos wo auf nem Laptop mit zb Rtx3060 (6GB!!) recht flüssig auf Wqhd High/Ultra mit Dlss Quality gespielt wird. Teilweise stabil über 60fps....also ich find da jetzt nix spektakuläres bzgl Ram/Vram Hunger?!
Aber ich bin auch nur (noch) Casual Consumer😂 und hab keine Lust mehr drauf mich ewig mit Settings und Gedöhns zu beschäftigen🤷😂...ich zock lieber. (SeriesX 60fps Modus und gut is)
DrFreaK666
2023-02-08, 17:47:35
Hogwarts mit einer 750Ti
ftUYOjwWLR8
dargo
2023-02-08, 17:52:39
Genau so seh ich das auch. Und dann am besten noch für 800 Euro und nicht mehr. Darum ist die 4080 mit 16 GiB für 800 Euro mein nächstes Ziel (auch, wenn es noch Jahre dauern sollte)
Ich fürchte die 4080 wirst du nie für 800€ sehen. Selbst nicht im Abverkauf wenn schon der Nachfolger da ist. Nvidia senkt die Preise nicht mehr erheblich, auch nicht nach 2 Jahren.
High Res Texturen gab es glaub separat bei Ubisoft zum Download
Ja... und selbst damit kommt eine 16GB Graka problemlos klar. Keine Ahnung woher wieder irgendwelche Märchen kommen 24GB würden nicht reichen. :facepalm: Wahrscheinlich hat irgendein Noob stur wieder mal nur auf die Allocation geschaut.
Achill
2023-02-08, 18:12:32
Download braucht noch etwas, ich berichte dann mal wie es bei mir läuft ...
Brainscan
2023-02-08, 19:06:36
Was für ein Quatsch erzählst du da?
24GB VRAM reichten nicht für FC6 aus? Laut Raff, PCGH reichten schon 11-12GB dafür aus. Hattest du das Spiel 2x mal gleichzeitig am laufen? :freak:
Ach Scheiße Sorry 3080Ti 🫠.
Und NEIN die hat nicht gereicht für High Res Texturen. Auch wenn Raff was anderes erzählt. Es gab mit der 3080TI Texturen Nachlade Störungen 😀
Ex3cut3r
2023-02-08, 20:05:15
Das macht natürlich mehr Sinn. Alles klar, sry wenn ich etwas "hart" klang. Aber das mit der 3090 Ti und 24GB VRAM könnte natürlich nicht sein.
Achill
2023-02-08, 20:11:14
So .. RT gar nicht aktiviert. Habe am Start wenn man aus der Höhle raus ist mit Ultra@4k ~50fps mit TAA. Leider dann gleich erstmal aufgefallen, dass man irgendwie die Effekte nicht richtig deaktiviert werden, insb. Chromatic Aberration. Scheint Single-CPU abhängig zu sein, mit FSR2 hab ich stets 75-100% auf einen Core jedoch nur ~10-19% auf allen.
Via config geht es, hab dann gleich alles aus geschaltet (motion blur, chromatic aberration, film grain) ..
C:\Users\<user>\AppData\Local\Hogwarts Legacy\Saved\Config\WindowsNoEditor
[SystemSettings]
r.MotionBlur.Max=0
r.MotionBlurQuality=0
r.DefaultFeature.MotionBlur=0
r.SceneColorFringe.Max=0
r.SceneColorFringeQuality=0
r.Tonemapper.GrainQuantization=0
r.Tonemapper.Quality=0
ChaosTM
2023-02-08, 20:15:10
Ich fürchte die 4080 wirst du nie für 800€ sehen. Selbst nicht im Abverkauf wenn schon der Nachfolger da ist. Nvidia senkt die Preise nicht mehr erheblich, auch nicht nach 2 Jahren.
Ja... und selbst damit kommt eine 16GB Graka problemlos klar. Keine Ahnung woher wieder irgendwelche Märchen kommen 24GB würden nicht reichen. :facepalm: Wahrscheinlich hat irgendein Noob stur wieder mal nur auf die Allocation geschaut.
Oder die Skalierung auf 2x gestellt. Dann sauft das Spiel über 24gb und ruckelt mit 7fps vor sich hin.
SentinelBorg
2023-02-08, 20:19:27
Was mir auffällt, das Game kommt mit der recht alten 2.3.1 DLSS DLL. Die hat z.B. bei ToF GPU Memory Leaks erzeugt. Vielleicht passiert das auch hier. Hab sie auf jeden Fall mal gegen eine 2.5.1 ausgetauscht.
dildo4u
2023-02-08, 20:22:30
Das RTAO und Reflektionen lassen sich per Config aufwerten.
https://www.dsogaming.com/articles/here-is-how-you-can-significantly-improve-the-quality-of-ray-tracing-shadows-ambient-occlusion-reflections-in-hogwarts-legacy/
SentinelBorg
2023-02-08, 20:24:06
Das RTAO und Reflektionen lassen sich per Config aufwerten.
https://www.dsogaming.com/articles/here-is-how-you-can-significantly-improve-the-quality-of-ray-tracing-shadows-ambient-occlusion-reflections-in-hogwarts-legacy/
Ahja, hab ja noch bissel Performance über wenn ich FG einschalte ^^
Bin mal gespannt, ob es ein DF Review für das Game geben wird. Aber könnte gut sein, dass sie aus "Gründen" einen der größten Multiplatform-Releases des Jahres ignorieren.
Achill
2023-02-08, 20:48:46
Die RT-Schatten (RT@Ultra) sorgen hier für die schlimmen Frametimes und fressen 39% der FPS. Ohne RT-Schatten kann man es sogar mit FSR2@Q spielen. Scheinen auch wie Pop-Ups teilweise aktualisiert zu werden bzw. fehlen auch kurz mal in Sequenzen.
crux2005
2023-02-08, 21:08:57
Hat mich letztes Jahr schon genervt das ich mit meiner 3090TI NICHT FarCry6 mit High Res Texturen spielen konnte.
Sorry ich meine eine 3080TI
Das war ein Bug im Spiel. Es hätten 11GB VRAM gereicht.
läuft auch auf einer 1060
https://youtu.be/gemnMpwDP-I
Nur werden die wenigsten mit GTX 1060 auch 32GB RAM haben.
Hier gibt's übrigens ein GPU-Killersave zum Download mit Anleitung: https://extreme.pcgameshardware.de/threads/pcgh-community-benchmark-hogwarts-legacy.630536/
Wer seine Grafikkarte mal so richtig plattmachen möchte (~47 Fps mit einer RTX 4090 in UHD, TA, RT maxed). :D
MfG
Raff
blaidd
2023-02-08, 21:36:05
Laut [...] PCGH reichten schon 11-12GB dafür aus. Hattest du das Spiel 2x mal gleichzeitig am laufen? :freak:
Frisch getestet – mit Extra-Texturen. Knapp, aber wenn dann eng, sehr eng. (Eine RTX 4090 ist außerdem kinda useless da.)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82669&stc=1&d=1675888554
wandermann
2023-02-08, 22:03:17
Es zeigt sich meiner Einschätzung nach dass Abwertungen des Spiels übertrieben sind. Man kann natürlich der Meinung sein dass die Grafik für das Gebotene zu viel HW frisst, aber so ist es eben. Es gibt keinen Anspruch mit 16 GB RAM und 8 GB VRAM noch alles in 4K auf Ultra zu spielen.
Dass sich dann Leute aufregen :confused::confused: Kommt mir vor wie die immergleiche Schallplatte. Haben halt doch die Recht gehabt die in ihren Rechner 32 GB RAM gesteckt haben und nicht die Spargrafikkarten von Nvidia gekauft haben. Aber die Diskussion kann man wirklich aller 2 Jahre wieder gleich führen ;D
Piccolo
2023-02-08, 22:18:14
Fazit nach 15h Spielzeit:
Hab mit der 3080 10GB gut spielen können. FPS lagen so bei 30-50 in der Regel.
-OHNE DLSS
-mit allen RT (max)
-Restliche Details max.
-4k
Im großen und ganzen ist es okay bis gut spielbar aber weiten nicht Perfekt!!
-32 GB Ram -3600 (Standard)
-12700k (kein Turbo oder Übertaktung)
-Samsung 970 Evo plus SSD
-Win11
Warte auf Day One Patch + Nvidia Treiber .Bin gespannt wie sich die ggf. 3-5 fps mehr anfühlen im besten Fall. Haha!!
P.S
Spiel ist der Hammer !
La Junta
2023-02-08, 22:38:45
Ich zocke es auch auf einer 3080er 10GB und es läuft echt gut in 1440P mit alles @ max. RT Ultra und DLSS Q. Kleine Ruckler ab und an gibt es aber wirklich , extrem störend sind die aber nicht wirklich (zumindest nicht für mich). Das die 10GB nicht langen denke ich auch nicht , aber 1-2Patches brauchts schon wenn ich mir anschaue wie es den RAM vollballert. Alles in allem läuft es aber besser als erwartet nach den ganzen Posts die ich gelesen habe.
Restliche HW wäre : 13700k , 32GB DDR4 4300MHZ CL16, und das Game ist auf einer WD 850X(ka ob das relevant ist) .
Ich finde das Game bisher echt schick.
Gruss Junta
Brainscan
2023-02-08, 22:51:30
Das macht natürlich mehr Sinn. Alles klar, sry wenn ich etwas "hart" klang. Aber das mit der 3090 Ti und 24GB VRAM könnte natürlich nicht sein.
Ne ist klar, bin ich absolut bei dir. War ja mein Fehler 😀
Ex3cut3r
2023-02-08, 23:10:05
Schön, das man das klären konnte. :up: Viel Spaß mit dem Spiel wünsche ich.
Brainscan
2023-02-09, 00:28:39
Also der RT Tweak Funzt :eek:
https://abload.de/thumb/1r6dy6.jpg (https://abload.de/image.php?img=1r6dy6.jpg) https://abload.de/thumb/2t4ebk.jpg (https://abload.de/image.php?img=2t4ebk.jpg)
sorry wegen den blasen Bilder , HDR in Nicht HDR *.jpg ^^
Wiseman
2023-02-09, 02:07:22
Die RT-Schatten (RT@Ultra) sorgen hier für die schlimmen Frametimes und fressen 39% der FPS. Ohne RT-Schatten kann man es sogar mit FSR2@Q spielen. Scheinen auch wie Pop-Ups teilweise aktualisiert zu werden bzw. fehlen auch kurz mal in Sequenzen.
Ich habe Hogwarts Legacy ganz kurz angespielt, um an die gleiche Stelle wie du zu kommen. Richtig loslegen werde ich erst ab kommenden Freitag. Du weißt schon, wegen HL-Treiber und eventuellem Day-One-Patch. Allererster Eindruck: ich glaube, dieses Spiel wird mir gefallen.
Ich hänge 2 Screenshots an. Beide sind in 4k, Ultra und FSR2 Quality. Einmal mit RT Reflections, RT Shadows und RT AO in Ultra. Einmal mit RT Off. Der optische Unterschied ist schon krass, eh? (Bevor jetzt hier einige ausflippen. Logisch. An dieser Stelle stehen keine Spiegel herum.)
Der Leistungsunterschied ist auch krass. RT Ultra frisst meiner XTX 63% weg (121 fps vs 46 fps). Schon klar, wie ich es auf meiner schofeligen AMD-Karte spielen werde.
crux2005
2023-02-09, 02:17:01
Ich habe Hogwarts Legacy ganz kurz angespielt, um an die gleiche Stelle wie du zu kommen. Richtig loslegen werde ich erst ab kommenden Freitag. Du weißt schon, wegen HL-Treiber und eventuellem Day-One-Patch. Allererster Eindruck: ich glaube, dieses Spiel wird mir gefallen.
Ich hänge 2 Screenshots an. Beide sind in 4k, Ultra und FSR2 Quality. Einmal mit RT Reflections, RT Shadows und RT AO in Ultra. Einmal mit RT Off. Der optische Unterschied ist schon krass, eh? (Bevor jetzt hier einige ausflippen. Logisch. An dieser Stelle stehen keine Spiegel herum.)
Der Leistungsunterschied ist auch krass. RT Ultra frisst meiner XTX 63% weg (121 fps vs 46 fps). Schon klar, wie ich es auf meiner schofeligen AMD-Karte spielen werde.
Alleine das RT AO macht in der Stelle IMHO schon einen großen Unterschied. Ohne die RT Spiegelungen und Schatten könnte ich leben. Falls die Leistung dann noch immer zu niedrig ist, würde ich lieber auf FSR Balanced gehen. Wobei ich auch keine 1300€ für eine Grafikkarte ausgeben würde.
Wiseman
2023-02-09, 02:44:43
Alleine das RT AO macht in der Stelle IMHO schon einen großen Unterschied. Ohne die RT Spiegelungen und Schatten könnte ich leben. Falls die Leistung dann noch immer zu niedrig ist, würde ich lieber auf FSR Balanced gehen. Wobei ich auch keine 1300€ für eine Grafikkarte ausgeben würde.
RT AO macht an dieser Stelle IMHO überhaupt keinen Unterschied. Naja, was solls. Wir AMD-Kartenbesitzer sind anscheinend von Mutter Natur in Sachen "Erkennen von optischen Feinheiten" stiefmütterlich behandelt worden. Über optische Schmankerl wie RT können wir einfach nicht mitreden.
An welche Grafikkarte denkst du bei einem Preis von 1300 €? Wahrscheinlich an eine 4080. Meine Custom XTX bekommst du zur Zeit für ca. 1100 €.
crux2005
2023-02-09, 03:04:16
RT AO macht an dieser Stelle IMHO überhaupt keinen Unterschied. Naja, was solls. Wir AMD-Kartenbesitzer sind anscheinend von Mutter Natur in Sachen "Erkennen von optischen Feinheiten" stiefmütterlich behandelt worden. Über optische Schmankerl wie RT können wir einfach nicht mitreden.
Wieso gleich dieser Beißreflex? Ich habe Sachlich geantwortet. Aber wenn du meinst. :rolleyes:
An welche Grafikkarte denkst du bei einem Preis von 1300 €? Wahrscheinlich an eine 4080. Meine Custom XTX bekommst du zur Zeit für ca. 1100 €.
Hier nicht. Und die Preise in DE interessieren mich nicht. Die billigste lieferbare XTX kostet hier 1249€.
DrFreaK666
2023-02-09, 04:08:15
... Der Leistungsunterschied ist auch krass. RT Ultra frisst meiner XTX 63% weg (121 fps vs 46 fps). Schon klar, wie ich es auf meiner schofeligen AMD-Karte spielen werde.
Ist das andere Screenshot komplett ohne AO? Wüsste nicht wieso man für den Effekt unbedingt RTAO benötigt
crux2005
2023-02-09, 04:13:09
Ist das andere Screenshot komplett ohne AO? Wüsste nicht wieso man für den Effekt unbedingt RTAO benötigt
Nein. Dann hättest du überhaupt keine Schattierungen und die ganzen Objekte würden "schweben".
SS AO Methoden schattieren die Umrisse uniform. Nur haben wir uns daran gewöhnt. RT AO macht es deutlich realistischer.
z.B. ist ohne RT das Innere vom Topf viel zu dunkel, als ob die Sonne nicht "rein" könnte.
DrFreaK666
2023-02-09, 05:04:25
Nein. Dann hättest du überhaupt keine Schattierungen und die ganzen Objekte würden "schweben".
SS AO Methoden schattieren die Umrisse uniform. Nur haben wir uns daran gewöhnt. RT AO macht es deutlich realistischer.
z.B. ist ohne RT das Innere vom Topf viel zu dunkel, als ob die Sonne nicht "rein" könnte.
Im Topf hast du sicherlich recht, aber "normales" AO sollte am Gras und in den Felsspalten auch sichtbar sein.
Welche anderen AO-Methoden gibt es denn?
Das Spiel benötigt noch den einen oder anderen Patch
zofJ5yFvajA
dildo4u
2023-02-09, 05:37:25
In dem Video läuft die 6700XT sauber(1440p mit FSR sind lows über 60fps) kann also sein das der NV Treiber wieder zusätzlichen Overhead hat.
Fraglich ob das mit Game Patches gefixt werden kann.
Ich würde gerne die Konsolen dort sehen ob sie 60fps halten.
aufkrawall
2023-02-09, 05:49:17
In dem Video läuft die 6700XT sauber(1440p mit FSR sind lows über 60fps) kann also sein das der NV Treiber wieder zusätzlichen Overhead hat.
Oder dildo stellt auf dünner Faktenlage mal wieder wilde Vermutungen auf.
Edit: Bei den Russen läufts auf Radeons im CPU-Limit leicht schneller, wobei ggf. nicht das Dorf getestet wurde: https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-gpu-cpu
dildo4u
2023-02-09, 05:59:30
Das ist das verhalten was man auch bei anderen UE4 Games beobachten kann deswegen schafft es AMD bei Calisto Protokoll mit RT On mitzuhalten.
https://youtu.be/WoO46EDxW2s?t=786
Er scheint eine wirklich CPU Limitierte Stelle in Hogwarts gefunden zu haben.
Und NV Lösung ist Framegeneration warum sollten sie das fixen wenn sie ein damit neue Features verkaufen können.
CoolhandX
2023-02-09, 06:02:57
So für alle, die wie ich Probleme mit den FPS haben und starke Einbrüche in und nach Zwischensequenzen mit RT.
Folgendes hat bei mir geholfen. Erst mal DLSS auf die neueste Version upgedated.
Aber was am meisten gebracht hat, sprich keine FPS Einbrüche mehr und fast immer jetzt konstante 55-65 FPS mit allem auf Ultra, mit RT auf Ultra und in 4K:
Unter Windows den Suchbegriff exploit-schutz eingeben und dort für die Hogwards Exe eine Ausnahme hinzufügen:
exploit-Schutz --> Programmeinstellungen --> Programm zum Anpassen hinzufügen --> Genauen Datenpfad auswählen --> Exe auswählen --> runterscrollen zu CFG, Haken setzen und ausschalten --> Rechner neu starten.
Das hat sowas von geholfen, denn damit scheint das Spiel extreme Probleme zu haben.
crux2005
2023-02-09, 06:16:01
Im Topf hast du sicherlich recht, aber "normales" AO sollte am Gras und in den Felsspalten auch sichtbar sein.
Es ist doch am Gras und den Felsen sichtbar. Macht sie unnatürlich dunkel.
Welche anderen AO-Methoden gibt es denn?
SSAO, HBAO, HDAO, VXAO etc.
https://en.wikipedia.org/wiki/Ambient_occlusion
In dem Video läuft die 6700XT sauber(1440p mit FSR sind lows über 60fps) kann also sein das der NV Treiber wieder zusätzlichen Overhead hat.
Fraglich ob das mit Game Patches gefixt werden kann.
Ich würde gerne die Konsolen dort sehen ob sie 60fps halten.
Sauber würde ich nicht sagen. Sind auch nicht direkt 1:1 Vergleiche möglich. Bei der 4090 ohne RT würde ich sagen gab es mehr NPCs in der Area. Aber die 6700 XT lief besser. Ist eigentlich nichts neues.
Edit: Habe die min. ohne RT vergleichen, die 6700 XT lief ~20% besser.
dildo4u
2023-02-09, 06:25:13
Für ein 7700X ist die Performance ohne RT sehr schlecht man müsste mal RX7900 gegentesten kann sein das sie 70-80fps lows schafft.
Lows sind um 50fps mit der 4090 ohne RT.
https://youtu.be/zofJ5yFvajA?t=364
crux2005
2023-02-09, 06:35:10
Lows sind um 50fps mit der 4090 ohne RT.
https://youtu.be/zofJ5yFvajA?t=364
Ja, die 6700 XT läuft ~20% schneller. Wobei grob gezählt weniger NPCs an der Stelle waren als mit der 4090 ohne RT. Keine Ahnung wie viel Unterschied das ausmacht.
dargo
2023-02-09, 07:02:56
Alleine das RT AO macht in der Stelle IMHO schon einen großen Unterschied.
:lol:
Das einzige was man in der Szene von Wiseman sehen kann sind leichte Unterschiede in den Schattierungen vom Gras. Und witzigerweise gibts mit RT-AO davon auch weniger. Reinster Witz wieder die Kosten für so einen Schmarn.
PS: Die Ausleuchtung in diesem Krug oder was das sein sollte ist mit RT-AO besser, das lasse ich gelten.
Das ist das verhalten was man auch bei anderen UE4 Games beobachten kann deswegen schafft es AMD bei Calisto Protokoll mit RT On mitzuhalten.
https://youtu.be/WoO46EDxW2s?t=786
Er scheint eine wirklich CPU Limitierte Stelle in Hogwarts gefunden zu haben.
Und NV Lösung ist Framegeneration warum sollten sie das fixen wenn sie ein damit neue Features verkaufen können.
Du meinst also alles älter Ada wurde bereits fallen gelassen? :ulol: :freak:
dildo4u
2023-02-09, 07:07:52
Selbst eine 4080 krepiert komplett mit RT das Game scheint auch mit 16GB Vram ordentlich auszulagern obwohl nur 13GB belegt sind.
https://youtu.be/I0wSlrJDWnc?t=1145
Iceman346
2023-02-09, 07:23:46
Nur zur Info: Beim Verschieben der vielen Technikposts in diesen Thread gibts Fehler von der Forensoftware. Müsste das in kleinen Paketen machen und da hatte ich noch keinen Nerv zu :ugly:
Und dann noch was technisches zum Spiel: Ich habs auf dem Steam Deck ausprobiert. Läuft, auf niedrigen Details mit FSR2 Quality, eigentlich sogar ganz gut. Bin etwas durch Hogsmeade gelaufen und hatte ähnliche Einbrüche wie an meinem Desktop-PC aber ansonsten relativ stabile 40fps. Und es sieht dabei auf dem Deck sogar ziemlich gut aus nach meinem Empfinden.
Bleibt zu hoffen, dass hier noch ein paar Patches für die Technik kommen. Ja ich hab einen VRAM Krüppel aber ohne RT sollte das Spiel meiner Ansicht nach nicht solche Probleme haben.
dargo
2023-02-09, 08:06:48
Selbst eine 4080 krepiert komplett mit RT das Game scheint auch mit 16GB Vram ordentlich auszulagern obwohl nur 13GB belegt sind.
https://youtu.be/I0wSlrJDWnc?t=1145
Schöne Diashow. ;D
DrFreaK666
2023-02-09, 08:23:13
SSAO, HBAO, HDAO, VXAO etc...
Danke ^^
Meinte natürlich ingame
The_Invisible
2023-02-09, 08:47:13
Selbst eine 4080 krepiert komplett mit RT das Game scheint auch mit 16GB Vram ordentlich auszulagern obwohl nur 13GB belegt sind.
https://youtu.be/I0wSlrJDWnc?t=1145
Belegt ja laut einigen Videos auf der 4090er bis zu 18GB VRAM. Zudem oft selbst mit meiner ollen 3080Ti in 4k CPU limitiert, scheint mal wieder was für FrameGeneration zu sein.
Naja wenns so weitergeht braucht man wirklich bald eine 4090Ti/Titan mit 48GB :freak:
dargo
2023-02-09, 09:05:42
Naja wenns so weitergeht braucht man wirklich bald eine 4090Ti/Titan mit 48GB :freak:
Wer soll das kaufen für diese Art von Banannensoftware außer vielleicht paar Nerds in einer 3DC-Blase? ;D
Ich habe Hogwarts Legacy ganz kurz angespielt, um an die gleiche Stelle wie du zu kommen. Richtig loslegen werde ich erst ab kommenden Freitag. Du weißt schon, wegen HL-Treiber und eventuellem Day-One-Patch. Allererster Eindruck: ich glaube, dieses Spiel wird mir gefallen.
Ich hänge 2 Screenshots an. Beide sind in 4k, Ultra und FSR2 Quality. Einmal mit RT Reflections, RT Shadows und RT AO in Ultra. Einmal mit RT Off. Der optische Unterschied ist schon krass, eh? (Bevor jetzt hier einige ausflippen. Logisch. An dieser Stelle stehen keine Spiegel herum.)
Der Leistungsunterschied ist auch krass. RT Ultra frisst meiner XTX 63% weg (121 fps vs 46 fps). Schon klar, wie ich es auf meiner schofeligen AMD-Karte spielen werde.
Jack, alter Benchgefährte, hättest du Lust auf einen Worstcase-Test? Dann könnten wir die brutale PCGH-Szene (https://extreme.pcgameshardware.de/threads/pcgh-community-benchmark-hogwarts-legacy.630536/) auch hier im 3DC benchen. Ich lasse dann gerne auch mal ohne RT laufen. =) Eine CPU-Sequenz folgt später.
MfG
Raff
DrFreaK666
2023-02-09, 09:15:17
https://abload.de/img/fb_img_1675930437907sxfre.jpg (https://abload.de/image.php?img=fb_img_1675930437907sxfre.jpg)
:D
dargo
2023-02-09, 09:50:23
https://abload.de/img/fb_img_1675930437907sxfre.jpg (https://abload.de/image.php?img=fb_img_1675930437907sxfre.jpg)
:D
Wie passend. ;D
Jack, alter Benchgefährte, hättest du Lust auf einen Worstcase-Test? Dann könnten wir die brutale PCGH-Szene (https://extreme.pcgameshardware.de/threads/pcgh-community-benchmark-hogwarts-legacy.630536/) auch hier im 3DC benchen. Ich lasse dann gerne auch mal ohne RT laufen. =) Eine CPU-Sequenz folgt später.
Mir wäre lieber wenn ihr mal Kritik an den DEVs ausüben würdet warum das Game so schlecht performt anstatt sich wieder an einem unoptimierten worstcase aufzuhängen. :cool: Die entsprechenden Kontakte habt ihr nehme ich mal an. Seid ihr eigentlich noch pro Gamer oder nur noch pro IHV @Hardwarebrechstange? Ernst gemeinte Frage.
Matrix316
2023-02-09, 11:39:42
Ist das Problem vielleicht bei AMD CPUs?
https://twitter.com/HardwareUnboxed/status/1623619232901767168
There's currently a performance related bug in Hogwarts Legacy which heavily limits performance for AMD's Zen 4 processors in a number of the more CPU heavy sections. Basically the game doesn't use the CPU, none of the cores are maxed out and only 4 cores see moderate usage.
Weiter
This issue likely affects all Ryzen CPUs. In 'Hogsmeade' the 7700X with the RTX 4090 using Ultra + RT is limited to 81 fps on average at 1080p. With the 13900K you're looking at more like 160 fps.
Deisi
2023-02-09, 11:45:04
Kann gut sein, hab mit dem 5800x3d auch das Problem, dass die GPU nicht richtig ausgelastet wird obwohl laut rtss kein CPU Limit vorliegt. Wäre ich nicht zu faul für den Platformwechsel wäre ich schon lang weg von der CPU.
MiamiNice
2023-02-09, 11:49:59
Ich kann mich nicht beschweren. Game läuft stabil und flüssig. Hab alles volle Kanne an incl. RT. DLSS Quality.
Kann gut sein, hab mit dem 5800x3d auch das Problem, dass die GPU nicht richtig ausgelastet wird obwohl laut rtss kein CPU Limit vorliegt. Wäre ich nicht zu faul für den Platformwechsel wäre ich schon lang weg von der CPU.
Gab es solche Probleme schon häufiger?
Troyan
2023-02-09, 11:54:10
Ist das Problem vielleicht bei AMD CPUs?
https://twitter.com/HardwareUnboxed/status/1623619232901767168
Weiter
Jetzt wissen AMD CPU User mal, wie man sich als nVidia GPU Kunde so fühlt, wenn Spieleentwickler sich ein Dreck drum kümmern ihr Low Level Zeug vernünftig zu optimieren. ;D
redpanther
2023-02-09, 11:55:49
Spielt es jemand auf einem GTX1070 8Gb Krüppel? Wie läuft es da so?
Kann man die Textur Details nicht Runter Regeln? Wenn ja, was sind die Auswirkungen? Sieht es viel schlechter aus? Hilft es aber bei der Performance?
Deisi
2023-02-09, 12:00:04
Gab es solche Probleme schon häufiger?
Zuletzt Plague Tale RT und Miles Morales.
dildo4u
2023-02-09, 12:02:07
RTAO ist deutlich besser mit dem Config Fix
https://imgsli.com/MTUzNTEz/1/2
https://www.reddit.com/r/HarryPotterGame/comments/10wen36/pc_raytracing_quality_fix_major_performance_impact/?ref_source=embed&ref=share
Ist das Problem vielleicht bei AMD CPUs?
https://twitter.com/HardwareUnboxed/status/1623619232901767168
Weiter
Es Rennt vermutlich nur auf wenigen Threads hier 65 Watt mit einem 13900k die low sind bei 50fps und die GPU bleibt unter 400 Watt.
https://youtu.be/9bc0r6M30ec?t=691
Spielt es jemand auf einem GTX1070 8Gb Krüppel? Wie läuft es da so?
Kann man die Textur Details nicht Runter Regeln? Wenn ja, was sind die Auswirkungen? Sieht es viel schlechter aus? Hilft es aber bei der Performance?
3050 ohne DLSS ist vergleichbar.
1080p Medium rund 50fps.
https://www.youtube.com/live/WFaSW4pBD4c?feature=share&t=7515
lilgefo~
2023-02-09, 12:17:16
Ist das Problem vielleicht bei AMD CPUs?
https://twitter.com/HardwareUnboxed/status/1623619232901767168
Weiter
lol, dargo has left the building
Wiseman
2023-02-09, 12:53:48
Wieso gleich dieser Beißreflex? Ich habe Sachlich geantwortet. Aber wenn du meinst. :rolleyes:
Sorry, wenn das so rüberkam. War kein Beißreflex von mir. Ok, im zweiten Teil war ein bisschen Ironie enthalten, aber der erste Teil war ernst gemeint. Ich sehe an dieser Stelle wirklich keinen Unterschied zwischen RT AO On und RT AO Off.
z.B. ist ohne RT das Innere vom Topf viel zu dunkel, als ob die Sonne nicht "rein" könnte.
Liegt nicht an der Sonne. Liegt am Körperschatten unseres jungen Wizards, der in den Krug hineinfällt und ihn dadurch dunkel macht. Ich hänge einen weiteren Screenhot mit RT Off an, auf dem unser Wizard ein Stück neben dem Krug steht. Guckst du? Jetzt fällt sein Körperschatten nicht in den Krug, sondern neben den Krug und schon ist das Krug-Innere hell.
Dann muss aber auf meinem anderen Screenshot (mit RT Ultra On) RTAO ein Zauberkunststück gelungen sein, denn wieso ist dort das Krug-Innere hell, obwohl der Körperschatten des Wizards das Krug-Innere eigentlich verdunkelt?
MiamiNice
2023-02-09, 12:56:16
RTAO ist deutlich besser mit dem Config Fix
https://imgsli.com/MTUzNTEz/1/2
https://www.reddit.com/r/HarryPotterGame/comments/10wen36/pc_raytracing_quality_fix_major_performance_impact/?ref_source=embed&ref=share
Es Rennt vermutlich nur auf wenigen Threads hier 65 Watt mit einem 13900k die low sind bei 50fps und die GPU bleibt unter 400 Watt.
https://youtu.be/9bc0r6M30ec?t=691
3050 ohne DLSS ist vergleichbar.
1080p Medium rund 50fps.
https://www.youtube.com/live/WFaSW4pBD4c?feature=share&t=7515
TY
lol, dargo has left the building
Nach der Logik müsste Dargo ziemlich jedem Thread fernbleiben ;)
Mir wäre lieber wenn ihr mal Kritik an den DEVs ausüben würdet warum das Game so schlecht performt anstatt sich wieder an einem unoptimierten worstcase aufzuhängen. :cool: Die entsprechenden Kontakte habt ihr nehme ich mal an. Seid ihr eigentlich noch pro Gamer oder nur noch pro IHV @Hardwarebrechstange? Ernst gemeinte Frage.
Witzig, dass du gerade jetzt fragst, denn somit kann ich passgenau antworten: Liebe GPU-Hersteller, bitte baut doch diese Grafikkarten! (und keine anderen) [Kommentar] (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Perfekte-GPU-Leistung-Preis-Leistungs-Verhaeltnis-Nvidia-Geforce-AMD-Radeon-Intel-Arc-1412234/)
Davon abgesehen gibt es immer wieder Content, der eben nicht nur Fortschritt feiert bzw. hohe Anforderungen attestiert, sondern auch Tuning und Kritik beinhaltet. Paar Sachen, die mir gerade in den Kopf kamen:
https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-Videospeicher-Hogwarts-Legacy-1413131/
https://www.pcgameshardware.de/Screenshot-Vergleich-Thema-208242/Specials/Ultra-Vergleich-Screenshots-Grafik-1348955/
https://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Muede-Rechner-munter-machen-Warum-immer-Ultra-Details-1378519/
Insofern wünsche ich mir wieder dasselbe wie früher: Bitte nicht selektiv lesen, sondern das ganze Inhaltsspektrum. :)
MfG
Raff
RoNsOn Xs
2023-02-09, 13:54:26
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
Meine Vermutung: fehlende Zeit oder Expertise um das vernünftig umzusetzen ... oder beides. Bei RT legst du in der UE4 bloß einen Schalter um und es ist da. Ist ein Paradbeispiel dafür, dass Optimierung heute keine Rolle mehr spielt. Es wird alles mit blanker Hardwareleistung und DLSS/FSR erschlagen.
00-Schneider
2023-02-09, 13:59:56
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
Hatte man da nicht einfach die komplette Szene im Spiegel seitenverkehrt dupliziert?
Das war im Fall von U4 allerdings nur die kleine Bude bzw. das Badezimmer. Das dürfte nicht so rechenintensiv gewesen sein, und war nett getrickst. ;)
dildo4u
2023-02-09, 14:03:25
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
Das ist auch nicht billig weil du dort die Umgebung zwei Mal Rendern musst, ich vermute Mal Uncharted hat die Spiegel nur in kleinen Räumen.
In Open World Spielen wird das selten genutzt und man setzt auf Ungenaue Cubemaps oder SSR.(Siehe Spiderman ohne RT)
Ex3cut3r
2023-02-09, 14:33:11
Gab es solche Probleme schon häufiger?
Spider-Man Miles Morales und CP77. Mehr ist mir bisher nicht bekannt.
Für CP77 kannst du dir einfach einen Hex Wert modifizieren, dann nutzt das Game auch die Ryzen SMT Threads, die bei Intel ganz normal genutzt werden. Für Miles Morales gab es aber leider nie einen Community-Fix dafür.
dargo
2023-02-09, 14:33:59
Witzig, dass du gerade jetzt fragst, denn somit kann ich passgenau antworten: Liebe GPU-Hersteller, bitte baut doch diese Grafikkarten! (und keine anderen) [Kommentar] (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Perfekte-GPU-Leistung-Preis-Leistungs-Verhaeltnis-Nvidia-Geforce-AMD-Radeon-Intel-Arc-1412234/)
Ich hatte von den DEVs gesprochen, nicht den IHVs. :) Also ein Appell an die DEVs mit der bitte mehr Hirnschmalz in die Optimierung zu stecken und im besten Fall keine unfertigen Spiele releasen.
IchoTolot
2023-02-09, 14:34:04
Btw auch ganz interessant:
AMD Radeon RX7900XTX can be up to 40fps faster than the NVIDIA RTX4090 in Hogwarts Legacy (https://www.dsogaming.com/news/amd-radeon-rx7900xtx-can-be-up-to-40fps-faster-than-the-nvidia-rtx4090-in-hogwarts-legacy/)
Ex3cut3r
2023-02-09, 14:37:38
Btw auch ganz interessant:
AMD Radeon RX7900XTX can be up to 40fps faster than the NVIDIA RTX4090 in Hogwarts Legacy (https://www.dsogaming.com/news/amd-radeon-rx7900xtx-can-be-up-to-40fps-faster-than-the-nvidia-rtx4090-in-hogwarts-legacy/)
Ist CPU Limit, aber im CPU Limit ist Nvidia @ DX12 schon immer langsamer gewesen als AMDs DX12, in Hogwarts scheint der Unterschied aber diesmal immens höher auszufallen als sonst, warum weiß ich aber auch nicht.
dildo4u
2023-02-09, 14:42:34
Ja scheinbar auch ein Problem wenn man ein alten Intel hat nicht nur mit Zen.
aufkrawall
2023-02-09, 14:48:23
Mal gucken, ob der 11400F Ryzens blöd aussehen lassen wird. Oder, ob es nur ein peinliches Kellerduell wird. :D
Ex3cut3r
2023-02-09, 14:48:41
Ja scheinbar auch ein Problem wenn man ein alten Intel hat nicht nur mit Zen.
Es ist im CPU Limit immer ein Problem, egal welche CPU, mit einer AMD Karte wärst du auch mit einem 13900k, schneller unterwegs, in Hogwarts halt besonders schneller. X-D
redpanther
2023-02-09, 14:51:15
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
https://youtu.be/kozDAT_f1ZU
Da wird auf Englisch ganz gut erklärt wo die Probleme bei non RT rendering liegen.
aufkrawall
2023-02-09, 14:55:28
Oder siehe auch das Wasser des Sees, an den Bildschirmrändern gibts ständig übelste SSR Fuck ups. Da gibts mittlerweile YT-Videos, wie Leute das in ihren Basteleien mit der UE5 + Lumen auf Knopfdruck zigfach besser hinbekommen. Aber dauert noch etwas, bis das in die Breite der AAA-Titel durchschlägt...
Dr.Doom
2023-02-09, 15:02:17
Ich hatte von den DEVs gesprochen, nicht den IHVs. :) Also ein Appell an die DEVs mit der bitte mehr Hirnschmalz in die Optimierung zu stecken und im besten Fall keine unfertigen Spiele releasen.Naja, Werbung/Klicks für PCGH sind doch immer gerne gesehen.
dildo4u
2023-02-09, 15:07:36
62ca3Q0C1ms
dargo
2023-02-09, 16:19:41
Warum fängt man eigtl. bei den meisten neueren Games erst mit Raytracing das Spiegelbild an zu sehen und dann - um bei Hogwarts zu bleiben - auch noch so schlecht?
Mein letzter Vergleich ist Uncharted, wo man ein glasklares Spiegelbild an manchen Stellen im Spiel heraus bekommt - ganz ohne Rays und auch keinerlei Performance-Einbußen.
Ich habe sogar gerade das passende Bild dazu parat. :D
https://abload.de/thumb/u4_2023_02_09_16_12_14xi7x.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_12_14xi7x.jpg)
Oder hier die Fensterreflektion.
https://abload.de/thumb/u4_2023_02_09_16_14_1t8dai.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_14_1t8dai.jpg)
Da bin ich schon im Vsync-Limit meines Monitors @1440p. Ohne Vsync ist es das hier.
https://abload.de/thumb/u4_2023_02_09_16_15_0p2cf2.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_15_0p2cf2.jpg)
DSD512
2023-02-09, 16:23:27
4K+RT+4090=37fps (https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html)
Tech-Schrott.
Da werden einige 4090 User ein richtig dicken Hals bekommen. LOL.
Troyan
2023-02-09, 16:26:35
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-2560-1440.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Aber, aber, 12GB. Lmao.
Davon abgesehen, ist in 4K die 4090 nur 40% schneller als die 3090TI. Kompletter technischer Müll, schade.
dildo4u
2023-02-09, 16:32:06
24 GB scheinen wenig zu bringen hätte erwartet das die 3080 komplett abstürzt vs 3090.
Es fehlt immer noch der angepasste AMD-Treiber und voraussichtlich kommt auch noch ein Patch zum Release morgen Abend. Komplett vergeudete Liebesmüh, das jetzt in vollem Umfang zu testen, aber gut ...
MfG
Raff
dargo
2023-02-09, 16:37:47
4K+RT+4090=37fps (https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html)
Tech-Schrott.
Da werden einige 4090 User ein richtig dicken Hals bekommen. LOL.
Wieso? Die beamen sich einfach ins Ende 2024 und holen sich ne RTX 5090 dafür. ;D ;D ;D
https://youtu.be/62ca3Q0C1ms
@Raff
Schenkt dem Kollegen endlich mal einen Rasierer. :freak:
Brainscan
2023-02-09, 16:38:47
https://youtu.be/62ca3Q0C1ms
Der erste Satz schon von Raff
"UNMENGEN an Kohle" :) Geil.
Deluxe Edition kostet 70 Tacken incl. einige InGame Goodies, also ich find den Preis für das Game angebracht :) Und ja ich habs per KeySeller gekauft, weil wieso nicht Sparen wenn es geht. Aber UNMENGEN wär so nen Typisches UbiSoft Game 120 Tacken für ne Deluxe Edition incl. SP, oder Forspoken für 80 ( Normale Edition ), das wär Unmengen wobei Unmengen ist relativ
RoNsOn Xs
2023-02-09, 17:03:21
Ich habe sogar gerade das passende Bild dazu parat. :D
https://abload.de/thumb/u4_2023_02_09_16_12_14xi7x.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_12_14xi7x.jpg)
Oder hier die Fensterreflektion.
https://abload.de/thumb/u4_2023_02_09_16_14_1t8dai.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_14_1t8dai.jpg)
Da bin ich schon im Vsync-Limit meines Monitors @1440p. Ohne Vsync ist es das hier.
https://abload.de/thumb/u4_2023_02_09_16_15_0p2cf2.jpg (https://abload.de/image.php?img=u4_2023_02_09_16_15_0p2cf2.jpg)
Ja oder hier durch das Video, das der andere User gepostet hatte an dieser Stelle:
https://youtu.be/kozDAT_f1ZU?t=218 (Erinnerungen an Donkey Kong werden wach :freak:)
Lurtz
2023-02-09, 17:08:25
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-2560-1440.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Aber, aber, 12GB. Lmao.
Davon abgesehen, ist in 4K die 4090 nur 40% schneller als die 3090TI. Kompletter technischer Müll, schade.
Die Min-FPS der Radeons mit RT sind wieder nicht von dieser Welt :ugly:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/min-fps-rt-2560-1440.png
dargo
2023-02-09, 17:30:30
Ja oder hier durch das Video, das der andere User gepostet hatte an dieser Stelle:
https://youtu.be/kozDAT_f1ZU?t=218 (Erinnerungen an Donkey Kong werden wach :freak:)
Ajo... da kann ich auch mit dienen weil ich gerade da bin. ;)
https://abload.de/thumb/u4_2023_02_09_17_28_47bcy5.jpg (https://abload.de/image.php?img=u4_2023_02_09_17_28_47bcy5.jpg)
aufkrawall
2023-02-09, 17:49:47
Willst du vielleicht noch Screenshots aus dem Menü von Unreal 1 mit der spiegelnden Brücke posten? Dass diese Portale in andere Welten komplett das Licht der Lampen absorbieren, ist natürlich gar nicht befremdlich...
dargo
2023-02-09, 18:18:09
Willst du nicht lieber dein nextgen Fortnite spielen?
VooDoo7mx
2023-02-09, 18:19:01
Hat denn mal jemand getestet ob man das Spiel vielleicht auch mit DX11 gestartet bekommt?
Viele UE4 Spiele laufen dann deutlich besser....
Ex3cut3r
2023-02-09, 18:31:55
Die Min-FPS der Radeons mit RT sind wieder nicht von dieser Welt :ugly:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/min-fps-rt-2560-1440.png
Oha. :freak:
Das Spiel scheint total im Eimer IMHO, ich wurde dafür nicht mal einen rostigen Nagel für zahlen. Selbst wenn ich HardCore Harry Botter Fan wäre.
Wiseman
2023-02-09, 19:15:48
Die Min-FPS der Radeons mit RT sind wieder nicht von dieser Welt :ugly:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/min-fps-rt-2560-1440.png
Und du glaubst ernsthaft, wir Radeon-Besitzer benutzen dieses verkackte RT? ;D Da wären wir ja schön blöd.
Wir spielen Hogwarts Legacy selbstverständlich ohne RT und sind somit unseres Lebens froh, weil wir Min-fps in Hülle und Fülle haben. So geht fluffiges Spielen.
Im Anhang ein Screenshot, der u. a. die Min-fps am Ende einer 2-minütigen Küstenwanderung aus der Task "Follow Professor Fig" zeigt. Findet ganz am Anfang des Spiels statt. Weiter spiele ich nicht, weil ja morgen erst mit großer Wahrscheinlichkeit AMDs Treiber für Hogwarts Legacy rauskommt und weil morgen vielleicht auch noch ein Day-one-Patch rauskommt.
Die Settings stehen in der Legende.
Linmoum
2023-02-09, 19:23:54
Die Min-FPS der Radeons mit RT sind wieder nicht von dieser Welt :ugly:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/min-fps-rt-2560-1440.pngFehlen ja noch angeblicher D1-Patch und Treiber. Wird zwar sicher nichts zaubern, aber gut.
RT und AMD wird noch Jahre keine gute Beziehung, man hängt der Konkurrenz einfach Galaxien hinterher in allen Belangen (inb4 "technischer Müll ist Schuld!!"). Weiß man aber vor dem Kauf, dass man da Kompromiss um Kompromiss trotz hoher dreistelliger bzw. vierstelligen Summen schlucken muss. Ist immerhin das gute daran, man kauft keine Katze im Sack sondern weiß vorher, dass es suckt. Kann jeder einfach selbst entscheiden, was ihm sein Geld wert ist.
Achill
2023-02-09, 19:37:24
Ich habe Hogwarts Legacy ganz kurz angespielt, um an die gleiche Stelle wie du zu kommen. Richtig loslegen werde ich erst ab kommenden Freitag. Du weißt schon, wegen HL-Treiber und eventuellem Day-One-Patch. Allererster Eindruck: ich glaube, dieses Spiel wird mir gefallen.
Ich hänge 2 Screenshots an. Beide sind in 4k, Ultra und FSR2 Quality. Einmal mit RT Reflections, RT Shadows und RT AO in Ultra. Einmal mit RT Off. Der optische Unterschied ist schon krass, eh? (Bevor jetzt hier einige ausflippen. Logisch. An dieser Stelle stehen keine Spiegel herum.)
Der Leistungsunterschied ist auch krass. RT Ultra frisst meiner XTX 63% weg (121 fps vs 46 fps). Schon klar, wie ich es auf meiner schofeligen AMD-Karte spielen werde.
Die RT-Performance in Hogwarts war dann nochmal deutlich schlechter als am Anfang. Es gibt aber auch massig RT-Fehler die mich dann doch stören, z.B. Holz mit Reflections, keine Augen im Spiegelbild + kein Spiegelbild im Spiegelbild => RT hat für Refections nur 1 Bounce, am Feuer wird der Mandel von NPCs durch diese hindurch innen beleuchtet, ...
Ich spiele es mit klassischer Raster-Grafik. Damit stimmt die Performance, 1A Frametimes und man kann sich voll auf die Details in der Welt konzentrieren.
Hier die gleiche Stelle, 4k@Ultra, FSR2@Q ohne RT mit 6900XT@UV
https://i.imgur.com/0maQi2a.jpg
Mit minimal angepassten Settings:
[SystemSettings]
r.DepthOfFieldQuality=0
r.MotionBlur.Max=0
r.MotionBlurQuality=0
r.DefaultFeature.MotionBlur=0
r.SceneColorFringe.Max=0
r.SceneColorFringeQuality=0
r.Tonemapper.GrainQuantization=0
r.Tonemapper.Quality=0
r.ForceLOD=0
Fehlen ja noch angeblicher D1-Patch und Treiber. Wird zwar sicher nichts zaubern, aber gut.
RT und AMD wird noch Jahre keine gute Beziehung, man hängt der Konkurrenz einfach Galaxien hinterher in allen Belangen (inb4 "technischer Müll ist Schuld!!"). Weiß man aber vor dem Kauf, dass man da Kompromiss um Kompromiss trotz hoher dreistelliger bzw. vierstelligen Summen schlucken muss. Ist immerhin das gute daran, man kauft keine Katze im Sack sondern weiß vorher, dass es suckt. Kann jeder einfach selbst entscheiden, was ihm sein Geld wert ist.
In einem Spiel, wo AMD-Grafikkarten ziemlich offensichtliche Grafikfehler (https://www.pcgameshardware.de/Hogwarts-Legacy-Spiel-73015/Specials/Systemanforderungen-geprueft-1412793/galerie/3711491/) zeigen (wenn auch nicht in jedem Gebiet), würde ich schon arge Probleme vermuten und daher die Füße mit breiten Vergleichen stillhalten. Sicher, die Daten stimmen heute - aber die Haltbarkeit ist sehr eingeschränkt.
MfG
Raff
dargo
2023-02-09, 19:39:29
Fehlen ja noch angeblicher D1-Patch und Treiber. Wird zwar sicher nichts zaubern, aber gut.
RT und AMD wird noch Jahre keine gute Beziehung, man hängt der Konkurrenz einfach Galaxien hinterher in allen Belangen (inb4 "technischer Müll ist Schuld!!"). Weiß man aber vor dem Kauf, dass man da Kompromiss um Kompromiss trotz hoher dreistelliger bzw. vierstelligen Summen schlucken muss. Ist immerhin das gute daran, man kauft keine Katze im Sack sondern weiß vorher, dass es suckt. Kann jeder einfach selbst entscheiden, was ihm sein Geld wert ist.
Selbst die 4090 suckt in diesem Game völlig, aber danke für deine Bemitleidung. ;D
Die RTX 4090 ist nicht nur mit großem Abstand die schnellste Grafikkarte für die Schweinewarzen, sondern auch für jedes andere Spiel - und sie hat einen Frame-Multiplikator im Gepäck. Dieses Gerät zu flamen ergibt keinen Sinn, denn wenn die "suckt", ist alles andere Schrott. ;)
MfG
Raff
Ex3cut3r
2023-02-09, 19:46:39
Dargo halt. AMD immer Super obwohl genauso teuer. Nur halt schlechter. :ulol:
IchoTolot
2023-02-09, 19:49:55
und sie hat einen Frame-Multiplikator im Gepäck.
Was ist eigentlich deine Einschätzung bezüglich FSR3? Wir nehmen ja alle an, dass es auch Framegeneration sein wird und wissen eigentlich in keiner Weise ob die 6000er Gen das auch wird nutzen können.
Die neuen Radeons haben ja "KI-Einheiten", aber ich vermute ja, dass die nur für die AI Verbesserungen beim Encoding da sind und nicht zwingend für FG. Ich hoffe somit, dass AMD FG auch auf den 6000ern ermöglicht. Das wäre dann Killer. ^^
Dazu hat AMD nicht viel mehr gesagt als dass es bald verfügbar sein wird - unmöglich, da seriöse Aussagen zu treffen. Aber wenn dich meine laienhafte Einschätzung interessiert: Es wird wohl so laufen wie bei DLSS 2 gegen FSR 2. Letzteres erzielt beachtliche Ergebnisse, unterliegt jedoch am Ende dem "KI"-getriebenen Verfahren. Nvidia wird Gründe dafür haben, eine dedizierte Hardware-Einheit mit den Motion-Berechnungen zu beauftragen. Man kann alles über zweckentfremdete ALUs machen, aber eben nicht so schnell. Und Latenz ist hier der Knackpunkt. Insofern ist FSR 3 natürlich super spannend und die Chance, dass das etwas taugt, ist hoch. Allerdings arbeiten bei Nvidia ganz gewiss keine Amateure, sodass deren Vorlage nicht mal eben geschlagen werden kann. Falls doch, ist Hüteziehen angesagt. Aber wie gesagt: unwahrscheinlich. Abwarten und Butterbier trinken. ;)
Da fällt mir gerade wieder ein: Nvidia-DLAA ist in Hogwarts Legacy schneller als das UE4-TAA, zumindest bei meiner kleinen Stichprobe auf gammliger Ampere-Hardware (https://extreme.pcgameshardware.de/threads/pcgh-community-benchmark-hogwarts-legacy.630536/#post-11226926). ;) Das gab es - so weit ich weiß - noch nie. Interessantes Futter für die Diskussion rund um Fixed-Function-vs-General-Purpose-Hardware.
MfG
Raff
IchoTolot
2023-02-09, 20:07:42
Ich bin auch gespannt weil es halt schon nen kleiner Gamechanger wäre, wenn ich auf meiner 6000er FG nutzen könnte. Sowas is ja bei nvidia undenkbar sowas auch nur in Betracht zu ziehen. ^^
DrFreaK666
2023-02-09, 20:19:45
FSR3 muss DLSS3 nicht schlagen, es muss nur eine gut genuge Alternative sein und am besten nicht nur RDNA3 unterstützen, damit es für Devs Sinn macht es zu unterstützen
crux2005
2023-02-09, 20:21:40
Er scheint eine wirklich CPU Limitierte Stelle in Hogwarts gefunden zu haben.
Und NV Lösung ist Framegeneration warum sollten sie das fixen wenn sie ein damit neue Features verkaufen können.
Die höhere Last im CPU Limit ist wohl so tief im Treiber drin das sie es nicht so einfach "fixen" können.
:lol:
Das einzige was man in der Szene von Wiseman sehen kann sind leichte Unterschiede in den Schattierungen vom Gras. Und witzigerweise gibts mit RT-AO davon auch weniger. Reinster Witz wieder die Kosten für so einen Schmarn.
PS: Die Ausleuchtung in diesem Krug oder was das sein sollte ist mit RT-AO besser, das lasse ich gelten.
Du meinst also alles älter Ada wurde bereits fallen gelassen? :ulol: :freak:
Wieso ist es mit RT wohl heller? Denke mal 2x nach. Genau, weil es Tag ist und die Sonne von links drauf scheint.
Aber das deine Meinungen nicht relevant sind zeigt auch diese Aussage:
2023-02-08, 10:50:54
Und ich bin immer noch der Meinung, dass heute in keinem Spiel 32GB nötig sind.
DrFreaK666
2023-02-09, 20:24:49
...Aber das deine Meinungen nicht relevant sind zeigt auch diese Aussage:
https://www.hogwartslegacy.com/en-us/pc-specs
32GB sind kein Muss
dildo4u
2023-02-09, 20:33:41
Die Angaben sind ohne RT.
crux2005
2023-02-09, 20:34:36
https://www.hogwartslegacy.com/en-us/pc-specs
32GB sind kein Muss
Ja, richtig. 4K Ultra Details mit RT auch nicht. Diese "Debatte" könnten wir lange führen. Will aber nicht so sein.
crux2005
2023-02-09, 21:18:26
Liegt nicht an der Sonne. Liegt am Körperschatten unseres jungen Wizards, der in den Krug hineinfällt und ihn dadurch dunkel macht. Ich hänge einen weiteren Screenhot mit RT Off an, auf dem unser Wizard ein Stück neben dem Krug steht. Guckst du? Jetzt fällt sein Körperschatten nicht in den Krug, sondern neben den Krug und schon ist das Krug-Innere hell.
Dann muss aber auf meinem anderen Screenshot (mit RT Ultra On) RTAO ein Zauberkunststück gelungen sein, denn wieso ist dort das Krug-Innere hell, obwohl der Körperschatten des Wizards das Krug-Innere eigentlich verdunkelt?
Bezogen auf die ersten zwei Bilder: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13232792&postcount=46 ist das Bild ohne RT AO unrealistisch wenn von "links" die Sonne scheint. Der Zauberer ist ein Stück links und im Krug rechts von ihm ist es dunkel wie bei Nacht. Auch die anderen Schattierungen mit SSAO finde ich zu dunkel dafür das es Tag ist. In solchen Grenzfällen ist RT AO eben realistischer. Die Ansicht das es für so einen subtilen Unterschied zu viel Leistung braucht kann ich dagegen verstehen.
Das es mit anderer Kameraperspektive oder NPC/Charakter Position Möglich ist eine Rahmenbedingung zu finden in der das Krug Innere "beleuchtet" wird, bezweifle ich nicht. Nur sind das eben andere Rahmenbedingungen.
dargo
2023-02-09, 21:31:37
Aber das deine Meinungen nicht relevant sind zeigt auch diese Aussage:
2023-02-08, 10:50:54
Dann zeig mal her du Experte welches Game mit 16GB nicht läuft oder irgendwelche Probleme bereitet. :rolleyes:
IchoTolot
2023-02-09, 21:35:14
Das ist also das Argument für Raytracing? :freak: Ein Krug ist ein klein wenig realistischer ausgeleuchtet? :ulol4:
:uup:
Genau diese kleinen Unterschiede sind es, die RT für den Performanceverlust völlig uninteressant für mich machen. :crazy2::D
Raytracing muss erst im Mainstream in allen Auflösungen kaum noch was kosten auf keiner Karte, damit es interessant wird. Es muss so selbstverständlich werden wie es heute z.B. Schatten sind.
dargo
2023-02-09, 21:38:02
Das ist also das Argument für Raytracing? :freak: Ein Krug ist ein klein wenig realistischer ausgeleuchtet? :ulol4:
Ja sicher... 3DC on the best. :uup: Und wenn du das nicht siehst wird noch ein 400% Zoom rausgekrammt. ;D
Raytracing muss erst im Mainstream in allen Auflösungen kaum noch was kosten auf keiner Karte, damit es interessant wird. Es muss so selbstverständlich werden wie es heute z.B. Schatten sind.
Richtig, nur das kapiert die selbsternannte PC-Elite hier nicht. Kannste nix machen.
crux2005
2023-02-09, 21:39:30
Dann zeig mal her du Experte welches Game mit 16GB nicht läuft oder irgendwelche Probleme bereitet. :rolleyes:
Klar, wenn nötig würdest du auch die Definition des Wortes "nötig" ändern. ;D
Wenn 16GB zu wenig sind gibt es immer noch Pagefile damit das Spiel startet. Du Experte.
Versuche Hogwarts mit 16GB ohne Pagefile zu spielen. Und wenn 32GB so unnötig sind, wozu hast du dir selber 32GB gekauft? Die Frage hast du also selber beantwortet als du es selber für nötig fandest aufzustocken.
Linmoum
2023-02-09, 21:41:00
Raytracing muss erst im Mainstream in allen Auflösungen kaum noch was kosten auf keiner Karte, damit es interessant wird. Es muss so selbstverständlich werden wie es heute z.B. Schatten sind.Was ist "Mainstream" für dich?
RT ist in der Spielelandschaft mittlerweile schon selbstverständlich. Was auch völlig logisch ist, selbst eine 3060 (ergo eine 3xx€ GPU) kann in ihrer normalen Zielauflösung inkl. DLSS2 gute spielbare Frames erzielen und dabei die Optik deutlich aufwerten.
dargo
2023-02-09, 21:41:10
Junge... ich spreche nicht von der Bannanensoftware die gerade erst morgen offiziell erscheint und mit hoher Wahrscheinlichkeit erst 5 Patches braucht bis es brauchbar läuft. Also troll dich.
Und wenn 32GB so unnötig sind, wozu hast du dir selber 32GB gekauft?
Weil ich ein sehr gutes Angebot für Samsung B-Die gefunden hatte und die AM4 Plattform noch viele Jahre behalten werde. Irgendwann werden logischerweise 16GB limitieren. Das ist der ganz normale Lauf der Dinge. Nur diesen Schmarn wollte mir schon so mancher Experte hier (:lol:) vor paar Jahren schwurbeln.
Wenn 16GB zu wenig sind gibt es immer noch Pagefile damit das Spiel startet.
Jetzt kommt der mir mit Pagefile. :facepalm:
RT ist in der Spielelandschaft mittlerweile schon selbstverständlich.
Da ist überhaupt nichts selbstverständlich. Nichts weiter als nachträglich angeflanschtes Zeug. Selbstverständlich wird es erst wenn es nativ von Anfang an bei der Spielentwicklung mitbedacht wurde.
crux2005
2023-02-09, 21:42:26
Das ist also das Argument für Raytracing? :freak: Ein Krug ist ein klein wenig realistischer ausgeleuchtet? :ulol4:
:uup:
Wenn schon lesen und verstehen zu schwer für manche ist...
Brainscan
2023-02-10, 00:59:30
Wär es sinnvoll diese Option zu nutzen ?
https://abload.de/thumb/screenshot2023-02-100b7i51.jpg (https://abload.de/image.php?img=screenshot2023-02-100b7i51.jpg)
Gerade auf Regedit gelesen das Nvidia Standard 4GB sein sollte, vlt ist des was wenn man es auch 10 oder 100gb einstellt :) Weiß ja ned ob sich das Game dann mehr Shadert als normal
Ex3cut3r
2023-02-10, 02:32:13
Wär es sinnvoll diese Option zu nutzen ?
https://abload.de/thumb/screenshot2023-02-100b7i51.jpg (https://abload.de/image.php?img=screenshot2023-02-100b7i51.jpg)
Gerade auf Regedit gelesen das Nvidia Standard 4GB sein sollte, vlt ist des was wenn man es auch 10 oder 100gb einstellt :) Weiß ja ned ob sich das Game dann mehr Shadert als normal
Nein, das hast du falsch verstanden. Dieser Wert legt nur fest, wie viel Shader an Gigabytes der Treiber speichern darf auf deiner Festplatte/SSD.
Bei z.B. 100 installierten Spielen, wären das einige Gigabyte an Shader Daten, wird der Standardwert von 4GB überschritten, löscht der Treiber auch wieder alte Shader "Leichen"
Bei unbegrenzt werden Shader Daten nie automatisch gelöscht.
Ansonsten ist die Shader Größe des jeweiligen Games von Entwickler festgelegt, da kannst du als User nicht einfach die Größe verändern. Was auch kein Sinn machen wurde, entweder hast du alle benötigen Shader vorkompiliert oder eben nicht, wo nicht mehr ist, ist auch nicht mehr. ^^
Brainscan
2023-02-10, 03:05:13
schade. Dachte das wär es gewesen :)
aufkrawall
2023-02-10, 03:33:15
Würd ich jedenfalls generell auf unlimitiert stellen. Zumindest neigte der Treiber mal dazu, den Cache übereifrig zu leeren. Wie Ex3cut3r sagte, hat das jetzt nichts speziell mit Hogwarts zu tun, aber generell will man halt jeden Shader Compile-Vorgang (ob während einer Ladezeit oder als Stocker während des Spielens) nur einmal pro Treiberinstallation, und nicht mehrmals/ständig. Bei Hogwarts klappt da aber offenbar irgendwas nicht, weshalb es ohne Mod ständig unnötig neu kompiliert.
jay.gee
2023-02-10, 03:39:02
Richtig, nur das kapiert die selbsternannte PC-Elite hier nicht. Kannste nix machen.
Ich kapiere das schon, denn ich habe ja schon vor über zwei Jahren behauptet, dass RT auch für dich interessanter wird, wenn es in deiner Gamer-Kaste ankommt.
SentinelBorg
2023-02-10, 04:01:09
Das Game zeigt wieder das es wirklich Zeit für UE5 wird. Dieses angeflanschte RT in UE4 ist halt einfach bescheiden.
Brainscan
2023-02-10, 04:22:53
Würd ich jedenfalls generell auf unlimitiert stellen. Zumindest neigte der Treiber mal dazu, den Cache übereifrig zu leeren. Wie Ex3cut3r sagte, hat das jetzt nichts speziell mit Hogwarts zu tun, aber generell will man halt jeden Shader Compile-Vorgang (ob während einer Ladezeit oder als Stocker während des Spielens) nur einmal pro Treiberinstallation, und nicht mehrmals/ständig. Bei Hogwarts klappt da aber offenbar irgendwas nicht, weshalb es ohne Mod ständig unnötig neu kompiliert.
Ich muss auch ehrlich gestehen, daß ich die Option noch nie gesehen habe. Hab das Ding jetzt auf 100GB gestellt. Schadet nicht 😀
aufkrawall
2023-02-10, 04:28:34
In der Realität wird es ~5GB kaum erreichen und durch Treiber-Installationen wird es weiterhin geleert. Falls du befürchtest, es würde dir mit unlimitiert sofort das SSD mutwillig kaputtschreiben (manch einer verfällt da ja immer noch in Panik...). :biggrin:
Brainscan
2023-02-10, 04:35:49
In der Realität wird es ~5GB kaum erreichen und durch Treiber-Installationen wird es weiterhin geleert. Falls du befürchtest, es würde dir mit unlimitiert sofort das SSD mutwillig kaputtschreiben (manch einer verfällt da ja immer noch in Panik...). :biggrin:
Meine 980pro die ich habe, haben immer noch den Status Gut 91%. Da ist noch VIEL LUFT
SentinelBorg
2023-02-10, 05:38:00
Meine 980pro die ich habe, haben immer noch den Status Gut 91%. Da ist noch VIEL LUFT
Das ist aber dennoch schon niedrig, bei mir sieht das so aus:
840 EVO 1TB: 92%, 53TB Writes, 41k PoH
850 EVO 2TB: 99%, 24TB Writes, 29k PoH
970 EVO Plus 2TB: 100%, 6TB Writes, 2k PoH
990 Pro 2TB: 100%, 3TB Writes, 109 PoH
RoNsOn Xs
2023-02-10, 07:11:46
Ne alte SSD aus der Zweitkiste hat 95% - die ist uralt und dachte das sei schon an der Kotzgrenze zum Sterben.
dargo
2023-02-10, 07:45:07
Ich kapiere das schon, denn ich habe ja schon vor über zwei Jahren behauptet, dass RT auch für dich interessanter wird, wenn es in deiner Gamer-Kaste ankommt.
Dann liegst du immer noch falsch, tut mir leid. Zumindest nicht bei den lächerlichen Spielereien von heute mit den dennoch enormen Kosten.
Dann liegst du immer noch falsch, tut mir leid. Zumindest nicht bei den lächerlichen Spielereien von heute mit den dennoch enormen Kosten.
Auch nicht schlimmer, als diverse Ultra-Settings, die für 20-30% Performance-Verlust dann ein paar Grasbüschel in der Distanz mehr darstellen, die man nur sieht, wenn man auf Screenshots drauf achtet. Oder natives 4K ohne modernes Upscaling. Das sind Marotten, für die die Leute hier gerne massiv Leistung verballern, aber RT? Nein, das geht nun wirklich nicht!
RT hat zumindest in einigen Bereichen einen deutlichen visuellen Impact. 244 FPS brauch ich bei den Games, die ich spiele, auch nicht, also gebe ich gerne die Leistung für RT aus.
Linmoum
2023-02-10, 09:30:24
dargo hat halt keine Leistung für RT frei, die er sich aufheben kann. Da er niemals Nvidia kaufen wird, wird das wahrscheinlich auch noch eine ganze Weile so weitergehen, bis das wirklich bei ihm ankommt.
Aber wenn er das mit seinem Geldbeutel vereinbaren kann, ist das selbstverständlich ihm überlassen. Wenn er dann aber mal 2026 eine 9xxx in der Kiste hat, wird er über RT ganz anders sprechen und es nutzen. ;)
Cubitus
2023-02-10, 09:35:21
Ein schöner Test von TechPowerUp und Vergleichs Bilder mit RT
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/4.html
Es ist so wie es ist, RT bringt noch mehr Atmosphäre ins Spiel.
Ist halt teuer, und Nvidia hat eben früh genug die Weichen dafür gestellt.
AMD muss nachziehen, eine 7900 XTX ist stellenweise langsamer als eine RTX2080 TI, wie kann das sein?
dargo hat halt keine Leistung für RT frei, die er sich aufheben kann. Da er niemals Nvidia kaufen wird, wird das wahrscheinlich auch noch eine ganze Weile so weitergehen, bis das wirklich bei ihm ankommt.
Aber wenn er das mit seinem Geldbeutel vereinbaren kann, ist das selbstverständlich ihm überlassen. Wenn er dann aber mal 2026 eine 9xxx in der Kiste hat, wird er über RT ganz anders sprechen und es nutzen. ;)
Habe mittlerweile auch den Eindruck, dass beim dem teilweise extremen Gehate gegen RT ein wenig der Neid der Besitzlosen mit reinspielt.
Cubitus
2023-02-10, 09:46:29
Habe mittlerweile auch den Eindruck, dass beim dem teilweise extremen Gehate gegen RT ein wenig der Neid der Besitzlosen mit reinspielt.
Verstehe das nicht, damals wurde viel häufiger zwischen den GPU-Herstellern gewechselt.
Jedes Jahr kamen neue GPUs die wesentlich schneller waren.
Es war auch klar das immer eine HighEnd GPU für eine HighEnd Auflösung gekauft wurde.
Heute wird rumgejammert wenn eine Mittelklassekarte kein Ultra (mit RT) in 4K darstellen kann.
Damals konnte Nvidia kein ordentliches DX9 (NV38), HDR und AA zusammen hatten nicht funktioniert.
Die ATI-Karte konnte das ziemlich gut, Oblivion mit Chuck-Patch oder Far-Cry mit Patch hatten den ATI-Karten einen guten Vorteil beschert.
Der R481 konnte das und das Beste war, man konnte seine Pro günstig auf eine XT-PE flashen :)
Ich erinnre mich zudem an die grandiose AF-Filterung der Radeons, die berühmte Wand bei HL2.. wo die 6800er und die 7800er abkackten.
Nvidia konnte die Filterung erst mit dem legendären G80 verbessern und ATI damit übertreffen.
Damals war ATI noch wirklich ambitioniert und brachte großartige Konkurrenzprodukte auf den Markt.
Gefühlsmäßig geht es seit der Übernahme von AMD den Bach runter :(
dargo
2023-02-10, 10:06:14
Auch nicht schlimmer, als diverse Ultra-Settings, die für 20-30% Performance-Verlust dann ein paar Grasbüschel in der Distanz mehr darstellen, die man nur sieht, wenn man auf Screenshots drauf achtet.
Wo ist jetzt da der Widerspruch? Ich stimme dir da sogar zu. :tongue:
dargo hat halt keine Leistung für RT frei, die er sich aufheben kann. Da er niemals Nvidia kaufen wird, wird das wahrscheinlich auch noch eine ganze Weile so weitergehen, bis das wirklich bei ihm ankommt.
Aber wenn er das mit seinem Geldbeutel vereinbaren kann, ist das selbstverständlich ihm überlassen. Wenn er dann aber mal 2026 eine 9xxx in der Kiste hat, wird er über RT ganz anders sprechen und es nutzen. ;)
Ich liebe immer wieder deine Unterstellungen. ;D Schon mal daran gedacht, dass 2026 (nur um dein Beispiel jetzt aufzugreifen) die gesamte Gamingbranche im Bereich RT weiter ist weil alles bis runter zum Mainstream schneller wird? Mit Logik und so haben es manche hier offenbar nicht.
Habe mittlerweile auch den Eindruck, dass beim dem teilweise extremen Gehate gegen RT ein wenig der Neid der Besitzlosen mit reinspielt.
Dann hast du sehr merkwürdige Gefühle. :D RT ist nichts weiter als ein Feature welches ich im Laufe der kommenden Jahre nebenher mitnehme wenn ich der Meinung bin es lohnt sich.
Blase
2023-02-10, 10:07:41
Ein schöner Test von TechPowerUp und Vergleichs Bilder mit RT
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/4.html
Als 4090 Besitzer knalle ich natürlich auch immer alle RT Regler rein wo geht... aber selbst ich musste schon schmunzeln, als ich im letzten Vergleichsbild die Einstellungen Ultra und Ultra + RT verglichen habe. 113 FPS zu 48 FPS ist ein ziemlich krasser Drop - und zumindest im Screenshot ist ein optischer Vorteil von RT kaum auszumachen...
MfG Blase
lilgefo~
2023-02-10, 10:24:39
Meine 980pro die ich habe, haben immer noch den Status Gut 91%. Da ist noch VIEL LUFT
Weiß nicht wie lange du die schon hast aber meine ist ein Jahr alt und steht nach wie vor auf 100%. Möglicherweise bist du von dem Bug betroffen oder ka was du mit der SSD machst. Aber 91% ist sicher nicht gut.
P.S.: Mein alte 960er lag bei Ausmusterung auf 98% nach ein paar Jahren Usage.
DrFreaK666
2023-02-10, 10:40:20
Ich kapiere das schon, denn ich habe ja schon vor über zwei Jahren behauptet, dass RT auch für dich interessanter wird, wenn es in deiner Gamer-Kaste ankommt.
Wieso sollte man sich freiwillig einer niedrigeren Kaste zugehörig fühlen?
Wieso sollte man sich freiwillig einer niedrigeren Kaste zugehörig fühlen?
Ursächlich sind immer rebellische Ambitionen. Bei einigen Leuten hier im Forum (nicht dargo!) vermute ich aber eher viele Aktien oder ein anderes Anstellverhältnis bei den betreffenen Firmen, denn das würde so manches Posting erklären.
MfG
Raff
Ganon
2023-02-10, 10:51:29
Habe mittlerweile auch den Eindruck, dass beim dem teilweise extremen Gehate gegen RT ein wenig der Neid der Besitzlosen mit reinspielt.
Ich hab eher das Gefühl, die Leute wollen mit Raytracing einfach nur ihre lächerlich hohen Investitionen in Grafikkarten rechtfertigen.
dildo4u
2023-02-10, 10:51:30
Der Beleuchtung fehlt ohne RT was schätze mal UE4 hat kein gutes GI wenn der Entwickler es nicht selber bastelt.
Und laut CB killt nur Ultra die Radeon, die haben natürlich auch Einstellungen die auch auf AMD ok laufen das sie es für die Konsolen brauchen.
RT on vs Off Innenraum.
Man achte was mit der Licht vom linken Fenster passiert.
https://abload.de/img/34-raytracing-einfgd0r.png
https://abload.de/img/35-raytracing-ausaxchf.png
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/2/
DrFreaK666
2023-02-10, 11:01:33
Ursächlich sind immer rebellische Ambitionen. Bei einigen Leuten hier im Forum (nicht dargo!) vermute ich aber eher viele Aktien oder ein anderes Anstellverhältnis bei den betreffenen Firmen, denn das würde so manches Posting erklären.
MfG
Raff
Das sollte eher eine Kritik wegen dem Wort "Kaste" sein
MiamiNice
2023-02-10, 11:22:03
Ein schöner Test von TechPowerUp und Vergleichs Bilder mit RT
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/4.html
Ich finde die Werte der 3090Ti bissel low. Meine 3090 macht ungefähr das, was deren 3090Ti leistet. Aber kommt wahrscheinlich auf die Szene an.
00-Schneider
2023-02-10, 11:23:56
Ich hab eher das Gefühl, die Leute wollen mit Raytracing einfach nur ihre lächerlich hohen Investitionen in Grafikkarten rechtfertigen.
"lächerlich hoch" ist Ansichtssache. Wenn sie es sich leisten können und wollen? :confused:
Nach der Begründung müsste man z.b. auch jeden Sportwagenbesitzer auslachen. Die deutsche Neidgesellschaft findet sich auch in Nerd-Foren wie ich sehe.
IchoTolot
2023-02-10, 11:24:20
Naja, die RT Werte der 7000er AMD Karten sind ja klar merkwürdig. Die XTX is eigentlich in raytracing auf dem Level der 3090 Ti oder 4070 Ti. Da muss also noch nen Treiber kommen. Das is eigentlich vollkommen klar.
Ganon
2023-02-10, 11:32:10
"lächerlich hoch" ist Ansichtssache. Wenn sie es sich leisten können und wollen? :confused:
Nach der Begründung müsste man z.b. auch jeden Sportwagenbesitzer auslachen. Die deutsche Neidgesellschaft findet sich auch in Nerd-Foren wie ich sehe.
Teure Karre oder teure Grafikkarte, alles das Gleiche wenn es nach mir geht. Und keine Angst, hat nichts mit Neid zu tun, ich könnte mir jeden Monat eine 4090 kaufen, wenn ich wollte. Tue ich aber nicht, weil ich die Preise einfach lächerlich finde. Gerade für das was man dafür bekommt.
Cubitus
2023-02-10, 11:33:32
Ich finde die Werte der 3090Ti bissel low. Meine 3090 macht ungefähr das, was deren 3090Ti leistet. Aber kommt wahrscheinlich auf die Szene an.
Vermutlich, innen Areale sind wohl schonender.
dildo4u
2023-02-10, 11:35:23
Tonnen Werte mit und ohne RT. Hier sind die RT Werte sogar sehr positiv für RDNA2, da Nvidia bei Ampere teilweise zu wenig Vram verbaut hat.(3070/3080)
Achtung man bekommt komplett andere Werte je nach dem wo man bencht!, da vermutlich das Streaming nur an bestimmten Stellen am Limit läuft und den NV Karten das Genick bricht.
https://abload.de/img/hogwartsb0ibr.png
qxpqJIO_9gQ
DrFreaK666
2023-02-10, 11:54:32
Steve, der Irre ^^
Linmoum
2023-02-10, 12:06:31
Naja, die RT Werte der 7000er AMD Karten sind ja klar merkwürdig. Die XTX is eigentlich in raytracing auf dem Level der 3090 Ti oder 4070 Ti. Da muss also noch nen Treiber kommen. Das is eigentlich vollkommen klar.Nö, sind sie nicht. Die negativen Ausreißer - von denen es leider zu viele gibt - katapultieren auch RDNA3 ein großes Stück hinter Ampere. Ist ja auch logisch, da es auch genug Titel gab und gibt, wo Ampere >2x schneller als RDNA2 ist und RDNA3 das bekanntermaßen nicht aufholen konnte.
RT ist halt nicht gleich RT.
Brainscan
2023-02-10, 12:18:49
Bin ja echt mal gespannt ob es heute AMD & Nvidia Treiber & Day1 Patch gibt. Ich glaube Nö
MiamiNice
2023-02-10, 12:20:27
Wieso, läuft doch prima :wink:
IchoTolot
2023-02-10, 12:21:43
Nö, sind sie nicht. Die negativen Ausreißer - von denen es leider zu viele gibt - katapultieren auch RDNA3 ein großes Stück hinter Ampere.
Das ergibt überhaupt keinen Sinn und widerspricht zum Beispiel den Benchmarks von Hardware Unboxed.
Und PCGH hat auch noch keinen offiziellen Benchmark gemacht, aber wenn dann glaube ich denen ohnehin eher. Also mal abwarten.
Lurtz
2023-02-10, 12:25:07
Ich sehe den großen Skandal jetzt immer noch nicht, bis 1440p Ultra ohne Upsampling läuft es ja selbst in Hogsmeade problemlos auf den meisten Karten. Dass man für RT je nach Spiel Highend-Karten mit viel VRAM braucht, ist jetzt nichts Neues. Aber ja, die tolle "preiswerteste Geforce ever" 3080 10 GB wird jetzt ganz schnell obsolet... Wird natürlich kaum jemand so benennen wollen, sonst müsste man ja zugeben, dass die VRAM-Bestückung eben nur zu Release ausreichend war und es jetzt zwei Jahre später absolut nicht mehr ist.
dildo4u
2023-02-10, 12:25:18
Das ergibt überhaupt keinen Sinn und widerspricht zum Beispiel den Benchmarks von Hardware Unboxed.
Und PCGH hat auch noch keinen offiziellen Benchmark gemacht, aber wenn dann glaube ich denen ohnehin eher. Also mal abwarten.
Das was Hardwareunboxed gemessen hat kann man in Videos beobachten die NV Karten verschlucken sich wenn sie in Vram Bedrängnis kommen.
https://youtu.be/I0wSlrJDWnc?t=1155
The_Invisible
2023-02-10, 12:26:39
Teure Karre oder teure Grafikkarte, alles das Gleiche wenn es nach mir geht. Und keine Angst, hat nichts mit Neid zu tun, ich könnte mir jeden Monat eine 4090 kaufen, wenn ich wollte. Tue ich aber nicht, weil ich die Preise einfach lächerlich finde. Gerade für das was man dafür bekommt.
Hobbys sind meist unvernünftig, ein Kollege ein Autofreak und der andere ein PA-Musiksystem zuhause, die lachen über den Preis einer 4090er. Zudem kommt eh nur mehr alle 2 Jahre eine neue Gen raus, das war mal viel schlimmer wo man fast alle paar Monate die Karte wechseln konnte.
Aber verstehe nicht warum man alles rechtfertigen muss, wenn man Freude und Spaß daran hat ist ja nichts verkehrt daran. Vor allem sind wir hier ja in der absoluten Nerd-Zone, da muss man sich über solche Highend-Dinger ja freuen :D
Brainscan
2023-02-10, 12:29:48
Hobbys sind meist unvernünftig, ein Kollege ein Autofreak und der andere ein PA-Musiksystem zuhause, die lachen über den Preis einer 4090er. Zudem kommt eh nur mehr alle 2 Jahre eine neue Gen raus, das war mal viel schlimmer wo man fast alle paar Monate die Karte wechseln konnte.
Aber verstehe nicht warum man alles rechtfertigen muss, wenn man Freude und Spaß daran hat ist ja nichts verkehrt daran. Vor allem sind wir hier ja in der absoluten Nerd-Zone, da muss man sich über solche Highend-Dinger ja freuen :D
Ich sag nur Briefmarkensammlung :) ( also ich habe keine )
Die Briefmarke Rote Mauritius ist rund 8 Millionen Euro wert. Sie gilt als die berühmteste Briefmarke der Welt. 15.09.2022, 16:44 4 Min. Die rote und die blaue Mauritius gelten als die teuersten Briefmarken der Welt
aufkrawall
2023-02-10, 12:30:56
Das was Hardwareunboxed gemessen hat kann man in Videos beobachten die NV Karten verschlucken sich wenn sie in Vram Bedrängnis kommen.
https://youtu.be/I0wSlrJDWnc?t=1155
Es wird aber auch gemunkelt, die vom Spiel geshipten DLSS-DLLs hätten irgendein Ressourcen-Leck. Keine Ahnung, ob da was dran ist.
Brainscan
2023-02-10, 12:32:15
Es wird aber auch gemunkelt, die vom Spiel geshipten DLSS-DLLs hätten irgendein Ressourcen-Leck. Keine Ahnung, ob da was dran ist.
Hab die gegen 2.5.1 getauscht :) Also daran liegts ned
Lurtz
2023-02-10, 12:33:07
Da ist sicher wieder extrem viel FUD unterwegs. VRAM voll, man ändert was, startet das Spiel neu, VRAM leer, oh Wunder, es läuft auf einmal viel besser...
dargo
2023-02-10, 12:35:18
Ich sehe den großen Skandal jetzt immer noch nicht, bis 1440p Ultra ohne Upsampling läuft es ja selbst in Hogsmeade problemlos auf den meisten Karten. Dass man für RT je nach Spiel Highend-Karten mit viel VRAM braucht, ist jetzt nichts Neues. Aber ja, die tolle "preiswerteste Geforce ever" 3080 10 GB wird jetzt ganz schnell obsolet... Wird natürlich kaum jemand so benennen wollen, sonst müsste man ja zugeben, dass die VRAM-Bestückung eben nur zu Release ausreichend war und es jetzt zwei Jahre später absolut nicht mehr ist.
Das ist jetzt aber etwas seltsam. Denn Lederjacke... Verzeihung, Nvidia hat ganz klar als die RTX 3070 und 3080 rauskamen behauptet 8GB und 10GB reichen aus. Aber wahrscheinlich denkt Nvidia auch nur bis zur nächsten Gen. ;)
Brainscan
2023-02-10, 12:35:22
Es ist halt nen UE4 Game, und da Läuft RTX mal ned so Pralle :) Mein System kommt mit dem Game Klar. Aber ja das hat auch was gekostet. Und ja es ist Traurig zu sehen das einfach alles Über FG und DLSS erkauft wird. Zum Release der 4090er dachte ich Alter Falter, die Karte wird in 2 Jahren noch ned ausgereitzt. PusteKuchen Callisto hat mir schon die Wahrheit gezeigt. Forspoken danach und nun Hogwarts.
dargo
2023-02-10, 12:40:26
Das was Hardwareunboxed gemessen hat kann man in Videos beobachten die NV Karten verschlucken sich wenn sie in Vram Bedrängnis kommen.
https://youtu.be/I0wSlrJDWnc?t=1155
Da gebe ich noch nicht viel drauf. Wer weiß schon auf welchen Stand dieses Spiel aktuell ist? Kann man denn definitiv ein Speicherleck ausschließen? Wäre nicht das erste Game damit. Oder mit späteren Patches kommt eventuell noch der Feinschliff der den Vrambedarf reduziert. Ich wüsste jetzt nicht wo da die ganzen 16GB hingehen. So überwältigend ist die Grafik jetzt auch nicht.
Ganon
2023-02-10, 12:41:42
Aber verstehe nicht warum man alles rechtfertigen muss, wenn man Freude und Spaß daran hat ist ja nichts verkehrt daran. Vor allem sind wir hier ja in der absoluten Nerd-Zone, da muss man sich über solche Highend-Dinger ja freuen :D
Du, es geht mir ja auch nicht darum, dass man meint so eine Karte zu kaufen, weil es eben das absolute Hobby ist. Ich finde es nur allgemein bescheuert hier mit "Neid" zu argumentieren, wenn man keine ~2000€ Grafikkarte hat, damit irgendwelche mittelmäßigen Raytracing-Effekte vernünftig laufen. Oder, dass man 1000€ Grafikkarten in "Midrange" einordnet.
Alle Benchmarks, die jetzt erschienen sind, entstanden mit einer Review- oder der Early-Access-Version. Letztere ist zwar öffentlich, aber sicher nicht fertig. Und der AMD-Treiber fehlt immer noch. Warum gehen also alle so steil? Wartet bis Montag. :)
MfG
Raff
Brainscan
2023-02-10, 12:48:04
Alle Benchmarks, die jetzt erschienen sind, entstanden mit einer Review- oder der Early-Access-Version. Letztere ist zwar öffentlich, aber sicher nicht fertig. Und der AMD-Treiber fehlt immer noch. Warum gehen also alle so steil? Wartet bis Montag. :)
MfG
Raff
Ja wie bis Montag :) du willst doch nicht am Release Tag vom "Spiel des Jahrhunderts" ins Wochenende gehen ?
Troyan
2023-02-10, 12:49:53
Ich sehe den großen Skandal jetzt immer noch nicht, bis 1440p Ultra ohne Upsampling läuft es ja selbst in Hogsmeade problemlos auf den meisten Karten. Dass man für RT je nach Spiel Highend-Karten mit viel VRAM braucht, ist jetzt nichts Neues. Aber ja, die tolle "preiswerteste Geforce ever" 3080 10 GB wird jetzt ganz schnell obsolet... Wird natürlich kaum jemand so benennen wollen, sonst müsste man ja zugeben, dass die VRAM-Bestückung eben nur zu Release ausreichend war und es jetzt zwei Jahre später absolut nicht mehr ist.
Genau. Viel Spaß mit 20 FPS auf einer AMD Karte. :cool:
Matrix316
2023-02-10, 12:51:01
Ist das Problem vielleicht bei AMD CPUs?
https://twitter.com/HardwareUnboxed/status/1623619232901767168
Weiter
Hier noch was:
https://twitter.com/HardwareUnboxed/status/1623901507824517121
OMG! I solved the issue, it's not a Ryzen bug but rather a menu bug. Although DLSS and all forms of upscaling were disabled & greyed out in the menu, frame generation was on for just the 40 series. I had to enable DLSS, then enabled FG, then disable FG and disable DLSS to fix it! twitter.com/HardwareUnboxe…
Aber was ich komisch finde: Warum wird das Spiel bei Steam erst heute Abend freigeschaltet? Wenn was am 10.2. erscheint, dann hat das IMO heute 0 Uhr schon freigeschaltet zu sein. Z.B. was ist wenn ich jetzt eine PS Version im Laden kaufe - müsste ich da auch erst bis heute Abend warten? Wenn eine CD oder eine Blu Ray zu einem bestimmten Datum erscheint, dann ist die ja den Tag schon erhältlich und nicht erst Abends ab 18 Uhr! Vor allem sorgen solche komischen Freischaltdaten dafür, dass dann ALLE um 18 Uhr versuchen es freizuschalten und dann wieder irgendwelche Server abstürzen.
Ja wie bis Montag :) du willst doch nicht am Release Tag vom "Spiel des Jahrhunderts" ins Wochenende gehen ?
Selbstverständlich nicht. ;) Ich Honk werde auch dieses Wochenende gewiss ohne Entlohnung viel arbeiten, um die Mitte 2022 gestartete Tradition fortzuführen. Reichweite kriegt man schließlich nicht an Werktagen, deren lächerliche (offizielle) Arbeitsstunden nicht ansatzweise zu den Aufgaben passen. :ugly:
MfG
Raff
Brainscan
2023-02-10, 12:53:51
Selbstverständlich nicht. ;) Ich Honk werde auch dieses Wochenende gewiss ohne Entlohnung viel arbeiten, um die Mitte 2022 gestartete Tradition fortzuführen. Reichweite kriegt man schließlich nicht an Werktagen, deren lächerliche (offizielle) Arbeitsstunden nicht ansatzweise zu den Aufgaben passen. :ugly:
MfG
Raff
So Lob ich mir das :)
Selbstverständlich nicht. ;) Ich Honk werde auch dieses Wochenende gewiss ohne Entlohnung viel arbeiten, um die Mitte 2022 gestartete Tradition fortzuführen. Reichweite kriegt man schließlich nicht an Werktagen, deren lächerliche (offizielle) Arbeitsstunden nicht ansatzweise zu den Aufgaben passen. :ugly:
MfG
Raff
:comfort:
DrFreaK666
2023-02-10, 13:12:15
Genau. Viel Spaß mit 20 FPS auf einer AMD Karte. :cool:
20FPS? Du meinst dann sicherlich die 6800XT in 4k. Wie schnell ist da nochmal die teurere 3080? Und die 3080 Ti hat cineastische 24FPS. Na dann...
Deisi
2023-02-10, 13:13:57
Hier noch was:
https://twitter.com/HardwareUnboxed/status/1623901507824517121
Den Anzeigebug von FG im Menü hat aufkrawall schon letztens angesprochen. Am Auslastungsproblem ändert das aber eigentlich nichts.
Aber was ich komisch finde: Warum wird das Spiel bei Steam erst heute Abend freigeschaltet? Wenn was am 10.2. erscheint, dann hat das IMO heute 0 Uhr schon freigeschaltet zu sein. Z.B. was ist wenn ich jetzt eine PS Version im Laden kaufe - müsste ich da auch erst bis heute Abend warten? Wenn eine CD oder eine Blu Ray zu einem bestimmten Datum erscheint, dann ist die ja den Tag schon erhältlich und nicht erst Abends ab 18 Uhr! Vor allem sorgen solche komischen Freischaltdaten dafür, dass dann ALLE um 18 Uhr versuchen es freizuschalten und dann wieder irgendwelche Server abstürzen.
Naja die Freischaltung am Abend ist für Steam relativ normal.
dargo
2023-02-10, 13:15:19
20FPS? Du meinst dann sicherlich die 6800XT in 4k. Wie schnell ist da nochmal die teurere 3080? Und die 3080 Ti hat cineastische 24FPS. Na dann...
Ich mag deinen Humor. ;D (y)
dildo4u
2023-02-10, 13:19:50
Bin echt gespannt ob es steam Heute überlebt das Game war bei 470k Spieler alleine für die komplett überteure Edition heute kommt erst der Rest dazu.
https://store.steampowered.com/charts/mostplayed
Brainscan
2023-02-10, 13:22:30
Bin echt gespannt ob es steam Heute überlebt das Game war bei 470k Spieler alleine für die komplett überteure Edition heute kommt erst der Rest dazu.
https://store.steampowered.com/charts/mostplayed
Was seht ihr an 69.99 immer ÜBERTEUERT an ? :confused:
dildo4u
2023-02-10, 13:26:04
Ich hatte Angebote für 40€ wollte aber erstmal gucken wie es läuft.
Deisi
2023-02-10, 13:28:13
Was seht ihr an 69.99 immer ÜBERTEUERT an ? :confused:
Sagt der Keykäufer :freak:
MiamiNice
2023-02-10, 13:29:24
Was seht ihr an 69.99 immer ÜBERTEUERT an ? :confused:
Für 69,99€ hätte ich mir das auch nicht geholt. Habe für die Deluxe knapp 50€ bezahlt, also den Betrag den ein Spiel halt kostet.
Brainscan
2023-02-10, 13:34:50
Sagt der Keykäufer :freak:
Ja hatte ich auch vor paar seiten bereits erklärt und gesagt. Aber 69.99 Für ne Deluxe mit Goodies incl 3 Tage eher Spielen find ich jetzt nicht Teuer. Und ja hab auch 55 bei nem Keyseller gelassen. Mann Spart wo mann kann, aber ich betitel das Game für 69.99 nicht als ÜBERTEUERT an. Vorallem das man gut 100Std in den Game verbringen kann. Da sind 60€ für nen 7 Std Game schon ne andere Hausnummer.
Troyan
2023-02-10, 13:38:25
20FPS? Du meinst dann sicherlich die 6800XT in 4k. Wie schnell ist da nochmal die teurere 3080? Und die 3080 Ti hat cineastische 24FPS. Na dann...
Also ich sehe 20 FPS für die 6800XT:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-1920-1080.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Was siehst du?
MiamiNice
2023-02-10, 13:42:34
Vor allem sieht man jetzt, was für kack Karten AMD baut. Von 6900Xt auf 7900XT nur 4 Fps mehr. Die bei AMD sollten alle ihre Jobs kündigen und Verkäufer werden...!!!1111einselftausendeinhundertelf:facepalm:
[dzp]Viper
2023-02-10, 13:49:30
Vor allem sieht man jetzt, was für kack Karten AMD baut. Von 6900Xt auf 7900XT nur 4 Fps mehr. Die bei AMD sollten alle ihre Jobs kündigen und Verkäufer werden...!!!1111einselftausendeinhundertelf:facepalm:
Nein eher stimmt da irgendwas nicht. Die Performance auf dem AMD Karten ist so massiv schlecht, dass schreit gerade zu nach einem Problem vom Spiel selber.
Ich würde dir ja zustimmen, wenn das in vielen Spielen so krass der Fall wäre aber Hogwarts Legacy ist eine Ausnahme.. eine extreme Ausnahme.
Die 7900XT langsamer als eine 3060... das geht definitiv nicht mit rechten Dingen zu....
/edit:
Ohne RT spielen die AMD Karten ganz gewohnt gut mit.
Die RT Umsetzung im Spiel ist also komisch.. selbst für die vergleichsweise schlechte RT Performance der AMD Karten ist der Abfall nicht zu erklären.
Eine 7900XT müsste mit RT trotzdem massiv schneller als eine 3060 mit RT sein.
Die ganze RT Implementierung im Spiel scheint ein Schnellschuss mit der heißen Nadel der Entwickler gewesen zu sein. Nicht nur bei der Performance sondern auch bei der Integration in die Level... alles nur halbherzig (laut dem Artikel)
It seems the devs spent only a bit of time to get it added to the starting areas and then didn't bother finishing the rest of the map. One example is that water in lakes and rivers is not enabled for RT reflections. The shadows are a bit hit and miss, RT or not. While they look pretty realistic most of the time, there's situations where things look terribly wrong. If you turn on ray tracing here, which promises physically accurate rendering, things don't magically turn perfect. Rather things look different, and I often wondered "doesn't RT-off look better here?"
Taigatrommel
2023-02-10, 13:49:54
Genau. Viel Spaß mit 20 FPS auf einer AMD Karte. :cool:
Laut Computerbase muss man gar nicht erst RT einschalten, um mit 10 GB in Bedrängnis zu kommen. Da reicht UHD ohne RT bereits aus, laut Bericht werden bei eingeschaltetem DLSS Quality bereits Probleme mit den Texturen sichtbar. Die 3080 war vor über zwei Jahren bereits deutlich wegen der Geizmentalität in Sachen Speicher in der Kritik, war ja der Hauptgrund, der gegen die ansonsten ja doch gute Karte sprach. Jetzt bei der 4070 Ti nicht anders, ist kaum verständlich, wieso ich in 2023 bei einer 900€ Karte die Speicherbestückung einer Mittelklassekarte bekomme.
dargo
2023-02-10, 13:56:31
Was seht ihr an 69.99 immer ÜBERTEUERT an ? :confused:
https://www.keyforsteam.de/hogwarts-legacy-key-kaufen-preisvergleich/
MiamiNice
2023-02-10, 13:57:21
Viper, Dein Ironiedetektor muss geladen werden.
aufkrawall
2023-02-10, 13:59:08
Viper;13234233']
Die ganze RT Implementierung im Spiel scheint ein Schnellschuss mit der heißen Nadel der Entwickler gewesen zu sein.
Tja, UE4 Checkbox gesetzt. Dieses RT stammt wohl in erster Linie aus dem Nvidia UE-RT-Branch und ist kaum für irgendwelche realen Produktionen optimiert.
[dzp]Viper
2023-02-10, 14:03:59
Viper, Dein Ironiedetektor muss geladen werden.
Miami.. da du auch solche Posts ohne Intention zur Ironie raushaust, darfst du dich dann nicht wundern, wenn man einen Post, den du als Ironie bezeichnest, ernst nimmt.
Das ist das Leiden derer, die mit ihren Posts gerne mal polarisieren. Ironie ohne Ironietag ist dann nicht erkennbar ;)
DrFreaK666
2023-02-10, 14:04:53
Also ich sehe 20 FPS für die 6800XT:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-1920-1080.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Was siehst du?
https://abload.de/img/screenshot_20230210_1qlcij.jpg (https://abload.de/image.php?img=screenshot_20230210_1qlcij.jpg)
Aber ok, das ist nicht vergleichbar, da 2160p und nicht 1080p.
Daher noch 1080p
https://abload.de/img/screenshot_20230210_1e6ixs.jpg (https://abload.de/image.php?img=screenshot_20230210_1e6ixs.jpg)
Taigatrommel
2023-02-10, 14:11:01
Tja, UE4 Checkbox gesetzt. Dieses RT stammt wohl in erster Linie aus dem Nvidia UE-RT-Branch und ist kaum für irgendwelche realen Produktionen optimiert.
Von den optischen Problemen ganz zu schweigen, wenn ich mir anschaue, wie manche Möbel und Regale stärker strahlen und glänzen als die Innenräume der Abrams Enterprise, dann stimmt mit der Implementierung etwas nicht. Es handelt sich zwar offenbar meistens eher um Ausnahmen, doch auch so etwas kann die Immersion beeinträchtigen, vor allem in Anbetracht der massiven Leistungskosten.
Wenn ich schon entsprechende Leistung opfere, dann sollten die Effekte auch durchgängig gut und stimmig implementiert sein, das scheint hier eben nicht der Fall. Da wird garantiert in den kommenden Wochen und Monaten nachgebessert, wäre ja nicht der erste RT Titel, wo die Technik durch weitere Updates verbessert wird.
Troyan
2023-02-10, 14:15:29
https://abload.de/img/screenshot_20230210_1qlcij.jpg (https://abload.de/image.php?img=screenshot_20230210_1qlcij.jpg)
Aber ok, das ist nicht vergleichbar, da 2160p und nicht 1080p.
Daher noch 1080p
https://abload.de/img/screenshot_20230210_1e6ixs.jpg (https://abload.de/image.php?img=screenshot_20230210_1e6ixs.jpg)
Cool, wieso postet du Bilder von AMDunboxed? Und wie schafft der auf 108 FPS mit einer 7900XTX mit Raytracing, wenn andere Seiten gerade mal die halben Frames erreichen? Oh wait, stimmt, Fake-Benchmarks:
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-gpu-cpu
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd_mit_raytracing
Taigatrommel
2023-02-10, 14:19:08
Stimmt, AMD Unboxed, einem Kanal dem andauernd nVidia Bias vorgeworfen wird....
Troyan
2023-02-10, 14:22:24
Der Typ bencht in Hogwarts, sobald man rausgeht, sieht es ein kleinwenig anders aus: https://www.youtube.com/watch?v=8saKkirLNZY
BTW: 190W gegen 310W und das bei mehr Leistung für die 4070TI. Lmao.
Cubitus
2023-02-10, 14:27:54
Jetzt bei der 4070 Ti nicht anders, ist kaum verständlich, wieso ich in 2023 bei einer 900€ Karte die Speicherbestückung einer Mittelklassekarte bekomme.
Die 4070TI ist doch allerhöchstens obere Mittelklasse. Verstehe das Problem nicht.
Bis 1440p ist die karte in Ordnung.
Preislich natürlich absurd, aber joa so ist das heutzutage..
dargo
2023-02-10, 14:33:47
https://abload.de/img/screenshot_20230210_1qlcij.jpg (https://abload.de/image.php?img=screenshot_20230210_1qlcij.jpg)
Aber ok, das ist nicht vergleichbar, da 2160p und nicht 1080p.
Daher noch 1080p
https://abload.de/img/screenshot_20230210_1e6ixs.jpg (https://abload.de/image.php?img=screenshot_20230210_1e6ixs.jpg)
Jetzt hast du das Weltbild von unserem Trojaner völlig zerstört. ;D
MiamiNice
2023-02-10, 14:38:53
Viper;13234250']Miami.. da du auch solche Posts ohne Intention zur Ironie raushaust, darfst du dich dann nicht wundern, wenn man einen Post, den du als Ironie bezeichnest, ernst nimmt.
Das ist das Leiden derer, die mit ihren Posts gerne mal polarisieren. Ironie ohne Ironietag ist dann nicht erkennbar ;)
Das muss man differenzieren können ;)
Stimmt, AMD Unboxed, einem Kanal dem andauernd nVidia Bias vorgeworfen wird....
Wäre mir neu. Der Typ ist so rot wie fast kein zweiter. Könnte Dargos Arbeitskollege sein.
DrFreaK666
2023-02-10, 14:39:08
Der Typ bencht in Hogwarts, sobald man rausgeht, sieht es ein kleinwenig anders aus: https://www.youtube.com/watch?v=8saKkirLNZY
BTW: 190W gegen 310W und das bei mehr Leistung für die 4070TI. Lmao.
Jetzt musst natürlich mit Watt kommen? Sollen wir jetzt noch die Kartenlänge und Speicherbestückung vergleichen um noch weiter vom Thema abzukommen?
IchoTolot
2023-02-10, 14:40:21
In den Köpfen ist noch immer "AMD is scheiße bei RT" verankert. Das kriegste auch nicht mehr raus, glaub ich.. Dass die 6000er Radeons sucken bei RT weiß doch jeder und das war mir auch beim kauf klar. Ich werd es nie aktivieren. Feddich.
Aber die 7000er Karten haben da deutlich aufgeholt. Da bekommste dann Rasterization zweithöchste Performance und bei RT biste bei 3090 Ti Niveau. Also was gibts da zu meckern. Und zudem haste niemals VRAM-Speicherprobleme. ^^
Und die Karten sind billiger.
Taigatrommel
2023-02-10, 14:41:30
Wäre mir neu. Der Typ ist so rot wie fast kein zweiter. Könnte Dargos Arbeitskollege sein.
Dann hast du das Thema nicht mitbekommen.
arcanum
2023-02-10, 14:44:48
Das muss man differenzieren können ;)
Wäre mir neu. Der Typ ist so rot wie fast kein zweiter. Könnte Dargos Arbeitskollege sein.
du verwechselst ihn wahrscheinlich mit dem hardware jesus von gamers nexus. HWU ist neutral.
Hardware-Jesus nimmt kein Blatt vor den Mund, aber Voreingenommenheit für oder gegen einen bestimmten Hersteller würde ich ihm jetzt nicht unterstellen.
Linmoum
2023-02-10, 14:51:00
Stimmt, AMD Unboxed, einem Kanal dem andauernd nVidia Bias vorgeworfen wird....Deren GPU-Benchmarks sind aber irgendwie gerne mal... weird. 100fps mit RT auf einer 7900XTX in FHD ist meilenweit vor dem, was sämtliche anderen Seiten bislang gebencht haben. Egal ob CB, TPU, GameGPU oder auch PCGH in der bisherigen Stichprobe, alle (!) haben keine 60fps geschafft.
Da braucht man sich dann über entsprechende Reaktionen nicht wundern.
Lurtz
2023-02-10, 14:56:30
Deren GPU-Benchmarks sind aber irgendwie gerne mal... weird. 100fps mit RT auf einer 7900XTX in FHD ist meilenweit vor dem, was sämtliche anderen Seiten bislang gebencht haben. Egal ob CB, TPU, GameGPU oder auch PCGH in der bisherigen Stichprobe, alle (!) haben keine 60fps geschafft.
Da braucht man sich dann über entsprechende Reaktionen nicht wundern.
Liegts an der Ryzen-CPU?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13234152#post13234152
Die meisten anderen haben vermutlich mit einem 13900K gebencht?
dargo
2023-02-10, 14:57:47
Deren GPU-Benchmarks sind aber irgendwie gerne mal... weird. 100fps mit RT auf einer 7900XTX in FHD ist meilenweit vor dem, was sämtliche anderen Seiten bislang gebencht haben. Egal ob CB, TPU, GameGPU oder auch PCGH in der bisherigen Stichprobe, alle (!) haben keine 60fps geschafft.
Da braucht man sich dann über entsprechende Reaktionen nicht wundern.
Ihr seid sowas von blind, dass es schon weh tut. ;D Es ist doch mehr als offensichtlich, dass die Szene von HWU @1080p cpu-limitiert ist (zumindest bei den schnellsten Karten). Sieht eigentlich jeder anhand der Ergebnisse der einen Hauch von Ahnung hat. Da hier der D3D12-Treiber von Nvidia wieder mal suckt kommt das eben dabei rum. Ob das so bleibt werden zukünftige Patches/Treiber zeigen müssen. Resize Bar würde ich hier auch nicht unbedingt komplett ausschließen wollen.
TheCounter
2023-02-10, 14:58:37
16 FPS mit meiner 3080, ok alles klar. Ich lass das Spiel dann erstmal aus und zocke lieber praktisch alle anderen Games in 4K mit RT, die laufen wenigstens recht ordentlich (selbst Star Citizen läuft dagegen extrem gut) ;D
[dzp]Viper
2023-02-10, 14:59:50
Ihr seid sowas von blind, dass es schon weh tut. ;D Es ist doch mehr als offensichtlich, dass die Szene von HWU @1080p cpu-limitiert ist (zumindest bei den schnellsten Karten). Sieht eigentlich jeder anhand der Ergebnisse der einen Hauch von Ahnung hat. Da hier der D3D12-Treiber von Nvidia wieder mal suckt kommt das eben dabei rum. Ob das so bleibt werden zukünftige Patches/Treiber zeigen müssen. Resize Bar würde ich hier auch nicht unbedingt komplett ausschließen wollen.
Der hat 60-70fps mehr als die anderen und das macht dich nicht stutzig?
Seine FPS Werte entsprechen eher denen ohne RT..
dargo
2023-02-10, 15:03:00
Viper;13234335']Der hat 60-70fps mehr als die anderen und das macht dich nicht stutzig?
Seine FPS Werte entsprechen eher denen ohne RT..
Ich beziehe mich ausschließlich hier auf die 1080p Werte. Aber ganz ehrlich? Es ist verschwendete Lebensmüh über irgendwelche Werte zu schwadronieren aktuell bei diesem Spiel. Meine Meinung dazu. Lass mal paar Patches und Treiber drüber laufen dann kann man sich das immer noch in Ruhe ansehen.
btw.
Der suckende NV-Treiber wurde übrigens schon hier "behandelt".
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13233251&postcount=88
Matrix316
2023-02-10, 15:11:06
In den Köpfen ist noch immer "AMD is scheiße bei RT" verankert. Das kriegste auch nicht mehr raus, glaub ich.. Dass die 6000er Radeons sucken bei RT weiß doch jeder und das war mir auch beim kauf klar. Ich werd es nie aktivieren. Feddich.
Aber die 7000er Karten haben da deutlich aufgeholt. Da bekommste dann Rasterization zweithöchste Performance und bei RT biste bei 3090 Ti Niveau. Also was gibts da zu meckern. Und zudem haste niemals VRAM-Speicherprobleme. ^^
Und die Karten sind billiger.
Mich wundert eher, dass alle so tun: "Waaaas? AMD ist schlechter mit RT? Wieso denn das? Das ist ja ganz was Neues!". ;)
Ich meine, wenn eine 4090 in 4K Ultra mit RT auch nur auf 60 FPS kommt, dann ist das nicht gut! =) DLSS hin oder her. Aktuell ist keine Karte wirklich überzeugend in Raytracing.
Troyan
2023-02-10, 15:19:01
Viper;13234335']Der hat 60-70fps mehr als die anderen und das macht dich nicht stutzig?
Seine FPS Werte entsprechen eher denen ohne RT..
Nein, er misst im Gebäude. Siehe das Video von oben. Sobald man rausgeht, brechen die Frames bei AMD massiv ein und entsprechen denen, die man von anderen Seiten kennt.
DrFreaK666
2023-02-10, 15:22:44
Viper;13234335']Der hat 60-70fps mehr als die anderen und das macht dich nicht stutzig?
Seine FPS Werte entsprechen eher denen ohne RT..
Dann haben wohl alle anderen falsch gemessen :D
Die Radeon-Benchmarks sind tatsächlich fragwürdig, wenn man sie mit anderen vergleicht. Verglichen mit anderen Spielen ist das eher normal.
Steve hatte das Problem dass Frame Generation aktiviert war, obwohl DLSS und FG ausgegraut waren. Vielleicht erklärt das die Ergebnisse anderer Seiten!?
IchoTolot
2023-02-10, 15:23:27
Die Videos sind immer die gleichen und haben nix mit dem eigentlichen Benchmark zu tun. Das macht er schon lange so.
dildo4u
2023-02-10, 15:54:14
Steve hat sich extra die Arbeit gemacht zwei Stellen zu benchen, bei einer ist NV vorne bei der anderen sterben paar Karten weil sie zu wenig Vram haben.
Open World Games haben halt oft schwanken Anforderungen je nachdem man sich befindet.
Der Typ ist einfach krass was es sich für ein Aufwand macht und alle pissen hier rum weil ihre Karte nicht so läuft wie es einem in den Kram passt.
https://abload.de/img/hogwartsuyeq2.png
https://abload.de/img/hoigwarts2utc8m.png
https://youtu.be/qxpqJIO_9gQ
y33H@
2023-02-10, 15:58:34
Völlig irreführend dennoch ...
dildo4u
2023-02-10, 16:05:15
Imo nicht wirklich der Abschnitt in der Stadt ist war deutlich CPU limitierter aber er füllt offensichtlich den Vram mehr als die andere Stelle.
Das zeigt auf das eine 3080 viel zu wenige Vram hat was jetzt ich wirklich eine neue Offenbarung ist.
Ich würde sagen das die Stelle sogar wichtiger da diese Frametimes deutlich mehr auffallen als Schwankungen von 70 auf 50fps oder so.
dargo
2023-02-10, 17:03:45
Steve hat sich extra die Arbeit gemacht zwei Stellen zu benchen, bei einer ist NV vorne bei der anderen sterben paar Karten weil sie zu wenig Vram haben.
Open World Games haben halt oft schwanken Anforderungen je nachdem man sich befindet.
Der Typ ist einfach krass was es sich für ein Aufwand macht und alle pissen hier rum weil ihre Karte nicht so läuft wie es einem in den Kram passt.
https://abload.de/img/hogwartsuyeq2.png
https://abload.de/img/hoigwarts2utc8m.png
https://youtu.be/qxpqJIO_9gQ
Wo ist eigentlich das überlegene Speichermanagement von Geforce geblieben? :weg: Der musste jetzt einfach sein. :D
dildo4u
2023-02-10, 17:10:04
Zum Vergleich bräuchte man eine 6700 10Gb, alles unter der 3060 Performt nicht wirklich angemessen.
Wo ist eigentlich das überlegene Speichermanagement von Geforce geblieben? :weg: Der musste jetzt einfach sein. :D
Damit kann man etwa ein GiByte zackig "ausgleichen", keine 4 oder mehr. ;)
MfG
Raff
w0mbat
2023-02-10, 17:30:11
Also ich sehe 20 FPS für die 6800XT:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-1920-1080.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Was siehst du?
Was für einen Mist hat TPU da gebenched? Hier mal echte Ergebnisse:
Völlig irreführend dennoch ...
Sorry, aber so einen Kommentar kann man einfach nicht ernst nehmen. HWUB macht aktuell mit Abstand die besten Benchmarks überhaupt, extrem detailiert, super genau dargelegt wie und wo sie testen.
Aber irgendwie sind ihre Ergebnisse für Fanboys nie korrekt. Mal ist Nvidia zu schnell, dann AMD und dann Intel. Jedes Mal der gleiche Dreck.
Und am Ende ist es wie immer: HWUB hat doch recht. Die Ergebnisse passen viel mehr zur Realität.
Ich hatte schon Spiele wo ich mit meiner RX 6800 laut PCGH so 20-30 FPS haben sollte, in echt waren es aber 60+ FPS, wie auch HWUB gebencht hatte.
Es macht keinen Sinn eine Stelle im Spiel zu suchen, die durch einen Bug oder eine spezielle Limitierung nicht läuft und dann zu behaupten, das wäre das "echte" Spiel.
Sieht man vor allem bei PCGH und CB. Ist für einen Absatz im review interessant, aber darauf die Benchmarks aufzubauen ist suboptimal.
Linmoum
2023-02-10, 17:33:36
Echte Ergebnisse. Lol.
dargo
2023-02-10, 17:40:11
Damit kann man etwa ein GiByte zackig "ausgleichen", keine 4 oder mehr. ;)
Spielverderber. ;) Wobei sowohl die 6650XT als auch 3070 beide 8GB haben. ;)
Steve hatte das Problem dass Frame Generation aktiviert war, obwohl DLSS und FG ausgegraut waren. Vielleicht erklärt das die Ergebnisse anderer Seiten!?
WTF? Das wird ja immer bekloppter. X-D
Es macht keinen Sinn eine Stelle im Spiel zu suchen, die durch einen Bug oder eine spezielle Limitierung nicht läuft und dann zu behaupten, das wäre das "echte" Spiel.
Du hast das Problem erkannt. ;) Ich amüsiere mich hier jedes Mal köstlich wenn die ganzen Fanboys ein einziges Ergebnis einer gebenchten Szene mit vielleicht 20-30 Sekunden Dauer auf das gesamte Spiel übertragen. :ulol: Normalerweise müsste man zig verschiedene Szenarien von einem Spiel erfassen, nur diesen Aufwand wird kein Reviewer auf sich nehmen wollen. Ich kanns aber auch nachvollziehen, der Mehraufwand wäre enorm.
Matrix316
2023-02-10, 17:46:57
Gibt's solche Ergebnisse auch mit Intel CPUs? Wenn jeder nur mit AMD bencht... bei HL ist irgendwie alles möglich warum was wie nicht geht. :D
w0mbat
2023-02-10, 17:48:17
Echte Ergebnisse. Lol.
Jupp, HWUB ist nicht ohne Grund zum größten und besten review Kanal geworden.
Linmoum
2023-02-10, 17:48:58
Wüsste nicht, was HWUB kompetenter als einen Wolfgang von CB oder Raff machen sollte.
aufkrawall
2023-02-10, 17:49:56
Gibt's solche Ergebnisse auch mit Intel CPUs? Wenn jeder nur mit AMD bencht... bei HL ist irgendwie alles möglich warum was wie nicht geht. :D
Unforgivable Curses oder fehlender Day 1 Patch?
Brainscan
2023-02-10, 17:51:08
Steve hatte das Problem dass Frame Generation aktiviert war, obwohl DLSS und FG ausgegraut waren. Vielleicht erklärt das die Ergebnisse anderer Seiten!?
Das hab ich auch erst nach gut 5 Std bemerkt , das FG Aktiviert war obwohl es Ausgegraut war und ich nur DLAA angeschaltet hatte.
Hatte mich schon gefreut böö Nativ in Ultra mit RTX 97FPS :)
Läuft ja Sahne, dachte mir dann auch noch wieso PCGH nur 43(7) FPS hatten :)
Egal Läuft bei mir Fluffig mit FG ohne DLSS mit DLAA in Ultra Settings
Brainscan
2023-02-10, 17:52:01
Unforgivable Curses oder fehlender Day 1 Patch?
Wird auch keiner kommen. Hab das so im Gefühl, genauso wenig wie AMD und Nvidia Driver. Da kommt heut garnix mehr, und der ShitStorm geht schön das WE Lang
w0mbat
2023-02-10, 18:22:11
Wüsste nicht, was HWUB kompetenter als einen Wolfgang von CB oder Raff machen sollte.
Wieso kompetenter? Ich lese immer mehr als nur ein review, PCGH & CB schon seit über 20 Jahren.
Was ich aber nicht gut finde ist diese anti-HWUB Einstellung vieler hier. Meine Erfahrung der letzten Jahre (und der Grund wieso ich mehr HWUB schaue) ist einfach, dass die Ergebnisse von HWUB mehr auf mein System zutreffen.
Als ich noch den Ryzen 3600 hatte, gab es ein paar Spiele die ich erstmal liegen lassen habe, weil er laut PCGH & CB so 40-50 FPS schaffen sollte. Intel CPUs waren 30%+ schneller.
In den HWUB benches lag der 3600er dann oft >60FPS im avg. Und siehe da, als ich dann gespielt habe waren es meist 60-70 FPS. Gab bestimmt irgendwo im Spiele eine extrem anspruchsvolle Stelle (oder vielleicht ein bug im Spiel?), wo die Ryzen CPUs extrem einbrechen, aber das spiegelt halt nicht 99% des Spieles wieder.
Ich glaube so geht es vielen, deshalb ist HWUB so erfolgreich, weil sie eben die Realität der meisten Spieler abbilden.
Brainscan
2023-02-10, 19:52:21
295MB Patch :) Wird wohl nix Day1 sein.
Krass das die das Spiel echt so fürs WE loslassen :)
IchoTolot
2023-02-10, 19:58:03
Meine Erfahrung der letzten Jahre (und der Grund wieso ich mehr HWUB schaue) ist einfach, dass die Ergebnisse von HWUB mehr auf mein System zutreffen.
Ich lege das nicht mal auf einen Benchmarker speziell fest, aber meine Erfahrung ist auch generell, dass die Benchmarks immer den Worstcase abbilden. Im Durchschnitt laufen die Spiele immer besser.
Hab das so im Gefühl, genauso wenig wie AMD und Nvidia Driver.
Vielleicht gibt's bei einem UE4-Titel treiberseitig gar nicht so viel zu optimieren?
Brainscan
2023-02-10, 20:06:02
Vielleicht gibt's bei einem UE4-Titel treiberseitig gar nicht so viel zu optimieren?
Ja gute Frage, aber wenn @Raff sich sehnlichst fürs Wochenende ein AMD Treiber gewünscht hatte. Aber zumindest war ein Day1 Patch angebracht gewesen 😀
Troyan
2023-02-10, 20:11:03
Vielleicht gibt's bei einem UE4-Titel treiberseitig gar nicht so viel zu optimieren?
Naja, ist DX12. Was soll man da optimieren? Ist eben Konsolenportmüll. Optimierung kostet Geld und Zeit. Wozu? 60FPS sind ja machbar. Reicht für WB Games.
295MB Patch :) Wird wohl nix Day1 sein.
Krass das die das Spiel echt so fürs WE loslassen :)
300 MByte reiner Code kann viele Fixes enthalten. ;) Ohne Change Log ist das aber Stochern im Nebel.
MfG
Raff
Rancor
2023-02-10, 23:27:11
Ich hab mit meiner 6800XT in UWQHD überhaupt keine Probleme. Das Spiel rennt wie sau. Rt natürlich aus :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.