Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel


Seiten : 1 [2] 3 4

dildo4u
2021-09-16, 12:54:16
Scheint ok diese GPUs ziehen alleine so viel wie die ganze PS5 du kannst am Desktop deutlich weniger Rücksicht auf Verbräuche nehmen.
RDNA2 geht am Desktop ja auch auf 2.5Ghz deutlich über der PS5 GPU.

dargo
2021-09-16, 13:15:53
Ein ~11TFLOPs RDNA2 geht am Desktop eher auf ~2,7GHz. ;)

ChaosTM
2021-09-16, 13:44:47
Der Trend das immer schlechter optimierte PC-Ports auf den Markt geschmissen werden? Stimme ich voll zu ;)


kann man auch so auslegen, ja ;)
Viel speicher schadet trotzdem nie.

][immy
2021-09-16, 14:06:14
Der Trend das immer schlechter optimierte PC-Ports auf den Markt geschmissen werden? Stimme ich voll zu ;)
Welcher Trend? Es gab schon immer miserable PC Ports. Ich sehe da nicht das das zu nimmt.

Aber hat das Studio nicht auch damals Arkham Knight auf den Markt geschmissen und musste es wieder zurückziehen. Damals waren es meine ich Speicherlecks die dafür sorgten das es Probleme gab. Mit DX12 muss man sich auch noch deutlich mehr mit dem Speichermanagement auseinander setzen. Also würde jetzt nicht unbedingt aus diesem Spiel Schlüsse ziehen wie viel Speicher man für RT & co nun braucht oder eben nicht.

edit:
Habe es wohl verwechselt, war wohl ein anderes Spiel aus den letzten Tagen.

N0Thing
2021-09-16, 14:14:37
[immy;12793941']Welcher Trend? Es gab schon immer miserable PC Ports. Ich sehe da nicht das das zu nimmt.

Aber hat das Studio nicht auch damals Arkham Knight auf den Markt geschmissen und musste es wieder zurückziehen.

Wüsste nicht, dass Arkane etwas mit den Batman-Spielen zu tun gehabt hat. Das waren Rocksteady Studios und Iron Galaxy Studios hat afaik den Port von Arkham Knight von den Konsolen auf Windows erledigt.

Döner-Ente
2021-09-16, 16:32:59
Gibt imho 2 Seiten der Medaille:
Einerseits sollten natürlich Graka-Hersteller die jeweiligen Modelle im Hinblick auf die jeweiligen Zielauflösungen und ggf. neue Techniken, die ihrerseits für mehr Speicherbedarf sorgen (RT), mit entsprechend viel Speicher ausrüsten und da kann man in der Tat der Meinung sein, dass Nvidia da bei den falschen Karten an der falschen Stelle gespart hat.

Auf der anderen Seite müssen sich Spielehersteller nun mal schon an dem orientieren, was bei ihrer Kundschaft im Schnitt an Hardware, Speicher etc. real existierend da ist und nicht an dem, was man sich wünschen würde.

Ex3cut3r
2021-09-16, 16:37:21
Das Problem ist auch, Direct Storage und die wichtige Option Sampler Feedback, lassen viel zu lange auf sich warten, die neuen Konsolen haben es schon. Der PC bräuchte es eigentlich schon länger, vorallem da auch diese Gen, wieder Performance Karten mit nur 8GB rausgekommen sind, 3070 Ti, 3070, 3060Ti, RX 6600 XT.

Und extrem viele sind halt mit nur 8GB aus älteren Gens unterwegs. Die meisten wahrscheinlich sogar.

][immy
2021-09-16, 18:30:26
Das Problem ist auch, Direct Storage und die wichtige Option Sampler Feedback, lassen viel zu lange auf sich warten, die neuen Konsolen haben es schon. Der PC bräuchte es eigentlich schon länger, vorallem da auch diese Gen, wieder Performance Karten mit nur 8GB rausgekommen sind, 3070 Ti, 3070, 3060Ti, RX 6600 XT.

Und extrem viele sind halt mit nur 8GB aus älteren Gens unterwegs. Die meisten wahrscheinlich sogar.
Naja, du brauchst nicht unbedingt Sampler Feedback. Du könntest auch heute schon dein Streaming und deiner Datenverwaltung auf SSDs auslegen und könntest dadurch schon eine menge gewinnen. Aber dann musst du halt auch die Ressourcen auch anders anliefern, was HDDs zusätzlich benachteiligen würde oder du lieferst die entsprechenden Ressourcen "doppelt" aus.
Aber die Frage ist dann ja auch wieder, wie viel Bandbreite dem Spiel zur Verfügung steht etc, das kann ziemlich kompliziert werden (aufgrund unterschiedlicher SSD bandbreiten). Da DirectStorage eine art Minimal-Voraussetzung hat, kannst du dann auch davon ausgehen, das ein Minimum an Bandbreite zur Verfügung steht.

Schon irgendwie traurig das wir heutzutage nicht mal die Geschwindigkeit von SATA SSDs ausnutzen, außer für Ladebildschirme.

Geldmann3
2021-10-06, 23:08:03
Uff, was für ein Gemetzel für Grafikkarten mit weniger als 11GB Vram (https://www.pcgameshardware.de/Far-Cry-6-Spiel-72873/Specials/Far-Cry-6-Technical-Review-Benchmarks-1380782/2/).

Das klingt jetzt richtig hart und voreingenommen, immerhin läuft das Spiel ja noch in niedrigeren Auflösungen, doch ich hatte von Tag 1 an das Gefühl, dass Nvidias Ampere GPUs, unterhalb der 3080 Ti, wegwerf-GPUs sind.

Niemals hätte ich damals von meiner RTX 2080 Ti auf 10GB Vram gedowngraded. Hätte ich die RTX 3090 nicht für ,,günstige" 1,8K bekommen, hätte Nvidia mich in dieser Generation mal richtig gekonnt.
Die RTX 3080 Ti wäre irgendwann noch eine Option gewesen. (Knapp)
Und so viel Geld für eine GPU auszugeben ist schon richtig krank Leute, es sei denn es ist ein Hardcore-Hobby.

r3ptil3
2021-10-06, 23:15:12
Um mal die Realität wieder auf den Boden zu bringen:
Es ist Far Cry 6 und nicht die Mehrheit der Spiele.

Aber natürlich hart anzusehen, wenn ein High-End-Modell wie die RTX 3080 absolut unbrauchbar wird in 4k/RT.

Geldmann3
2021-10-06, 23:29:33
Im Endeffekt finde ich es nicht weniger schlimm und rattig von Nvidia den AIBs effektiv zu verbieten mehr Vram auf die Boards zu verbauen, wie wenn Apple die eigene Hardware zusammenklebt, damit man sie bloß nicht einfach reparieren kann.

Nvidia will nicht, dass man einmal gut, für 10% mehr Preis, kauft.
Nvidia will, dass man zweimal kauft.

Und das sage ich als jemand, der mit RTX 3090, 2080 Ti, 1080 Ti, 980 Ti recht viel in die Produkte der Firma investiert hat.
(Übrigens hielt ich den Vram all der erwähnten Karten für unterdimensioniert.)

Das wird nur aufhören, wenn im High-End ein harter Konkurrenzkampf herrscht.
Wo wir nun zum ersten Mal seit langem wieder Hoffnung drauf haben.

But truth be told...

Slipknot79
2021-10-07, 00:00:03
Tja, hätte man eben auf Lederjacke hören sollen, er selbst hat gesagt: THE MOAR YOU BUY, THE MOAR YOU SAVE. :redface:
Er meinte natürlich den VRAM. (y)

sChRaNzA
2021-10-07, 06:41:15
Im Endeffekt finde ich es nicht weniger schlimm und rattig von Nvidia den AIBs effektiv zu verbieten mehr Vram auf die Boards zu verbauen, wie wenn Apple die eigene Hardware zusammenklebt, damit man sie bloß nicht einfach reparieren kann.

Nvidia will nicht, dass man einmal gut, für 10% mehr Preis, kauft.
Nvidia will, dass man zweimal kauft.

Und das sage ich als jemand, der mit RTX 3090, 2080 Ti, 1080 Ti, 980 Ti recht viel in die Produkte der Firma investiert hat.
(Übrigens hielt ich den Vram all der erwähnten Karten für unterdimensioniert.)

Das wird nur aufhören, wenn im High-End ein harter Konkurrenzkampf herrscht.
Wo wir nun zum ersten Mal seit langem wieder Hoffnung drauf haben.

But truth be told...

Ich weiß, ich weiß… Kann jetzt auch nur Korinthenkackerei sein, aber die 1080Ti war doch für die Zeit ganz gut ausgestattet?

Edgecrusher86
2021-10-07, 08:01:17
Die 3090 eigentlich auch - ich habe grob vier dutzend Games getestet [alte wie auch neue], als die Karte kam - in 3440 bis zu 13760er Auflösung und komme zur Erkenntnis, dass die Rohleistung zumeist deutlich eher limitiert als der VRAM, sprich, wenn es Richtung 9-12GB in Nutzung geht, die Power schon merklich nachlässt - wir also oft deutlich unter 60 fps liegen.
Insofern sind die 12GB der 3080 Ti jetzt imho auch kein wirklicher Beinbruch - die 10GB der 3080, das ist - zumindest für 4K nativ samt RT - eine andere Geschichte; aber da kann zumindest DLSS Q, so denn vorhanden, helfen. Jedenfalls kann ich auch aus Erfahrung über den Bekanntenkreis sagen, dass die 6GB der 980 Ti und 11GB der RTX 2080 Ti erst so richtig im MGPU-Gespann limitierten -
in erstem Fall etwa in RotTR 4K DX12 im 3-way SLI und bei der RTX 2080 Ti NVL etwa in Doom 2016 - 8K...Nightmare Preset nicht mehr möglich; 12GB hätte gelangt. ;)

Eigentlich finde ich ist bei NV die Bestückung in Relation zur Rohleistung immer alle zwei Generationen richtig sinnig, sodass die Karten gut altern - zumindest bezüglich VRAM. Beispiele waren da Kepler mit 6GB*, Pascal mit 11/12GB und nun Ampere mit 24GB (zumindest 12GB-16GB sinnig für die Power; aber richtig ausnutzen können wird man das erst nächste Generation - mit ordentlichen fps).
Jedenfalls empfand ich in der Praxis die 12GB der Maxwell X, selbst im 2-way SLI - als too much - nur aus Gamer Sicht. 6-9GB konnte ich damals in 4K (DSR) sinnig nutzen, aber mehr nicht wirklich. :)

* 3GB+ gingen ja in 4K öfters drauf, gerade mit AA [Bsp. BF3 oder C2 MaldoHD 4.0] - da machte dann eine 780 Ti/780 schlapp; mit 2x TITAN konnte man zumindest um die 60 fps erreichen. :)

Geldmann3
2021-10-07, 08:19:28
Naja, für angemessen hätte ich gehalten:
980 Ti: 8GB
1080 Ti: 12GB
2080 Ti: 16GB
RTX 3090: Okaaay, 24GB passt diesmal schon, aber der Preis... Für das Geld müsste es beim nächsten Mal definitiv mehr Vram werden, woran ich zweifle.

Es war immer genug, um in hohen Auflösungen gerade so zurechtzukommen.
Habe oft mit Downsampling in 6k oder ältere Games in 8K gezockt, da waren die Karten immer sehr nah am Wasser gebaut.

Bei der 4000er Serie hat Nvidia den Bogen dann mit RTX 3070 und RTX 3080 allerdings überspannt. Reicht einfach nicht mehr bzw. macht die Karten direkt wieder obsolet.
Es ist eine Schande, wenn man überlegt, was für tolle Karten die RTX 3070 oder RTX 3080 mit nur 12 oder gar 16GB Vram gewesen wären.
Naja, im Endeffekt konnte die Karten sowieso keiner kaufen und diejenigen, die es doch geschafft haben, haben sich, ohne groß die Wahl zu haben, irgendwie ins eigene Fleisch geschnitten.

sChRaNzA
2021-10-07, 08:57:22
Auch da weiß ich jetzt nicht genau, warum du das so pauschalisieren kannst. Meine 3080 wird für WQHD eingesetzt und mit der hatte ich da noch nie Probleme. Vor allem nicht, wenn es jetzt nicht unbedingt „Ultra-Max-Nightmare“-Setting sein müssen, die außer die FPS zu drücken sowieso kaum bis keinen Mehrwert für die Optik bringen.

Geldmann3
2021-10-07, 09:06:48
Du bist ein Traumkunde für Nvidia. ;D

Das Ding ist, Du könntest „Ultra-Max-Nightmare“-Settings in 4K zocken, wenn Nvidia sich nicht ein paar € für 2GB mehr Ram gespart hätte. Bewusst, damit Du bald neu kaufen musst. Allein die HD Texturen in Far Cry 6 können die 10GB Vram spielend füllen.

Du kannst bereits jetzt nicht mehr überall die maximale Texturauflösung einstellen, obwohl Du soeben eine Top-GPU von Nvidia gekauft hast.
Das Schlimme ist, dass es nicht so ist, weil es eine technische Limitierung ist.
Sondern weil Nvidia einfach nicht will, dass Du das kannst.
Und das wird von Jahr zu Jahr mit steigenden Anforderungen nicht besser.
Höher aufgelöste Texturen kosten fast nichts, außer Vram.

sChRaNzA
2021-10-07, 09:11:46
Dann scheint das wohl nicht mein Anwendungsfall zu sein. Hardware Unboxed hat zu diesem „Settings“-Thema auch vor kurzem ein Video rausgelassen. Da geht es zwar nicht um VRAM ansich, aber um dieses „Einstellungs“-Dilemma.

Ob ich der perfekte Kunde weiß ich nicht. Die Karte wird halt so lange eingesetzt, bis sie für meine (!) Ansprüche nicht mehr ausreichend ist. Danach wandert die in den Rechner der Frau, wo sie wahrscheinlich eine GTX1060 ersetzen wird - mit der meine Frau auch jetzt noch gut zurecht kommt.

Mein Anwendungsbereich wird wahrscheinlich nicht der gleiche sein wie deiner, aber deiner wird auch nicht Allgemeingültigkeit für alle besitzen. Daher wäre ich mit Pauschalisieren immer vorsichtig. ;)

Geldmann3
2021-10-07, 09:15:28
Verzeih' mir, ich wollte übrigens auch nicht persönlich werden oder so. ;)
Ich weiß schon, dass ich ein bisschen provokativ bin und will Dich auch nicht in einer Schublade stecken.

Es ist halt so schmerzhaft zu sehen, weil es so tolle GPUs sind eigentlich.
U.a. tolle Raytracing-GPUs, nur leider kostet das auch viel Vram.

In einem anderem Rechner kam ich übrigens auch mit einer R9 290 4GB noch zurecht.^^
Zurechtkommen heißt allerdings auch nicht wunschlos glücklich.

sChRaNzA
2021-10-07, 09:19:13
Verzeih' mir, ich wollte übrigens auch nicht persönlich werden oder so. ;)
Ich weiß schon, dass ich ein bisschen provokativ bin und will Dich auch nicht in einer Schublade stecken.

Es ist halt so schmerzhaft zu sehen, weil es so tolle GPUs sind eigentlich.
U.a. tolle Raytracing-GPUs, nur leider kostet das auch viel Vram.

Alles gut, ich hab das auch nicht böse verstanden. Man muss ja nicht immer einer Meinung sein. ;)

Ich kann auch gut verstehen, dass gerade die 3080 bei vielen Leuten aufgrund des Speichers nicht gut ankommt. Da wäre tatsächlich mehr drin gewesen. Ich kam da fast zur UVP ran und hab die oben genannte 1060 mit der ersetzen können. Da konnte ich mit einer Karte zwei Rechner wieder „flott“ machen. Ich kann da jetzt keinen tiefgreifenden Fehler drin erkennen. ;)

The_Invisible
2021-10-07, 10:15:16
Naja, weiß ja net, erstens ist es Far Cry und zweitens sind eigentlich alle Karten für 4k/max/60fps zu langsam. Oder gibt man sich jetzt wieder mit <60fps für Shooter zufrieden? Manche brauchen ja sogar so >100fps.

Ob man sich jetzt dadurch irgendeine Karte rechtfertigen muss, ich weiß ja nicht...

Troyan
2021-10-07, 10:19:30
Habe mir bei Computerbase den Unterschied der Texturen angesehen und meh. Sorry, aber ob man mit den HD-Texturen in 4K spielen muss, bezweifel ich.

Raff
2021-10-07, 10:42:51
Gerade in Ultra HD möchtest du damit spielen, denn feinere Texturen profitieren von Non-Tetris-Bildschirmauflösungen. :) #noneedtoschönredthespeicherkrüppelei

MfG
Raff

SamLombardo
2021-10-07, 10:44:43
Wenn man mal die Erfahrungen aus der Vergangenheit zugrunde legt, wird es nicht lange dauern und der horrende V RAM Verbrauch von Far Cry 6 ist weggepatcht. War doch bisher fast immer so, selbst beim Flight Simulator wurde er per Patch halbiert.

Troyan
2021-10-07, 10:44:57
Nun, das selbe gilt auch für Raytracing. Oder wieso sollte man in 4K mit Effekten wie SSR spielen, die nur eine Auflösung 1080p oder niedriger haben?!

Die Frage lautet einfach nur, sind die HD-Texturen wahrnehmbar besser oder muss man dafür dauernd hin und her wechseln.

fulgore1101
2021-10-07, 10:45:23
Laut Computerbase reichen bis 1440p auch 8GB für HD Texturen.

Nur bis inklusive WQHD funktionieren die HD-Texturen auch mit 8 GB großem Grafikspeicher gut. Für Ultra HD müssen es dann aber mehr als 10 GB sein – eine GeForce RTX 3080 10 GB ruckelt unspielbar. 12 GB reichen wiederum aus.

Keine Ahnung wieso PCGH das nicht mit getestet hat.

sChRaNzA
2021-10-07, 10:59:08
Wenn man mal die Erfahrungen aus der Vergangenheit zugrunde legt, wird es nicht lange dauern und der horrende V RAM Verbrauch von Far Cry 6 ist weggepatcht. War doch bisher fast immer so, selbst beim Flight Simulator wurde er per Patch halbiert.

Je nachdem wann und warum ein Spiel so läuft wie es läuft, ist das ein guter Punkt. Wenn ich stümperhafte / mangelhafte Programmierung nur mit brachialen Einsatz von Hardware ausgleichen kann, dann liegt in diesem Fall das Problem nicht an der Hardware.

Raff
2021-10-07, 11:14:36
Laut Computerbase reichen bis 1440p auch 8GB für HD Texturen.

Nur bis inklusive WQHD funktionieren die HD-Texturen auch mit 8 GB großem Grafikspeicher gut. Für Ultra HD müssen es dann aber mehr als 10 GB sein – eine GeForce RTX 3080 10 GB ruckelt unspielbar. 12 GB reichen wiederum aus.

Keine Ahnung wieso PCGH das nicht mit getestet hat.

Das stimmt so nicht ganz. Hier, dickes Update, bitte vor allem die Abhandlung zum HD-Pack durchlesen, dann erst zu den Benchmarks wechseln. :)

https://www.pcgameshardware.de/Far-Cry-6-Spiel-72873/Specials/Far-Cry-6-Technical-Review-Benchmarks-1380782/

MfG
Raff

MasterElwood
2021-10-07, 11:20:45
Ich versteh das Problem nicht.

Eine 3080 würde auch ohne VRAM-Bremse keine 60fps erreichen. Also MUSS man FSR benutzen.

Und mit FSR selbst in Ultra-Quality-Modus erreicht man 60fps - und die VRAM Bremse ist auch weg.

Das "Problem" gibts also in der Praxis nicht wirklich :wink:

Linmoum
2021-10-07, 11:21:23
Seit wann sind lächerliche >=12 GiB Speicher denn "brachialer Einsatz von Hardware"? :freak:

dildo4u
2021-10-07, 11:21:57
Hatte Ubisoft nicht die 3070 für 1440 Maxed empfohlen?


https://abload.de/img/far-cry-6-specs-pcghokkbu.jpg

Raff
2021-10-07, 11:24:49
Ich versteh das Problem nicht.

Eine 3080 würde auch ohne VRAM-Bremse keine 60fps erreichen. Also MUSS man FSR benutzen.

Und mit FSR selbst in Ultra-Quality-Modus erreicht man 60fps - und die VRAM Bremse ist auch weg.

Das "Problem" gibts also in der Praxis nicht wirklich :wink:

Das Problem ist, dass man Texturdetails im Gegensatz zu allen Shader-basierten Aufwertungen quasi for free bekommt, wenn man den Speicher dafür hat. Texturen werten Grafik sehr effektiv und günstig auf - wenn man vom Aufwand der Erstellung und etwas längeren Ladezeiten absieht. Aus diesem Grund ist der VRAM-Stillstand eines gewissen Herstellers ja so nervig - er bremst uns insgesamt aus.

MfG
Raff

sChRaNzA
2021-10-07, 11:29:40
Seit wann sind lächerliche >=12 GiB Speicher denn "brachialer Einsatz von Hardware"? :freak:

Hat das jemand behauptet?

MasterElwood
2021-10-07, 11:29:46
Das Problem ist, dass man Texturdetails im Gegensatz zu allen Shader-basierten Aufwertungen quasi for free bekommt, wenn man den Speicher dafür hat. Texturen werten Grafik sehr effektiv und günstig auf - wenn man vom Aufwand der Erstellung und etwas längeren Ladezeiten absieht. Aus diesem Grund ist der VRAM-Stillstand eines gewissen Herstellers ja so nervig - er bremst uns insgesamt aus.

MfG
Raff

Aber VRAM ist TEUER. Und wenn es in in 95 Prozent aller Games "leer" bleibt einer Verschwendung die der Kunde trotzdem zahlen muss.

vinacis_vivids
2021-10-07, 11:30:20
Die RTX3080 8GB + 2GB entpuppt sich mehr und mehr als GTX970 3,5GB + 0,5GB reloaded.
Der krumme Schnitt beim SI und die magere Ausstattung des Speichers ist der aktuellen Generation von High-End GPUs einfach nicht würdig. Nvidia bremst wieder einmal aus Geldgier einerseits die Technik-Entwicklung und andererseits zieht mit Marketing-Nebenkerzen den User das Geld aus der Tasche.

Statt 8GB + 2GB hätten sie die Karte großzügig mit 16GB + 4GB ausstatten sollen, aber da wäre wohl der Gewinn weg gewesen. So müssen sich Leute, die viel Geld in die 3080 reingesteckt haben sich durchruckeln :freak:

Auch die Frametimes bei FC6 der 3080 ist schlecht. Das Nanoruckeln muss den Spielern auf Dauer doch den letzten Nerv kosten, dazu noch unscharfe Texturen.

Raff
2021-10-07, 11:31:01
Aber VRAM ist TEUER. Und wenn es in in 95 Prozent aller Games "leer" bleibt einer Verschwendung die der Kunde trotzdem zahlen muss.

Dafür gibt es 'ne ganz einfache Lösung: lasst den Kunden die Wahl. Die GTX 780 gab's später auch mit 6 statt 3 GiB. Ist das so schwer? Dann könnte jeder kaufen, was er will, je nach Horizont und Geldbeutel. :)

MfG
Raff

MasterElwood
2021-10-07, 11:35:04
Dafür gibt es 'ne ganz einfache Lösung: lasst den Kunden die Wahl. Die GTX 780 gab's später auch mit 6 statt 3 GiB. Ist das so schwer? Dann könnte jeder kaufen, was er will, je nach Horizont und Geldbeutel. :)

MfG
Raff

Dafür wurde doch die TI nach (ein) geschoben?

Troyan
2021-10-07, 11:37:26
Dafür gibt es 'ne ganz einfache Lösung: lasst den Kunden die Wahl. Die GTX 780 gab's später auch mit 6 statt 3 GiB. Ist das so schwer? Dann könnte jeder kaufen, was er will, je nach Horizont und Geldbeutel. :)

MfG
Raff

Gibt es doch. Die 3090 hat 2,4x mehr Speicher für 2,4x Aufpreis... :rolleyes:

dargo
2021-10-07, 11:38:19
Aber VRAM ist TEUER. Und wenn es in in 95 Prozent aller Games "leer" bleibt einer Verschwendung die der Kunde trotzdem zahlen muss.
Die PS5 hat 16GB. :rolleyes:

The_Invisible
2021-10-07, 11:38:53
Die RTX3080 8GB + 2GB entpuppt sich mehr und mehr als GTX970 3,5GB + 0,5GB reloaded.
Der krumme Schnitt beim SI und die magere Ausstattung des Speichers ist der aktuellen Generation von High-End GPUs einfach nicht würdig. Nvidia bremst wieder einmal aus Geldgier einerseits die Technik-Entwicklung und andererseits zieht mit Marketing-Nebenkerzen den User das Geld aus der Tasche.

Statt 8GB + 2GB hätten sie die Karte großzügig mit 16GB + 4GB ausstatten sollen, aber da wäre wohl der Gewinn weg gewesen. So müssen sich Leute, die viel Geld in die 3080 reingesteckt haben sich durchruckeln :freak:

Auch die Frametimes bei FC6 der 3080 ist schlecht. Das Nanoruckeln muss den Spielern auf Dauer doch den letzten Nerv kosten, dazu noch unscharfe Texturen.

Blödsinn, das war was ganz anderes, die 10GB sind alle gleich schnell ansprechbar. Und 20GB waren anscheinend nicht drin da man das teure 3090 Platinenlayout hätte nehmen müssen da es keine 16Gbit G6X Chips gibt. Also max 12GB und die Karte gibt es eh.

dargo
2021-10-07, 11:40:50
Die RTX3080 8GB + 2GB entpuppt sich mehr und mehr als GTX970 3,5GB + 0,5GB reloaded.
Der krumme Schnitt beim SI und die magere Ausstattung des Speichers ist der aktuellen Generation von High-End GPUs einfach nicht würdig.
Bitte nimm weniger davon was du regelmäßig nimmst.

Die RTX 3080 hat ein 320Bit SI mit 10GB Vram. Daran ist gar nichts "krumm". Die Vram-Menge ist halt dort nur etwas knapp bemessen worden.

MasterElwood
2021-10-07, 11:40:55
Die PS5 hat 16GB. :rolleyes:

GESAMT-SPEICHER :facepalm:

Abgesehen davon das Konsolen mit Verlust kalkuliert werden können da die Kohle über Games wieder reinkommt.

dargo
2021-10-07, 11:43:12
GESAMT-SPEICHER :facepalm:

Was ändert das an den Kosten du Schlaumeier? Die gesamte PS5 hat mit 16GB GDDR6 eine UVP ab 399$! Darin ist sogar eine ultraschnelle 1TB M.2 SSD inbegriffen! Irgendwelche Margen waren gar nicht das Thema. Schon bemerkenswert, dass du dich über höhere Kosten bei mehr Vram beschwerst die der Kunde dann tragen muss aber über die absurden Margen von Nvidia nicht.

MasterElwood
2021-10-07, 11:47:23
Was ändert das an den Kosten du Schlaumeier? Die gesamte PS5 hat mit 16GB GDDR6 eine UVP ab 399$! Darin ist sogar eine ultraschnelle 1TB M.2 SSD inbegriffen!

und das alles kannst du nicht gewinnbringend zusammenschrauben. Also zahlst du es durch überteuerte Games & Zubehör. Wenn du glaubst Sony schenkt dir was - dann hätte ich ein Grundstück am Mond zum Verkauf 😅

dildo4u
2021-10-07, 11:49:36
Die RTX3080 8GB + 2GB entpuppt sich mehr und mehr als GTX970 3,5GB + 0,5GB reloaded.
Der krumme Schnitt beim SI und die magere Ausstattung des Speichers ist der aktuellen Generation von High-End GPUs einfach nicht würdig. Nvidia bremst wieder einmal aus Geldgier einerseits die Technik-Entwicklung und andererseits zieht mit Marketing-Nebenkerzen den User das Geld aus der Tasche.

Statt 8GB + 2GB hätten sie die Karte großzügig mit 16GB + 4GB ausstatten sollen, aber da wäre wohl der Gewinn weg gewesen. So müssen sich Leute, die viel Geld in die 3080 reingesteckt haben sich durchruckeln :freak:

Auch die Frametimes bei FC6 der 3080 ist schlecht. Das Nanoruckeln muss den Spielern auf Dauer doch den letzten Nerv kosten, dazu noch unscharfe Texturen.

Rennt ok kein Vergleich zum Valhalla Abfall.

https://youtu.be/EEKzIh8XRZo?t=492

Geldmann3
2021-10-07, 14:33:41
Dafür wurde doch die TI nach (ein) geschoben?
Bewusst, fast ein Jahr nachdem sich alle die Speicherkrüppel kaufen mussten, um die Leute abzugrasen, die unbedingt ein Speicherupgrade möchten, denen man sonst nämlich gar nichts verkaufen hätte können. Die Option auf mehr Speicher hätte man auch von Anfang an geben können, ja, ich behaupte felsenfest solche Karten lagen ein paar Tage vor Release sogar schon in gewissen Lagern, anhand der Marktsituation hat man diese allerdings wieder zurückgezogen. Wäre die 6900 XT 20% schneller gewesen, hätte es direkt darauf eine 20GB RTX 3080 gegeben, die bereits bereitlag.

aufkrawall
2021-10-07, 14:44:45
Jeder konnte nach dem HD-Pack für New Dawn wissen, was bei 6 mit D3D12 passieren wird. Hab ich btw. auch oft genug zum besten gegeben, jetzt sind wieder alle überrascht *gähn*...

][immy
2021-10-07, 14:49:22
Bewusst, fast ein Jahr nachdem sich alle die Speicherkrüppel kaufen mussten, um die Leute abzugrasen, die unbedingt ein Speicherupgrade möchten, denen man sonst nämlich gar nichts verkaufen hätte können. Die Option auf mehr Speicher hätte man auch von Anfang an geben können, ja, ich behaupte felsenfest solche Karten lagen ein paar Tage vor Release sogar schon in gewissen Lagern, anhand der Marktsituation hat man diese allerdings wieder zurückgezogen. Wäre die 6900 XT 20% schneller gewesen, hätte es direkt darauf eine 20GB RTX 3080 gegeben, die bereits bereitlag.
Ich würde mal behaupten das nvidia anders gehandelt hätte, wenn sie gewusst hätten, in welche Richtung sich die Grafikkartenpreise entwickelt haben. Dann hätten sie auch direkt die Preise höher angesetzt und es wäre nicht mal aufgefallen, bei dem aktuellen Markt.
Doppelt verkaufen kann man aktuell eh nicht, da man es gar nicht ausgeliefert bekommt.

Aber realistisch gesehen, die RTX 3070 & 3080 Karten werden sich langfristig eh mit 1440p begnügen müssen. Und dort ist der Speicher noch vollkommen ausreichend. Auch zwischen den höchsten Texturstufen gibt es meist nur extrem geringe unterschiede.

Zugute kommt den Karten in Zukunft wohl auch (wenn sie dann nicht sowieso schon wieder zum alten Eisen gehören) das mit DirectStorage dann auch endlich SSDs wirklich mal unterstützen können und sich der Footprint von gecachten Texturen im Speicher reduzieren würde. Allerdings muss man ehrlicherweise auch sagen, das dies auch schon länger über den Umweg eines Caches im üppigen RAM heutiger PCs möglich wäre. Wie man ja grad am HBCC Feature bei Vega (Raff hat es ja gestern geposted) schön sieht.
Der größte Teils des Speichers ist halt nichts als Cache der selten genutzt wird. Das ließe sich auch gut im RAM abbilden. Aber den nutzen heutige Spiele ja kaum mehr aus.

aufkrawall
2021-10-07, 14:53:03
[immy;12813290']Auch zwischen den höchsten Texturstufen gibt es meist nur extrem geringe unterschiede.

Gibt es je nach Definition häufig auch zwischen ultra und high Details, zwischen denen aber leistungsmäßig häufig eine ganze Klasse Unterschied liegt. Alle NV-Karten außer 3060 und 3090 haben zu wenig VRAM, Punkt. Da gibts einfach mal nichts zu beschönigen...

Ex3cut3r
2021-10-07, 16:40:32
Als ob die UVP Preise auch ohne Corona und Chipknappheit so massenweise in den Handeln gelangt wären, nein die UVP Preise waren von anfang an Fake, auch ohne Corona und Chip Shortage hätte man real so gut wie nie angetroffen. Die Partner wie ASUS usw. sagen selber vom UVP Preis könnten wir gar nicht überleben. Quelle dazu kann man googeln.

][immy
2021-10-07, 17:10:47
Gibt es je nach Definition häufig auch zwischen ultra und high Details, zwischen denen aber leistungsmäßig häufig eine ganze Klasse Unterschied liegt. Alle NV-Karten außer 3060 und 3090 haben zu wenig VRAM, Punkt. Da gibts einfach mal nichts zu beschönigen...
Mit mehr Speicher hätten sie aber wesentlich höhere Preise. AMD hat ja hier mit dem Cache schon ein wenig getrixt um möglichst günstigen Speicher nutzen zu können.

Zu wenig ist halt immer Ansichtssache. Ziel sollte es so langsam ja sowieso mal sein, das wir nicht ständig eine Speicherverdopplung brauchen, was die neuen Konsolen ja jetzt auch angestoßen haben. Und wie schon erwähnt, zeigen die aktuellen Vega Benches mit HBCC ja, das es halt auch mit normalen RAM geht, ohne dabei Geschwindigkeit zu verlieren.

Aber ich glaube wir kommen da nicht überein mit unseren Meinungen ;)

Ex3cut3r
2021-10-07, 17:14:54
Natürlich ist Sampler Feedback oder das AMD Dingens ne tolle Technologie, allerdings dauert sowas am PC viel zu lange bis sowas mal ankommt.

8 und 10 GB werden garantiert nicht so lange reichen, bis Sampler Feedback in jedem neuen PC Port intergiert ist, deswegen braucht man am PC bis dahin mal wieder eine VRAM Verdopplung. D.h. 16GB sollten absolut ausreichen für das PS5 Zeitalter.

sChRaNzA
2021-10-07, 17:16:24
[immy;12813433] Aber ich glaube wir kommen da nicht überein mit unseren Meinungen ;)

Bester Satz den ich seit langem online gelesen habe. Danke dafür.

ChaosTM
2021-10-07, 17:31:57
Der knappe Speicher wäre schon bei 77 vor bald einem Jahr ungut aufgefallen, hätte NV nicht einen VRAM Cap bei 10GB "angeregt". ;)

Edgecrusher86
2021-10-08, 08:27:10
Naja, für angemessen hätte ich gehalten:
980 Ti: 8GB
1080 Ti: 12GB
2080 Ti: 16GB
RTX 3090: Okaaay, 24GB passt diesmal schon, aber der Preis... Für das Geld müsste es beim nächsten Mal definitiv mehr Vram werden, woran ich zweifle.


Naja, das wäre ohne SI-Erweiterung oder Abspeckung nicht so einfach möglich gewesen bei Maxwell V2 und Turing. Man hätte natürlich auch zum Beispiel den Rest miserabel anbinden können - 970 Reloaded, nur dieses dann im Premium-Segment. ;D :freak:
Also entweder 512-bit SI und die volle Menge oder ein Kompromiss wie je 7GB und 14GB bei 448-bit zum Beispiel, wenn korrekt angebunden. Oder eine kleinere Version und 320-bit bei 10GB und 20GB.... :D

Ja, angemessen wäre 8GB sicherlich für eine 980 Ti, keine Frage - aber die 16GB für Turing, wenn es nur um SGPU-Nutzung und Zocken geht, halte ich für etwas zuviel [TITAN RTX mal außen vor - ist ja keine "reine Zocker-Karte" ^^]....ähnlich 24GB jetzt, muss man sagen - zumindest rein als Gamer-Produkt.
14GB für die 2080 Ti wäre ein guter Kompromiss gewesen meiner Meinung nach - aber dann wäre der Chip vielleicht aufgebläht auf 800mm². Zumindeste 12GB hätte Jensen spendieren dürfen, der alte Geizkragen - genauso bei der 3080. :D

24GB VRAM soll ja auch noch Lovelace bieten und das passt sicherlich sehr gut bei der kolportierten Leistung. 32GB oder 48GB wäre sicherlich wieder "too much". Darüber kann man dann für eine 5090 nachdenken.

Geldmann3
2021-10-08, 08:53:03
Stimme in allen Punkten zu.
Naja, ich sehe Grafikkarten schon als etwas mehr als nur Gamer Produkte, doch selbst dann...
Die Titan der nächsten Generation könnte ich mir mit 48GB Vram vorstellen, die kostet dann aber auch 3K.

Es gibt halt ein paar absolute Frechheiten, die Nvidia in den letzten Jahren gebracht hat:
Platz 1: 8GB Vram bei der RTX 3070 (Ist ja wohl ein Witz, bei 2080 Ti Grundleistung)
Platz 2: 10GB Vram bei der RTX 3080 (Karte unnötig verstümmelt, Speicherdowngrade zur 2080 Ti mit 35% mehr Performance?)
Platz 3: 11GB Vram bei der 2080 Ti. (Hallo? Kein Speicherupgrade zur Vorgängergeneration? Mit solchen Ideen wird nur angefangen, wenn es zu lange keine Konkurrenz gab.)

Dr.Doom
2021-10-08, 09:42:40
NV hat sich vmtl. gedacht, dass man dank DLSS ja gar nicht mehr so viel Speicher verbauen muss.

Lurtz
2021-10-08, 09:53:44
Natürlich ist Sampler Feedback oder das AMD Dingens ne tolle Technologie, allerdings dauert sowas am PC viel zu lange bis sowas mal ankommt.

8 und 10 GB werden garantiert nicht so lange reichen, bis Sampler Feedback in jedem neuen PC Port intergiert ist, deswegen braucht man am PC bis dahin mal wieder eine VRAM Verdopplung. D.h. 16GB sollten absolut ausreichen für das PS5 Zeitalter.
Du glaubst doch nicht ernsthaft, dass Sampler-Feedback den VRAM-Bedarf groß senken wird, wenn Crossgen-Titel jetzt schon 12 GB aufwärts voll machen.

ChaosTM
2021-10-08, 09:57:55
NV hat sich gedacht.: wir cashen jetzt noch intensiver ab. Die Marge muss weiter wachsen, damit der Börsenkurs weiter steigt.
Aus kaufmännischer Sicht wars auch völlig richtig, nur die Leute die sich die Krüppeldinger gekauft haben werden doppelt abgezockt, da sie deutlich früher kaufen müssen.

Des einen Freud, des anderen Leid. ;)

Geldmann3
2021-10-08, 10:44:36
Ja, ganz ehrlich, es war schlau von Nvidia gespielt, jedes Mal.
Wenn ihnen doch die ganze Hardware aus den Händen gerissen wurde, trotz starken Einschränkungen beim VRam, haben sie alles richtig gemacht, aus kaufmännischer Sicht.

Traurig aber wahr, so läuft das in einem Markt ohne Konkurrenz.

Mich ärgert es ein wenig, dass sie, wie Intel mit den Quadcores, den Fortschritt damit wahrscheinlich ein wenig aufgehalten haben.
Im Endeffekt schlecht für alle auf dieser Welt.
Was meint ihr, warum man mit 10GB Vram noch so gut auskommt, nur weil die Entwickler die Spielesettings entsprechend beschneiden.

Was meint ihr, wie Ubisofts-Patch für die 10GB VRam Probleme aussehen wird?
Man wird irgendwo Details verringern.
Unmerklich, doch so wird es laufen.
(Oder in diesem Fall das Caching stark optimieren.)
In der Regel wird für sowas aber nicht an der Engine herumgeschnippelt, sondern es werden einfach Details verringert, bis es passt, denn das kostet 10x weniger Ressourcen und Optimierung geht auch nur bis zu einem gewissen Grad, wird exponentiell schwerer.

Das macht nichts, wenn es einmal der Fall ist, doch über den Jahren macht es einen großen Unterschied, wenn die ganze Industrie sich daran orientiert.

Zugute halten muss ich Nvidia die Raytracing, smarte-Upscaling und AI-Revolution, nenne ich es mal.
Das alles würde ohne Nvidia bisher kaum Verwendung in Games finden.

][immy
2021-10-08, 10:48:40
Du glaubst doch nicht ernsthaft, dass Sampler-Feedback den VRAM-Bedarf groß senken wird, wenn Crossgen-Titel jetzt schon 12 GB aufwärts voll machen.
Darum geht es doch bei SFS. Naja, das Grundgerüst gab es ja schon vorher, war mit HDDs jedoch nie anwendbar. SFS soll ja nur dafür sorgen, das auch wirklich nur das in den Speicher geladen wird, was wirklich benötigt wird und das ist, deutlich, deutlich weniger als aktuell.
Allerdings müssen die Daten dann auch entsprechend kleinteilig abrufbar sein, was mit großen "Zip"-Paketen nun mal nicht so gut klappt. Hier kann man natürlich jetzt schon länger den Arbeitsspeicher des Rechners als "SSD-Ersatz" nehmen, aber das macht aktuell kaum jemand. Ist halt besonders im PC Bereich noch alles dafür ausgelegt auch mit 8GB Speicher (RAM) laufen zu können, daher wird da fast nichts zusätzliches gepuffert.

Und man muss dazu sagen, aktuell wird SFS ja noch nicht mal genutzt. Die Spiele müssen erst mal dafür angepasst werden und solange die letzte Gen noch unterstützt wird, wird sich da relativ wenig tun.
Stattdessen sehen wir ja aktuell besonders bei der Xbox das Spiele immer nur zusätzliche Pakete bekommen, anstatt für die neue Konsole komplett umstrukturiert zu werden. So hat man dann mit einer Series X gern mal die Pakete für die Xbox one version + Pakete für die xbox one x version + Pakete für die Series X version auf dem System. Ist natürlich für den Entwickler deutlich einfacher zu managen, aber hilft nicht die neuen Techniken zum Speicher-sparen auch mal weiter zu bringen. SF/SFS bringt halt nichts, wenn du trotzdem große Pakete in den Speicher holst und entpackst.
SF ist ja auch entstanden, weil die meisten Daten die in den Speicher geladen werden nie verwendet werden, sondern maximal als Buffer dort liegen. Da gibt es noch viel zu holen. Aber ja, bei 8GB kann es schon eng werden, besonders wenn noch RT & co dazu kommt, wofür die aktuellen Karten aber in Zukunft eh kaum gewapnet sein dürften (wie es bei allen "neuen" Features im Grafikbereich immer so war).

dargo
2021-10-08, 11:31:31
Was meint ihr, warum man mit 10GB Vram noch so gut auskommt, nur weil die Entwickler die Spielesettings entsprechend beschneiden.

Lol... jedes Spiel ist nur ein Kompromiss. Spiele werden auf vorhandene Hardwarebasis zugeschneidert, nicht umgekehrt. ;)

Geldmann3
2021-10-08, 13:51:19
Das höchste Settings des ART-Marks (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) hatte ich ohne Rücksicht auf Verluste gebaut und mit dem höchsten-Setting eines Games, würde ich es eiskalt auch so machen, um die Hardware-Hersteller zu pushen. ;D

Wer weiß, vielleicht hat's funktioniert, die nächste Generation soll schließlich mächtig werden. ;D

Die Spieler werden schon runterschalten, wenn sie keine 10FPS mehr kriegen und mir ganz lieb schlechte Optimierung nachrufen. :freak:

dargo
2021-10-08, 13:53:25
Das höchste Settings des ART-Marks (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) hatte ich ohne Rücksicht auf Verluste gebaut und mit dem höchsten-Setting eines Games, würde ich es eiskalt auch so machen, um die Hardware-Hersteller zu pushen. ;D

Du hast echt keinen blassen Schimmer von Spieleentwicklung. Mit deinem Ansatz wärst du ruckzuck pleite. Zumindest beim regulären Spielepreis. Wenn du natürlich genug Käufer für sagen wir mal 1.000€ pro Spielkey findest (lol) könnte es u.U. funktionieren.

Geldmann3
2021-10-08, 13:54:35
Ich weiß. ;)

Müsste ich Geld damit verdienen und möglichst alle zufriedenstellen, hätte ich es so nicht machen können.

Hmm, man könnte beim höchsten Setting vielleicht noch eine Warnung einblenden, von wegen, dass es wahrscheinlich schrecklich laufen wird und man es auf eigene Gefahr wählt.
Beim ersten Watchdogs hätte ich mir sowas gewünscht, damit man es irgendwann so spielen könnte, wie es im Trailer aussah.
Den Polycount des Trailers hat man leider nie so im Game zu sehen bekommen, obwohl sie die Assets eindeutig hatten.
Ubisoft wollte eben die Konsolenspieler pleasen, nehme ich an. Auch die Partikeleffekte kamen selbst mit Mods nie ganz auf das Level.

Oder wie ich es heute noch in Spielen hasse, nach einigen Metern LOD-Pop-In zu sehen.
Selbst im neuen Forza.
Gebt mir doch bitte wenigstens die Option es höher einzustellen und lasst mich entscheiden, ob es mir der Performancedrop wert ist.

Das wagen die Devs halt nicht.
Und deshalb sorgt weniger VRam dauerhaft für schlechtere Grafik, um wieder darauf zurückzukommen.

Selbst, wenn man das höchste Setting ,,Mein Leben" oder ,,Can it run Crysis?" nennt, muss es heute gut laufen.

The_Invisible
2021-10-08, 14:29:52
Für mehr Details/LOD braucht man auch wieder mehr Rechenleistung, wie oft wollt ihr das eigentlich noch diskutieren? Reichen die ~20fps in CP77 in 4k/Ultra noch nicht oder wollt ihr einstellig werden?

Manchmal denkt man sich hier oft man redet gegen eine Wand, Kritik wird nicht gern gehört ;)

aufkrawall
2021-10-08, 14:36:10
Und da liegst du einfach falsch, Texturen brauchen eben fast keine Leistung. Was ist denn daran so schwer zu verstehen?

Raff
2021-10-08, 14:39:32
aufkrawall, wir sind ja selten einer Meinung, aber: Volle Zustimmung, bitte weiter aufklären und energisch gegen margenbedingten Speicherstillstand trommeln (dann muss ich nicht ständig allein PCGH-Artikel zum Thema posten ;)). :up:

MfG
Raff

Geldmann3
2021-10-08, 14:40:25
Für mehr Details/LOD braucht man auch wieder mehr Rechenleistung, wie oft wollt ihr das eigentlich noch diskutieren? Reichen die ~20fps in CP77 in 4k/Ultra noch nicht oder wollt ihr einstellig werden?

Manchmal denkt man sich hier oft man redet gegen eine Wand, Kritik wird nicht gern gehört ;)

Ja und die Rechenleistung haben wir in ein paar Jahren, wo ist das Problem?
(LOD kann natürlich schon Rechenleistung kosten, wenn z.b. Geometrie enthalten ist.)

Außerdem läuft Cyberpunk gar nicht so schlecht bei mir und wir haben auch diverse Upscaling-Methoden, wenn es heute mal noch nicht reicht. (Ziemliche- mindblowing Upscaling-Methoden)

Auf einem Full-HD Monitor hättest Du auch wieder entsprechend freiliegende Performance.
Wenn 8K Standard ist, in weit entfernter Zukunft, wird sich beschwert, dass 8K nicht flüssig @Ultra laufe.

Na und, Auflösung runter, Setting runter oder ein paar Generationen warten und fettisch.

Im Optimalfall würde man die User scharf warnen, dass sie dieses Setting mit der jeweiligen Hardware lieber nicht wählen sollten.
Wenn da eine dicke, rote Box als Warnung erscheinen würde, dann sollte man sich nicht beschweren, wenn es dann nicht ordentlich läuft, wenn man es doch einstellt.

vinacis_vivids
2021-10-08, 14:53:47
Ich konnte mich sehr gut erinnern:
Vor paar Jahren gabs die R9 390 8GB und die GTX970 3,5GB + 0,5GB zum gleichen Preis im Abverkauf vor der neuen Generation. Der doppelte Speicher lässt die Karte wesentlich länger leben und bei vollen Texturen weiterspielen.
Was haben die meisten NV-Zombies getan? Sich natürlich den Krüppel 3,5GB + 0,5GB geholt wegen der damaligen Balkenlänge.


R9 390 8GB ist im Jahr 2015 released worden. Das sind 6 Jahre her! Die technische Stagnation beim VRAM hat NV mit verursacht und auch noch ein Haufen Kohle kassiert. Sowas gehört nicht belohnt sondern bestraft. AMD hats mit der Fury (X) 4GB die Lektion hart lernen müssen.

aufkrawall
2021-10-08, 15:01:08
Ah ja, und die ca. doppelt so schnelle und teure 5700 XT hatte dann weshalb nur genau so viel/wenig RAM? Die 6600 XT hat btw. auch locker genug Leistung für Far Cry 6, aber nicht genug VRAM für die HD-Texturen...

Geldmann3
2021-10-08, 15:20:35
Die 5700 XT war in meinen Augen auch eine Sünde.

Mir kam damals direkt der Gedanke, dass man sich jetzt wohl mehr an Nvidia orientiert hat.
Was aus aus kaufmännischer Sicht leider erfolgreich für AMD war.

Die Karte sollte ein paar Monate zuvor auch definitiv noch anders heißen und wesentlich weniger kosten.

Ich denke wirklich, dass man sich im übertragenem Sinne gedacht hat:,,Komm, änder' das Namensschema und pack 150$ drauf, das schlucken sie auf dem aktuellen Markt auch schön!"
Gab ja sogar Bilder, in denen noch RX 690 draufgedruckt war.
Prost!

][immy
2021-10-08, 16:32:42
Ich konnte mich sehr gut erinnern:
Vor paar Jahren gabs die R9 390 8GB und die GTX970 3,5GB + 0,5GB zum gleichen Preis im Abverkauf vor der neuen Generation. Der doppelte Speicher lässt die Karte wesentlich länger leben und bei vollen Texturen weiterspielen.
Was haben die meisten NV-Zombies getan? Sich natürlich den Krüppel 3,5GB + 0,5GB geholt wegen der damaligen Balkenlänge.


R9 390 8GB ist im Jahr 2015 released worden. Das sind 6 Jahre her! Die technische Stagnation beim VRAM hat NV mit verursacht und auch noch ein Haufen Kohle kassiert. Sowas gehört nicht belohnt sondern bestraft. AMD hats mit der Fury (X) 4GB die Lektion hart lernen müssen.
Nochmal, entsprechend schneller Speicher wie auf den RTX Karten derzeit ist deutlich teurer als der langsamere auf den Radeon Karten. AMD hat das mit dem Cache ganz gut ausgeglichen.
Man hätte noch mal teurere Speicher-Steinchen verwenden können oder das interface verbreitern und doppelt so viele dran flanschen können.
Aber scheinbar sind nvidia die Kosten dafür zu hoch bzw. der Gewinn dann zu klein. Rein Marktwirtschaftlich hat nvidia da alles richtig gemacht.

Und ich wage auch noch mal zu behaupten, zwischen der höchsten Texturstufe und einer darunter sieht man normalerweise (außer auf Screenshots) keinen unterschied. Aber so geht das jetzt sowieso schon ein paar Jahre. Die Texturqualität ist inzwischen derart hoch, das auch deutlich höher aufgelöste Texturen kaum mehr etwas ausmachen. (IHMO)

Wenn der Speicher tatsächlich mal dazu führen sollte, das ein Spiel unspielbar wird in einer annehmbaren Qualitätstufe, sag ich euch bescheid ;)


Rein von der Effizienz her, ist immer mehr Speicher als reinen Puffer der zu 80% nicht genutzt wird einfach Verschwendung. Das ist ähnlich sinnvoll wie 800PS Autos im Stadtverkehr.

ChaosTM
2021-10-08, 17:27:14
8/10 sind einfach nicht mehr zeitgemäß im High End Bereich, wenn die 1080ti vor 4,5 Jahren schon mehr hatte UND eine neue Konsolengeneration auf den Markt kam.

Dass es da zu Engpässen kommen wird war vorprogrammiert. Kann mich dank der 16GB meiner mobilen "3080"er* vorerst mal entspannt zurück lehnen. Die kurz angedachte mobile 3070er wäre praktisch sofort obsolet geworden.

*herrlich effiziente GPU!

Rancor
2021-10-08, 18:54:24
schon nen Diss für Leute die ne 3080 gekauft haben ^^

vinacis_vivids
2021-10-08, 20:18:42
Ampere ist Verarsche pur für die Desktop Nutzer. Im mobilen Bereich haut NV ne "3080 16GB" raus... Lolz.

Geldmann3
2021-10-08, 20:58:41
Einige hier argumentieren tatsächlich, dass Nvidia das getan hätte, weil Vram was kostet.
Weil es mehr gekostet hätte, die RTX 3070 oder RTX 3080 mit ein paar GB mehr Vram auszustatten.

https://i.ibb.co/8PHhHDm/Repentant-Cooperative-Deermouse-size-restricted.gif

Das ist zwar wahr, aber ganz weit entfernt von dem Hauptgrund, weshalb Nvidia das getan hat. ;D
Wenn das so wäre, hätte man jeweils direkt eine zweite Option mit doppelten Speicher releasen können und die Kosten sogar doppelt an den Kunden weitergeben können.
Aber nein, Nvidia weiß ganz genau, dass sie noch viel mehr Geld machen, wenn der Kunde sich früher oder später eine komplett neue Karte kaufen muss.

Einige denken noch, Nvidia sei gut zu ihnen gewesen, mit der RTX 3070 8GB oder RTX 3080 10GB.

War doch ein guter Kauf?!

Und ja, in dem Moment, auf diesem Markt, war es das vielleicht sogar.
Will den Kauf auch gar nicht madig reden.
Sicher kann man sehr viel Spaß mit diesen GPUs haben und trifft im normalen Alltag eher selten auf Probleme.
Doch die Karten sind, wie mein Vorredner schreibt, leider ziemliche Verarsche.

Wie ein Telefon, dessen Akku man nicht tauschen kann, allerdings noch schlimmer, denn bei Telefonen bekommt man das mit etwas Mühe noch hin oder von jemand anderem erledigt.
Vram ist hingegen sehr schwer zu tauschen.

Sardaukar.nsn
2021-10-08, 21:06:26
Ich glaube wer vor einem Jahr eine 3080 zu etwa UVP bekommen hat, wird sich nicht wirklich beschweren. Ist ja nicht ohne Grund die beliebteste Grafikkarte dieser Generation.

sChRaNzA
2021-10-08, 21:18:29
Ich glaube wer vor einem Jahr eine 3080 zu etwa UVP bekommen hat, wird sich nicht wirklich beschweren. Ist ja nicht ohne Grund die beliebteste Grafikkarte dieser Generation.

Hab ich, sehe auch kein Problem daher.

Und ja, in dem Moment, auf diesem Markt, war es das vielleicht sogar.

Man ließt doch auch ständig, dass man für das JETZT kaufen soll und es ''Zukunftssicherheit'' bei Hardware so nicht gibt. Wenn das so ist, dann ist auch eine ''was wäre wenn''-Ansicht unpassend. Je nach Auflösung gesehen.

Geldmann3
2021-10-08, 22:08:48
Ja, wenn man das wirklich so schwarz/weiß sieht und man keine Anwendung für mehr VRam im hier und jetzt hat, ist das richtig.

- Hält die GPU im Zweitrechner eben nur 3 statt 6 Jahre.
(Weil Nvidia es so will.)

- Verzichtet man halt auf etwas Texturqualität.
(Einfach nur, weil Nvidia es so will.)

- Rendert man halt in QHD statt in 4K.
(Nvidia weiß schon, dass man nicht mehr braucht.)

Nein, nein, alles gut.
:freak: Wahrscheinlich triggert es mich so, weil ich mit 10GB Vram gerade, in den hohen Auflösungen in denen ich zocke, meist nicht auskommen würde.
Doch den meisten ,,reicht" das wirklich erstmal.

Hat man halt ein bisschen Pop-In in Crysis, niedrigere Texturqualität in Far Cry, kann seine teuer erworbene GPU nicht nutzen, um mal internes 6K auszuprobieren. AI-Rendering-Experimente kann man auch nicht machen, genauso wenig wie hochauflösende Videos in Adobe After Effects rendern, braucht man ja nicht, man ist ja nur ,,Gamer". Warum sollte ein Gamer sowas wollen? haha, allein der Gedanke, ich mache mich noch lächerlich. Gamer haben nicht produktiv zu sein, das haben die Leute mit der 5.000€ Quadro zu machen.

Nein wirklich, alles gut. :D Ich muss mich beruhigen. ;D:freak:

//
Find's halt auch ein bisschen ranzig.
Wir als Gamer haben GPUs groß gemacht, nur wegen uns gibt es die GPUs heute als diese General-Purpose-Processing-Units, wie man sie kennt.
Ohne uns wäre Nvidia gar nichts, durch die Leute die daheim mit ihren GPUs experimentiert haben, kam es zu dieser Revolution, zu diesem Fortschritt.
Seit 2012 auch im Bereich AI. Eben weil jeder Zuhause damit experimentieren konnte, auf Hardware, die man bereits hatte.
Daher ist zu wenig Vram auch eine reine Fortschrittsbremse.
Diese Funktionalitäten, will man uns nun wieder abnehmen und zu ,,Gamern" degradieren.

Glaubt mir, wer es noch nicht gemacht hat, mit euren GPUs könnt ihr (noch) viel mehr tolle Sachen machen als zocken.
Wunderhafte Dinge... Wenn ihr den Vram habt.

Sardaukar.nsn
2021-10-08, 22:52:35
Wie viele Grafikkarten in der Steam Statistik haben denn mehr als 10GB VRAM? 5% oder doch nur 2%?

@Geldmann3 Das ist doch nur exotischer Kram, hat mit der Breite an Gamern doch eher wenig zu tun.

Geldmann3
2021-10-08, 22:59:20
Man muss eben alles ins Verhältnis setzen.

Wie viele Grafikkarten in der Steam Statistik haben denn die Rechenleistung einer RTX 3080?

Sardaukar.nsn
2021-10-08, 23:15:59
Ich denke mal eher wenige. Ich betreibe meine 3080 auch nicht als 4k Karte sondern bin sehr zufrieden mit 3440x1440p Ultrawide. In den diesjährigen Unreal Engine 6 Spielen wie The Ascent oder Outriders war die Performance mit DLSS einfach nur Bombe. Auf die Umsetztung in Battlefield bin auch sehr gespannt.
Derzeit bin ich viel in "New World" unterwegs, was einfach nur Rohleistung braucht, aber auch da liefert die 3080 mit 100+ FPS.

Natürlich sind die Geschmäcker und Vorlieben ganz unterschiedlich. So lege ich Wert darauf das die Hardware mich auch optisch anspricht. Insbesondere die GPU als wichtigster Teil des PC. Anderen ist das alles völlig egal, und ist ja auch eine, pragmatische, nachvollziehbare Sicht. Für mich darf es ruhig etwas Acryl sein: https://i.imgur.com/Yku6TQk.jpg

Geldmann3
2021-10-08, 23:23:09
Sieht schon geil aus Dein Rechner!
haha, da soll mal jemand mit einer PS5 dagegen kommen oder so, dagegen ist das Gott persönlich.

Meiner ist nur eine unscheinbare, schwarze Box. ^^

Du meinst die Unreal Engine 5. ;)

gedi
2021-10-08, 23:50:43
Die 5700 XT war in meinen Augen auch eine Sünde.

Mir kam damals direkt der Gedanke, dass man sich jetzt wohl mehr an Nvidia orientiert hat.
Was aus aus kaufmännischer Sicht leider erfolgreich für AMD war.

Die Karte sollte ein paar Monate zuvor auch definitiv noch anders heißen und wesentlich weniger kosten.

Ich denke wirklich, dass man sich im übertragenem Sinne gedacht hat:,,Komm, änder' das Namensschema und pack 150$ drauf, das schlucken sie auf dem aktuellen Markt auch schön!"
Gab ja sogar Bilder, in denen noch RX 690 draufgedruckt war.
Prost!

Hm - not really. Die 5700XT war zu dem Zeitpunkt an dem sie released wurde, exakt platziert! Schneller als eine 2070 und ganz nah dran an einer 2070s. Von daher ...

Eine 6600XT? Schrott - das SI zu klein, der ominöse Cache zu klein und die Rechenpower zu klein. Wenigstens passt der Verbrauch so in etwa.
Man könnte argumentieren, nette 1080p-Karte. Finde ich auch - für 200€ :freak:

Sardaukar.nsn
2021-10-08, 23:51:45
Danke. Das "braucht" natürlich kein Mensch so, aber das zusammenstellen und bauen war ein großer Teil der Freude an dem System. Vor allem weil es auch wieder einige Herausforderungen gab. Ich möchte aber nicht zu off-topic werden.

Trotzdem möchte ich nur kurz loswerden: Es gibt auch 3080 Käufer die recht viel spielen und mit ihren Karten sehr zufrieden sind ;)

The_Invisible
2021-10-09, 07:53:12
Warum sollte ein Gamer sowas wollen? haha, allein der Gedanke, ich mache mich noch lächerlich. Gamer haben nicht produktiv zu sein, das haben die Leute mit der 5.000€ Quadro zu machen.



Klar hat das Nvidia (wie auch AMD) zu entscheiden, geben dann ja auch speziell Support dazu. Genauso wie es auch Xeon/Epyc & Co mit ihren Eigenheiten gibt, kenne keine Firma die eine Mainstream CPU als Server betreibt ohne ECC usw.. regst du dich da auch auf?

Wenn ihr mehr VRAM wollt kauft halt eine A6000 mit 48GB, hab ich ja schon öfter geschrieben, komischerweise nie eine Antwort dazu erhalten.

Der Mainstream hat noch immer 6/8GB und Spiele werden darauf auch noch längere Zeit gut laufen, vor allem bei den derzeitigen hohen Preisen wo viele noch mit der alten Generation unterwegs sind.

Bleibt doch mal realistisch, man würde denken als könnte man mit einer 3080er gar nichts mehr spielen, dabei gurken manch andere sogar noch mit 4GB Karten herum und haben ihren Spaß.

gnomi
2021-10-09, 10:27:46
Ich glaube wer vor einem Jahr eine 3080 zu etwa UVP bekommen hat, wird sich nicht wirklich beschweren. Ist ja nicht ohne Grund die beliebteste Grafikkarte dieser Generation.

Leider ging ich damals leer aus bei dieser Zotac Amazon Vorbestellung, wo sich alle drauf stürzten. 700 Euro wären für den Leistungszuwachs zur 2080 gut gewesen.
Für etwa 1000 Euro gegen Ende letzten Jahres wäre die Karte allerdings auch noch etwas besser gewesen als die 3080 TI zu 1500 in diesem Jahr.
Mit den jetzigen Preisen hat es sich imho gedreht.
Zwar finde ich die HD Texturen in Far Cry 6 jetzt nicht so entscheidend, (Spiel sieht nicht ganz so scharf und gut wie erwartet allgemein aus; HD Packs wie schon vorher die beiden eher nur Goodie) aber UWQHD> ist generell etwas knapp mit 10Gigabyte für 2 Jahre+.
Nvidia ist beim VRam zu knausrig. Da gibt es keine zwei Meinungen, auch wenn Spiele nach Oben hin da meist mies skalieren und der VRAM Verbrauch sehr von den Engines bestimmt wird und andere Dinge im Ergebnis grafisch mehr entscheidend sind. (Qualität Content; Produktionsaufwand und Optimierungsressourcen)
Eine neue High End Karte sollte schon paar Monate alle Optionen aufgedreht erlauben. Zu normalen Zeiten käme es jedenfalls schon etwas als Enttäuschung beim Kunden an. (aktuell geht es so durch ; nvidia macht mal wieder alles richtig...)
Ich habe selbst mit den 12 kein ganz rundes Gefühl und blicke schon neidisch auf die 3090 FE Karten. Das wäre der perfekte Kauf 2020 gewesen, denn diese Karten haben nicht mal Wertverlust und bieten das beste Erlebnis für eine lange Zeit.
3060 ist VRAM seitig auch gut ausgestattet, aber meines Erachtens dafür zu langsam. Würde ich nicht kaufen oder der 3060 TI vorziehen.
Die 70er Karten brauchen jetzt mal ein Update.
Natürlich sind das alles gute Karten. Ich würde die VRAM Problematik nicht wie PCGH so in jedem Artikel überbewerten. Aber die Konkurrenz durch AMD ist doch zunehmend sehr wichtig. Wäre auch gut, wenn Intel mehr mitspielt in Zukunft. GPU's werden dermaßen zum Luxux Produkt. Ich mag das Hobby ja auch, aber mit einer 1070 hätte man natürlich auch den ganzen Mist zu Recht aussitzen und gut weiterspielen können.
Diese ganze Generation mit Ray Tracing und den neuen Konsolen habe ich mir ganz anders vorgestellt. Möchte entspannt so ne Konsole im Vorbeigehen testen können. Und keine GPU zu Mondpreisen kaufen müssen.
Mal sehen, ob das tatsächlich so bleibt jetzt. :confused:

The_Invisible
2021-10-09, 10:55:04
Eine neue High End Karte sollte schon paar Monate alle Optionen aufgedreht erlauben.

Unter welchen Bedingungen? 720p, 1080p, 4k, 8k, 16k? Gibt hier im Forum ja unterschiedliche Meinungen, gibt auch genug Spiele die selbst mit der 3090 keine 4k/60/max erlauben, nicht weil VRAM limitiert sondern Rechenleistung fehlt.

Hängt euch doch nicht so am VRAM auf, das ist ein Parameter von vielen.

Geldmann3
2021-10-09, 11:12:19
Wenn ihr mehr VRAM wollt kauft halt eine A6000 mit 48GB, hab ich ja schon öfter geschrieben, komischerweise nie eine Antwort dazu erhalten.


Du willst also, dass nur Reiche und Professionelle die Wissenschaft vorantreiben und hochwertige Inhalte produzieren dürfen?
Mit AI-Workloads experimentieren usw.?

Wie geschrieben (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12814819&postcount=330), erst durch die Gamer kam Nvidia dahin, wo sie jetzt sind.

Was meinst Du, warum wir uns noch keine A6000 gekauft haben, schau mal auf den Preis.

Für 2000€ hätte ich schon eine A6000 in meinem Rechner, darauf kannst Du Gift nehmen.
Doch, wie wird hier immer so schön geschrieben?
Die A6000 ist ,,preislich außerhalb meiner Interessenslage".

Doch mir geht es hier ja nicht nur um mich, mit meiner RTX 3090 kann ich mich ja noch als relativ reich betrachten.
Sondern eher um RTX 3070, RTX 3080 Nutzer.
12GB Vram braucht man, um in gewissen Bereiche wie AI-Gedöns überhaupt mal reinschnuppern zu können, das wäre schonmal gut, wenn die Breitflächig da wären.
Alles darüber geht dann immer mehr in die Richtung ,,nice to have" oder ,,for enthusiasts".
Jedenfalls ist das 2021 gefühlt noch so.

gnomi
2021-10-09, 12:36:08
Unter welchen Bedingungen? 720p, 1080p, 4k, 8k, 16k? Gibt hier im Forum ja unterschiedliche Meinungen, gibt auch genug Spiele die selbst mit der 3090 keine 4k/60/max erlauben, nicht weil VRAM limitiert sondern Rechenleistung fehlt.

Hängt euch doch nicht so am VRAM auf, das ist ein Parameter von vielen.

Da hast du selbstverständlich Recht.
Die Meinungen gehen nun mal auseinander.
Alles andere wäre auch besorgniserregend.
Imho würde ich WQHD mit 60-120 fps für eine 80er Karte vom Gefühl her ansetzen. Die TI habe ich mir für UWQHD gekauft.
Das ist so (untere) Oberklasse.
Die 2080 OC wurde zu langsam in dieser Auflösung.
4K 60 mit einer 3080 ist imho bisschen hoch gegriffen, auch wenn das in den ersten zwei Jahren der Karte wahrscheinlich auch noch zu locker >80% klappt.
Wem das reicht, für den ist das der perfekte Kauf.
Alle anderen werden bei dem erstbesten Spiel wie Far Cry 6 natürlich mit dem VRAM kommen. (auch wenn man das gut so spielen kann ohne 40GB extra- haben die Konsolen überhaupt das Pack und Raytracing - eher nein denke ich mal)

Edit: HD Texturen gibt es tatsächlich für Xbox Series X und PS5. Download Größe ist allerdings kleiner als für PC.
Hmm, mal Digital Foundry Bericht dann checken, ob das nicht wieder eine eigene Konsolen Qualitätseinstellung dann ist.
Xbox One X und PS4 Pro Vergleich wäre auch interessant wegen RAM.

TobiWahnKenobi
2021-10-09, 16:03:35
die PS5 version von FC6 ist 70GB groß. wenn du jetzt rausfindest, wie groß der download für PS4 ist, kannst du ausrechnen, dass auf das HD-texturpack etwa 30GB entfallen. eine explizite option zum aktivieren/deaktivieren der HD-texturen gibt es auf der PS5 nicht.


(..)

mfg
tobi

dildo4u
2021-10-09, 19:33:07
Doch man kann das HD Pack löschen.

https://youtu.be/XtiybFp0qqE

Geldmann3
2021-10-09, 19:59:39
Nice, dass wir so scharfe Texturen, dank deren 16 GB GDDR6 Ram, nun auch auf Konsolen bewundern dürfen.

Ex3cut3r
2021-10-09, 20:47:08
Du glaubst doch nicht ernsthaft, dass Sampler-Feedback den VRAM-Bedarf groß senken wird, wenn Crossgen-Titel jetzt schon 12 GB aufwärts voll machen.

Wieso nicht? Schau dir mal was HBCC von AMD grade bei FC6 macht. Man kann dort mit einer 8GB Vega 56 die HD Texturen ohne Probleme nutzen, selbst eine 1350€ teure 10GB RTX 3080 kriegt das nicht hin, da bekommt man Matsch angezeigt.

Und HBCC ist am langsamen RAM zugeschnitten. Sampler Feedback macht auch nix anderes. Es funktioniert ohne Probleme sehr gut.

Nur am PC dauert es komischerweise wieder mal Jahre oder gar Jahrzehnte bis sowas endlich auf dem PC kommt. Die neuen Konsolen wie die PS5 können es schon. Und da laufen auch die HD Texturen von FC6 ohne Probleme. Und das trotz ingesamt 13GB nutzbaren Speicher RAM/VRAM.

Nvidia ist einfach ein Meister darin, Kunden mit 8GB oder 10GB für total überteuerte Preise zu "verarschen" und gleichzeitig solche Technologien wie HBC, oder Sampler Feedback weiter hinauszuzögern. Ich war schockiert, als Nvidia die 3070, 3070 Ti, 3060 Ti schon wieder mit 8GB angekündigt hatte.

Hier HBCC mit FC6 auf einer Vega 56 mit HD Texturen aktiviert. In WQHD ohne starke Frametime Varianzen, in 4K schon, aber das könnte auch andere Gründe haben, die Vega 56 ist in 4K einfach total überfördert. Am ende gibt es dann nochmal HD Texturen ohne HBC, also 8GB VRAM = Matsch.

GlsMt8BwqHY

Rancor
2021-10-09, 21:09:31
Und trotzdem haste dir ne 3080 gekauft :D

TobiWahnKenobi
2021-10-09, 21:15:42
Doch man kann das HD Pack löschen.

https://youtu.be/XtiybFp0qqE

nö, nur in videos und auf bildern anderer leute. bei mir nicht. es taucht nirgends explizit auf.

https://abload.de/img/img_6741blkut.jpg



(..)

mfg
tobi

vinacis_vivids
2021-10-11, 15:45:23
Far Cry 6 // RTX 3080 vs RX 6800 XT | 1440p, 4K
mMIue2mGKNI

Schaut mal auf der linken Seite was da passiert bei "VRAM overflow".

Ex3cut3r
2021-10-11, 17:55:59
Brauchst du mir nicht sagen, ich kann das Problem aus erster Hand, mit einer GTX 770 2GB, welche ich mir im September 2013 (zum Geburstag mit frischen 23 Jahren gekauft habe für sage und schreibe 370€) zu genüge.

Schon 2014 hatte ich bei den ersten PS4 Ports Probleme in FHD Auflösung mit 2GB über die Runden zu kommen, leider mein größter Fehlkauf bisher was Technik anging. Digtal Foundry Tweak Guides oder ähnliches gabs damals leider auch nicht, da müsste man selber Std. mit verbringen und Settings vergleichen und analysieren.

blaidd
2021-10-11, 18:49:28
Sampler Feedback ist meines Erachtens eher was für die Zukunft - Wenn die Materialien noch hochauflösender und komplexer werden. Dann braucht man sowas meines Erachtens auch beinahe schon, sonst bekommt man die Texturen im Gesamten eventuell kaum noch verwaltet (mit SF kann man einzelne Teile einer Textur und genau in den passenden MIP-Stufen laden, also nur das, was man wirklich auch zu sehen bekommt).

Z.B. für sowas wie die Virtual Textures der UE5 (die kann allerdings auch schon Tiled Resources, geht in die gleiche Richtung) oder vergleichbare Techniken, die sicherlich auch andere Engines einsetzen werden. Diese Materialien sind jetzt schon gewaltig und das ist sicherlich noch nicht das Ende der Fahnenstange. Ohne SF hätte man da nicht nur VRAM-Probleme, sondern eventuell auch Bandbreitenprobleme (trotz SSDs etc.)

Ex3cut3r
2021-10-11, 19:40:42
Ja genau. Und wann meinst du, können wir damit rechnen?

The_Invisible
2021-10-11, 19:40:53
Man kommt halt auch langsam auf Speichergrößen die man nicht immer verdoppeln kann, ich sehe da schon fast quasi einen Stillstand.

Meine 32GB RAM habe ich zb schon seit 2015 und man hat damit heute vielleicht grad mal in 2 Spielen Vorteile (Anno1800, FS2020, vielleicht noch andere Sims) gegenüber 16GB... der nächste Schritt zu 64GB ist nochmal riesiger.

Konsolen: Bis zur PS4 hat sich der Speicher quasi mit jeder neuen Gen versechzehnfacht, diesmal gab es gerade mal eine Verdoppelung, dafür gibt es eine Highspeed SSD.

Bin gespannt wo das hinführt vor allem wenn die SSDs mit neuen PCIe Standards immer schneller werden, das PCIeGen4 x4 Limit ist ja schon wieder erreicht :D

Geldmann3
2021-10-12, 00:53:10
Die niedrig aufgelösten Texturen in Far Cry 6 auf der RTX 3080 scheinen ein Software-Problem zu sein.
Die RTX 3080 nutzt ihren vorhandenen Vram scheinbar nicht voll aus.

WghfGVJ5AaI

Wobei ich da auch fast die Schuld bei Nvidia sehe, wenn ich ganz provokativ denke. :D:mad:

Das kommt davon, wenn man so völlig schiefe Mengen wie 10GB Vram in den eigenen GPUs verbaut und eventuell auch noch extra-strange Treiberarbeit dafür leistet.
Alles aufgrund des ultimativen Geizes.

aufkrawall
2021-10-12, 01:48:17
Mit meiner 3060 sind auch nie mehr als 9,5GB belegt, i.d.R. weniger. Aber immer noch mehr als mit einer 3080. Liegt am Spiel, das alloziert offenbar nicht mehr als 80% des VRAMs. Es scheint eine groteske Unkenntnis unter Entwicklern darüber zu geben, wie man vernünftig mit dem VRAM umgeht. Schätze mal, da hat auch Microsoft massive Scheiße gebaut...

-/\-CruNcher-/\-
2021-10-12, 05:07:10
Die niedrig aufgelösten Texturen in Far Cry 6 auf der RTX 3080 scheinen ein Software-Problem zu sein.
Die RTX 3080 nutzt ihren vorhandenen Vram scheinbar nicht voll aus.

https://youtu.be/WghfGVJ5AaI

Wobei ich da auch fast die Schuld bei Nvidia sehe, wenn ich ganz provokativ denke. :D:mad:

Das kommt davon, wenn man so völlig schiefe Mengen wie 10GB Vram in den eigenen GPUs verbaut und eventuell auch noch extra-strange Treiberarbeit dafür leistet.
Alles aufgrund des ultimativen Geizes.


Naja man kann es auch anders sehen "Wenn die anderen zu Faul geworden sind es effizient zu nutzen" ;)

Aber ja über Kurz oder lang bekommt Nvidia ein Problem zu viele sind Faul geworden ;)

Und der obligatorische 500 MB verlust + der neue Raytracing verlust der kann sich nun mal zeigen wenn nicht alles ultra effizient durchgestreamt wird.

Dunias ewige Refactoring probleme zeigen sich zudem auch noch.

Sony muss man gratulieren sie haben da nirgends gespart und eine Top Geeky Hardware Config zusammengeschusstert

Was noch am witzigsten ist wenn Alex die Konsolen mit Intel CPU vergleicht die überhaupt nirgends die Konsolen Config wiederspiegelt :D

Der Verbrauch seines Test Scenarios zudem schon X mal höher ausgefallen ist ;)

Wie kann man sich da selbst ernst nehmen so beschissen gegen die Konsolen optimierung zu vergleichen so weit ausserhalb der gesammten zugrundeliegenden HSA.

blaidd
2021-10-12, 10:56:44
Ja genau. Und wann meinst du, können wir damit rechnen?

Ziemlich bald, schätze ich - sobald nicht mehr wirlklich auf die alte Hardware Rücksicht genommen werden muss und man sich dann umfangreiche Optimierungen dafür sparen kann - und auf eine relativ hohe Verbreitung von Sampler Feedback setzen kann. Ist wahrscheinlich auch eher ein schleichender Übergang und es dürften auch tendenziell für ältere Hardware ausgelegte Titel einen gewissen Boost geben, wenn man das da nachträglich implementieren würde (was vielleicht aber gar nicht so simpel wäre). Far Cry 6 hätte es wahrscheinlich nicht geschadet...

Sweepi
2021-10-12, 15:24:28
Bei beiden Karten (6800/3080) sieht man, z.B. auf der linken Seite, dass - sehr sichtbar - (detailliertere) Texturen/Geometrie(?) nachgeladen wird:
https://youtu.be/WghfGVJ5AaI?t=1010

vinacis_vivids
2021-10-12, 15:50:18
Auf der rechten Seite sind die Texturen Matsch (6800/3080)
https://youtu.be/WghfGVJ5AaI?t=1035

Ex3cut3r
2021-10-12, 17:02:58
Ziemlich bald, schätze ich - sobald nicht mehr wirlklich auf die alte Hardware Rücksicht genommen werden muss und man sich dann umfangreiche Optimierungen dafür sparen kann - und auf eine relativ hohe Verbreitung von Sampler Feedback setzen kann. Ist wahrscheinlich auch eher ein schleichender Übergang und es dürften auch tendenziell für ältere Hardware ausgelegte Titel einen gewissen Boost geben, wenn man das da nachträglich implementieren würde (was vielleicht aber gar nicht so simpel wäre). Far Cry 6 hätte es wahrscheinlich nicht geschadet...


Danke für deine Einschätzung. :up:

Auf der rechten Seite sind die Texturen Matsch (6800/3080)
https://youtu.be/WghfGVJ5AaI?t=1035

Schön dämlich, unter 11 GB oder noch besser 12GB sollte man die HD Texturen auch nicht nutzen. Die SD Texturen sehen dann besser aus, als der Matsch mit den HD Texturen bei zu wenig VRAM.

Edgecrusher86
2021-10-13, 08:05:51
Stimme in allen Punkten zu.
Naja, ich sehe Grafikkarten schon als etwas mehr als nur Gamer Produkte, doch selbst dann...
Die Titan der nächsten Generation könnte ich mir mit 48GB Vram vorstellen, die kostet dann aber auch 3K.

Es gibt halt ein paar absolute Frechheiten, die Nvidia in den letzten Jahren gebracht hat:
Platz 1: 8GB Vram bei der RTX 3070 (Ist ja wohl ein Witz, bei 2080 Ti Grundleistung)
Platz 2: 10GB Vram bei der RTX 3080 (Karte unnötig verstümmelt, Speicherdowngrade zur 2080 Ti mit 35% mehr Performance?)
Platz 3: 11GB Vram bei der 2080 Ti. (Hallo? Kein Speicherupgrade zur Vorgängergeneration? Mit solchen Ideen wird nur angefangen, wenn es zu lange keine Konkurrenz gab.)

Auf jeden Fall - sowas muss nicht sein - gerade, wenn die Karten eh deutlich teurer werden (also bezogen auf die MSRPs - Knappheit und Scalper sogar außen vor gelassen).
Ist natürlich ein kluger Schachzug, dass möglichst viele Kunden dann eine oder spätestens zwei Generationen danach aufrüsten müssen, will man noch HD-Texturen und Highres genießen.
Diesbezüglich ist AMD über die letzten Jahre im Großen und Ganzen spendabler gewesen - bis auf Ausnahmen wie Fiji. Diese Generation ist man wieder sehr gut dabei -
8GB für FHD-Mainstream, 12GB (U)WQHD-Performance a la NV 104er, 16GB für 4K-Highend. ;)

Rancor
2021-10-13, 10:25:14
Wenn man das Video 3 Sekunden weitergeschaut hätte, dann wäre aufgefallen das FC 6 bei Nvidia Karten scheinbar nicht den ganzen VRAM allokiert. Das wird von DF sogar explizit erwähnt. Scheinbar scheint da noch was nicht richtig zu stimmen.
Ändert natürlich nichts daran das 10GB für die 3080 weiterhin nen Fail bleiben.

aufkrawall
2021-10-13, 14:21:37
Wenn man das Video 3 Sekunden weitergeschaut hätte, dann wäre aufgefallen das FC 6 bei Nvidia Karten scheinbar nicht den ganzen VRAM allokiert.
Nochmal: Das hat nichts mit Nvidia zu tun, sondern macht das Spiel auf jeder Karte so. Hier:
BEvfDc1I0jg

Er macht auch die 8GB der 6600 XT nicht ansatzweise voll. Einfach völlige Blödheit am Werk...

Rancor
2021-10-13, 16:13:13
Das ist ja in der Tat ziemlich dumm.

MasterElwood
2021-10-22, 11:25:30
Selbst wenn ich alle Programme geschlossen habe die VRAM verbrauchen könnten, (Games, Steam, Browser...) sind immer noch rund 1GB belegt mit irgendwas (RTX 3080).

Was kann das sein? Kann man sich irgendwie die VRAM Speicherbelegung ansehen? :confused:

sapito
2021-10-22, 12:41:22
Selbst wenn ich alle Programme geschlossen habe die VRAM verbrauchen könnten, (Games, Steam, Browser...) sind immer noch rund 1GB belegt mit irgendwas (RTX 3080).

Was kann das sein? Kann man sich irgendwie die VRAM Speicherbelegung ansehen? :confused:

dein OS

MasterElwood
2021-10-22, 12:51:20
dein OS

Also is 1GB normal?

sapito
2021-10-22, 12:59:43
Also is 1GB normal?

wird schon stimmen

ansonsten process explorer verwenden

https://docs.microsoft.com/de-de/sysinternals/downloads/process-explorer

HisN
2021-10-22, 13:01:22
Der Fenstermanager, ist ja schließlich hardwarebeschleunigt.
Je nach Auflösung, Anzahl der Monitore wird da VRAM belegt.

Geldmann3
2021-10-22, 16:20:16
Der Fenstermanager, ist ja schließlich hardwarebeschleunigt.
Je nach Auflösung, Anzahl der Monitore wird da VRAM belegt.

Oh maaan, durch Deinen Post habe ich nun eine Idee bekommen, warum meine Benchmarkergebnisse bei den 8 GB-Karten (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12823569#post12823569) hier so in die Tonne gegangen sind. Ich hatte nämlich einen 8K TV + 4K TV + 4K Capture Card angeschlossen, die als weiterer Monitor erkannt wird. Was jedenfalls jetzt gerade, mit der RTX 3090, bereits für einen VRam Verbrauch von ~3,7GB sorgt.

Ist das normal? :freak:

Wenn ich nur den 8K TV abschließe, halbiert sich die Speicherauslastung.

Dachte aus den Zeiten, in denen man nur wegen der Monitorauflösungen auf die GPU schauen muss, wären vorbei.
Lustigerweise macht es scheinbar keinen Unterschied, ob ich das Upscaling von GPU oder Display übernehmen lasse.

Also Finger weg von 8GB Karten, wenn man einen 8K TV anschließen möchte?
Muss das mal nach einem Neustart testen...

Edit: Wobei ich mir bei der Capture Karte nicht sicher bin, ob die dran war.
Doch allein der 8K TV gibt dem Vram scheinbar schon gut was zu tun....

Edit 2: Okay, nach einem Neustart sind es nur noch 2,6 - 2,8 GB Grundauslastung und unter 1 GB, wenn ich den 8K TV entferne.

The_Invisible
2021-10-22, 17:21:28
Habe ich ja schon mal hier geschrieben: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607364

Dachte auch immer bei Fullscreen Anwendungen räumt er den VRAM der Hintergrundanwendungen frei bzw. lagerts in den RAM aus, aber nix. Wenn man genug Fenster offen lässt ist fast der halbe VRAM von 6/8GB Karten weg, manche Spiele zeigen das sogar richtig an.

dildo4u
2021-10-27, 10:39:22
Recht aufällig hier in F1 2021 und FC6, Win 11 könnte NV ein bissel retten mit ihren 8GB Modellen.


https://youtu.be/U5Q6tNnOuZs?t=396

][immy
2021-10-27, 14:26:13
Was ist eigentlich aus NVCache geworden? Das sollte doch mit Ampere kommen, ist bisher aber nicht viel passiert.
Vega56 zeigt ja das HBCC schon ausreicht um da einiges mehr raus zu holen.

aufkrawall
2021-10-27, 14:35:37
Recht aufällig hier in F1 2021 und FC6, Win 11 könnte NV ein bissel retten mit ihren 8GB Modellen.


https://youtu.be/U5Q6tNnOuZs?t=396
Man, WDDM 2.0 war dann ja wohl echt geil. Ich weiß noch, was für ein Fortschritt es in Just Cause 3 mit der 780 Ti war, dass es statt gelegentlicher Stotterer unter Win 8.1 dann anhaltende Leistungseinbrüche bis zur Unspielbarkeit unter Win 10 gab. ;D

dildo4u
2021-11-10, 13:03:20
Die Anzeigen sind zwar nicht 100% genau aber FH5 nimmt nicht mal 9GB auf einer 3090 in 4k Extreme.

Ta4bZOsQPoM

Raff
2021-11-10, 13:30:31
Kommt hin, ich hatte nach einer langen Session an verschiedenen Orten einen Allokations-Peak von ~12 GiB in 4K (echtem) mit manuell maximierten Settings und 4x MSAA. Mit 8 GiB hat man "da oben" halt trotzdem ein Problem, mit 10 nicht.

MfG
Raff

Thunder99
2021-11-11, 09:28:48
Macht es einen Unterschied mit der Belegung wenn die Option "GPU Hardware Scheduling" oder so aktiviert bzw nicht nutzt?

SamLombardo
2021-12-08, 13:47:05
No Man's Sky in VR ist auch ein RAM Fresser allererster Güte. Die die 12 Gigabyte meiner 3080Ti sind bis zum Rand voll, und das mit Texturen auf "hoch". Texturen auf Ultra ist unspielbar, weil Vram fehlt. Nebenbei vernascht das Spiel auch 15 GB System RAM. Dass No Man's Sky vor allem in VR der absolute Wahnsinn ist, gehört zwar nicht in diesem Thread aber ich erwähne es trotzdem mal:smile:

Rampage 2
2021-12-12, 07:19:39
[immy;12830968']Was ist eigentlich aus NVCache geworden? Das sollte doch mit Ampere kommen, ist bisher aber nicht viel passiert.


+1

Würde ich auch gerne wissen - ist als Technik an sich schon hochinteressant:smile: (also unabhängig vom letztendlichen reellen Nutzen)

Wenn diese Technik wirklich hinhauen *sollte*, dann sollten auch Nvidia's geizige Speichermengen nicht mehr sooo schlimm sein, falls mal der VRAM überläuft:D

No Man's Sky in VR ist auch ein RAM Fresser allererster Güte. Die 12 Gigabyte meiner 3080Ti sind bis zum Rand voll, und das mit Texturen auf "hoch". Texturen auf Ultra ist unspielbar, weil Vram fehlt. Nebenbei vernascht das Spiel auch 15 GB System RAM. Dass No Man's Sky vor allem in VR der absolute Wahnsinn ist, gehört zwar nicht in diesem Thread aber ich erwähne es trotzdem mal:smile:

- In welcher Auflösung spielst du?

- Inwiefern "unspielbar"? Zu oft Nachladeruckler oder zu lange Nachladeruckler (ein halbes Dutzend Sekunden und länger)? Game-Freeze? Abstürze? Oder "nur" verringerte Texturqualität, Texturschwund, etc. ?

- Ist das Problem (Unspielbarkeit) beseitigt, sobald Du *ohne* VR spielst? Reicht dann der Grafikspeicher aus?

- Wurde schon eine sachliche und nüchterne Analyse gemacht, wieviel VRAM das Spiel braucht (brauchen != nutzen/beanspruchen) um auch in VR mit maximaler Texturstufe reibungslos spielbar zu sein? Natürlich angepasst auf die jeweilige Auflösung; 1080, 1440p, echtes 4K, etc. ...

Seit den News von einer bevorstehenden 3090 Ti/Super habe ich im letzten Moment den Kauf einer 3080 Ti auf Eis gelegt, weil scheinbar immer noch unklar ist, wie lange 12GB Speicher in der Zukunft reichen werden. Es kann aber sein, dass ich mich doch wieder für die 3080 Ti entscheide - hängt alles primär von der UVP der 3090 Ti/Super ab...

(Argumente wegen "UVP vs. Realpreise!!!11elf" braucht ihr nicht zu erwähnen; wir wissens;))

R2

SamLombardo
2021-12-12, 09:51:36
Moin. Im Moment ist es so, dass ich das Spiel ausschließlichen VR spiele/bisher gespielt habe. Ich spiele mit der Reverb G2, die hat eine Auflösung ein Stückchen oberhalb von 4k (4320x2160). Die "Unpielbarkeit" äußert sich darin, dass sobald die Texturen von Hoch auf Ultra gestellt werden, die FPS von 80-90 auf 15 runtergehen. Texturen wieder zurück auf Hoch und es läuft wieder flüssig. Deswegen gehe ich mal von einem v-ram Problem aus. GPU-Z zeigt auch, dass der v-ram selbst mit hohen Texturen komplett gefüllt ist. Es kann natürlich an etwas anderem liegen, aber ich denke die Indizien sprechen doch für den RAM Verbrauch als Ursache:wink:.

ChaosTM
2021-12-12, 10:18:45
Also is 1GB normal?

Mein Windows 10 hier verbraucht 0,8GB bei 2x Monitoren. Beide spaßeshalber mit 4x DSR, also 3840x2160/2400.
In Standard Auflösung sind es nur 0.4GB. 11 braucht vielleicht mehr..

Bei Forza am 3080er Laptop sehe ich gelegentlich Belegungen um die 12GB nach längeren Fahrten. Das springt dann aber rasch wieder unter 10. Wie viel davon aber wirklich nötig ist kann ich nicht sagen.

SamLombardo
2021-12-18, 07:47:01
Moin. Im Moment ist es so, dass ich das Spiel ausschließlichen VR spiele/bisher gespielt habe. Ich spiele mit der Reverb G2, die hat eine Auflösung ein Stückchen oberhalb von 4k (4320x2160). Die "Unpielbarkeit" äußert sich darin, dass sobald die Texturen von Hoch auf Ultra gestellt werden, die FPS von 80-90 auf 15 runtergehen. Texturen wieder zurück auf Hoch und es läuft wieder flüssig. Deswegen gehe ich mal von einem v-ram Problem aus. GPU-Z zeigt auch, dass der v-ram selbst mit hohen Texturen komplett gefüllt ist. Es kann natürlich an etwas anderem liegen, aber ich denke die Indizien sprechen doch für den RAM Verbrauch als Ursache:wink:.

Habe jetzt übrigens mal das normale nicht-VR Spiel ausgiebiger getestet, und da besteht das Problem nicht. In 4K mit allem auf Maximum, auch mit den Texturen auf Ultra nicht den kleinsten Ruckler oder sonstiges Anzeichen für überlaufen und VRAM. Scheint also wirklich ein VR spezifisches Problem zu sein.

blaidd
2021-12-24, 13:52:50
Habe jetzt übrigens mal das normale nicht-VR Spiel ausgiebiger getestet, und da besteht das Problem nicht. In 4K mit allem auf Maximum, auch mit den Texturen auf Ultra nicht den kleinsten Ruckler oder sonstiges Anzeichen für überlaufen und VRAM. Scheint also wirklich ein VR spezifisches Problem zu sein.


Liegt eventuell daran, dass bei VR aufgrund zweier Bilder manche Dinge doppelt gebuffert werden müssen, könnte ich mir zumindest vorstellen. Das ist ja nicht nur eine erhöhte Auflösung (wie bei einem Multi-Monitor-Setup), sondern sind zwei in ihrer Perspektive leicht verschobene Einzelbilder - zumindest theoretisch bräuchte man dazu wohl auch zwei mehr oder weniger komplette Berechnungen, inklusive den Buffern, etwa dem Depth-Buffer für Post-Processing von Ambient Occlusion etc. und zur Berechnung der Schatten usw.

Ex3cut3r
2021-12-25, 21:44:14
Control Max mit Max RT Settings @ 5K mit DLSS @ Balanced ~ 2970x1670 = 10454 MB an VRAM
Hohe 50er FPS mit VRR eigentlich ganz smooth.
Mit Textur Mod, Control - Blurry textures fix: https://community.pcgamingwiki.com/files/file/2035-control-blurry-textures-fix/

https://abload.de/img/control_dx12_2021_12_mtk25.png

https://abload.de/thumb/control_dx12_2021_12_0qkpz.jpg (https://abload.de/image.php?img=control_dx12_2021_12_0qkpz.jpg)

Guardians of the Galaxy 5K, DLSS B, Max + RT Ultra + Traspanrent Reflections ON ~ Etwas über 8GB

https://abload.de/img/gotg_2021_12_25_23_22yuk59.png

https://abload.de/thumb/gotg_2021_12_25_23_22kaj26.jpg (https://abload.de/image.php?img=gotg_2021_12_25_23_22kaj26.jpg)

Doom Eternal 5K, kein DLSS, Max + RT Max 11,8 GB VRAM

https://abload.de/img/doometernalx64vk_2021t2jzw.png

https://abload.de/thumb/doometernalx64vk_20215qk3k.png (https://abload.de/image.php?img=doometernalx64vk_20215qk3k.png)

HisN
2021-12-25, 22:50:20
Bei mir hat Control ein heftiges Streaming Problem.

TjUqOs4B4j0

Gynoug MD
2021-12-25, 23:36:15
Control Max mit Max RT Settings @ 5K mit DLSS @ Balanced ~ 2970x1670 = 10454 MB an VRAM
Hohe 50er FPS mit VRR eigentlich ganz smooth.

Hat der 27" G7 offiziell nicht nur eine Range von 60-240Hz bzw. ich finde beim 32" (80-240Hz) die Übergänge und die Unterschreitung des VRR-Bereichs, trotz LFC, nicht so smooth (z.B. CP2077).

Ex3cut3r
2021-12-25, 23:43:17
Ist eher ab 80-240HZ ;)

https://abload.de/img/unbenanntp4jxg.png

Merke ich mit LFC aber nix von. Du schon? Neuste FW installiert? VRR Control im Monitor OSD Off?

OCmylife
2021-12-26, 02:58:29
Bei mir hat Control ein heftiges Streaming Problem.

https://youtu.be/TjUqOs4B4j0

Ich hatte selbst mit der 3090 das Problem, dass die Texturen der Bilder an den Wänden teilweise erst sehr spät geladen wurden und mir hat die Mod hier geholfen:

https://community.pcgamingwiki.com/files/file/2035-control-blurry-textures-fix/

Vielleicht hilft sie ja auch in deinem Fall.

hq-hq
2021-12-26, 04:07:41
uh danke, hab das Problem auch, werd es probieren

Ex3cut3r
2021-12-26, 05:18:35
Ähmm ja, die MOD hatte ich oben in meinen Posting auch verlinkt. ^^

SamLombardo
2021-12-26, 11:41:15
Liegt eventuell daran, dass bei VR aufgrund zweier Bilder manche Dinge doppelt gebuffert werden müssen, könnte ich mir zumindest vorstellen. Das ist ja nicht nur eine erhöhte Auflösung (wie bei einem Multi-Monitor-Setup), sondern sind zwei in ihrer Perspektive leicht verschobene Einzelbilder - zumindest theoretisch bräuchte man dazu wohl auch zwei mehr oder weniger komplette Berechnungen, inklusive den Buffern, etwa dem Depth-Buffer für Post-Processing von Ambient Occlusion etc. und zur Berechnung der Schatten usw.
Das wird es wohl wirklich sein, anders ist das fast nicht zu erklären. Ohne VR in 4K mit allem inkl Texturen auf Ultra nicht mehr als 6900 MB VRAM - in VR mit Texturen auf Hoch (nicht ultra) 11900 MB. Auch der System-RAM Verbrauch steigt von 10GB auf 16GB. Eigentlich dennoch merkwürdig, von alten 3D Vision Zeiten meine ich mich noch zu erinnern, dass der RAM Verbrauch nicht signifikant gestiegen ist im Vergleich zur platten Variante (die allgemeine Anforderung an die Rechenleistung natürlich schon). Und auch dort wurden ja zwei Bilder berechnet für das Stereo. Hm.

Gynoug MD
2021-12-26, 15:29:20
Merke ich mit LFC aber nix von. Du schon? Neuste FW installiert? VRR Control im Monitor OSD Off?
Jop, alles aktuell, wie gesagt, besonders bei CP2077 zu spüren.

btw Seriosität von "Tests": ist das (auch hier)vielgelobte Prad mittlerweile auf areadvd-Niveau angekommen und taugt diesbezüglich nur noch als Werbe-Prospekt, oder ist das 1:1 Kopieren von Textpassagen obligat geworden, oder hat etwa die englische Seite den Prad-Test kopiert (Bis auf die Einleitung und andere Bildchen 1 zu 1 Englisch-Deutsch bzw. Deutsch-Englisch, alles mit verschiedenen Namen und jeweils ohne Quellenangabe)?
Deutsche Version:
https://www.prad.de/testberichte/test-viewsonic-xg320q-klasse-gaming-mit-top-bild/
Englische Version:
https://www.techtoyreviews.com/viewsonic-xg320q-review/

Ex3cut3r
2021-12-26, 15:38:24
Stimmt schon. Prad taugt (mir) auch nicht mehr.

Viel zu oberflächlich. Kaum richtige Messergebnisse. Tft Central oder RTings sind um einiges genauer.

Schade, dass du LFC merkst, wie äußert sich das bei dir? Hast du flickering?

Vlt. verhält sich die 27" anders als die 32er? Kann ich mir eigentlich vorstellen, aber man weiß ja nie.

Wann wurde deiner den hergestellt?

Meiner kommt aus der Woche 2021, week 18. Was Anfang Mai ist.

https://abload.de/img/unbenannt18bkrs.png

hq-hq
2021-12-26, 16:08:08
Ähmm ja, die MOD hatte ich oben in meinen Posting auch verlinkt. ^^

ja danke euch, funktioniert: https://abload.de/img/controlqxjq3.jpg:uup:

Gynoug MD
2021-12-26, 16:11:40
Stimmt schon. Prad taugt (mir) auch nicht mehr.

Viel zu oberflächlich. Kaum richtige Messergebnisse. Tft Central oder RTings sind um einiges genauer.

Schade, dass du LFC merkst, wie äußert sich das bei dir? Hast du flickering?

Vlt. verhält sich die 27" anders als die 32er? Kann ich mir eigentlich vorstellen, aber man weiß ja nie.

Wann wurde deiner den hergestellt?

Meiner kommt aus der Woche 2021, week 18. Was Anfang Mai ist.

https://abload.de/img/unbenannt18bkrs.png

bzgl. G7 und mehr (Spoiler wegen geringfügig Offtopic):
habe die FB02-Version, also die "neuere", Ende 2020 gekauft, keinerlei G-Sync-Probleme/Flickering, außer auf den 3 berühmten G7-Testbildern.
Innerhalb der Range alles top, bisher das schärfste Test-Ufo aller LCD.

Die Seiten behaupten immer (siehe PCGH), daß die allermeisten (nicht offiziell G-Sync-kompatiblen) Freesync-Displays problemlos von 1Hz-max FPS mit LFC und G-Sync laufen.
Kann ich nicht durchgehend bestätigen, zumindest lt. Pendel-Demo und subjektiver Spielerfahrung gibt es immer Mindest-FPS, die eingehalten werden sollten (trotz LFC) bzw. Übergangsruckeln, es fluppt einfach nicht mehr so.
Auch bei hohen FPS (>100, z.B. DoomE) hatte ich bei nicht "freigegebenen" FS-Displays Bildreißer im unteren Drittel, die mit gleichzeitig VRR+V-Sync geringer wurden, wobei V-Sync on bei G-Sync ja nur außerhalb der Range greifen soll.
:conf:
Selbst die G-Sync kompatiblen Dinger haben eine feste Range, die durch LFC zwar abgemildert wird, aber idealerweise spielt man mMn innerhalb des Bereichs (siehe o.g. G7, oder generell Nvida-Liste->Range)

Ex3cut3r
2021-12-26, 17:31:48
Ich kann dir in allen Punkten nur zustimmen, außer das ich immun bin, was LFC angeht. Ich merke es einfach nicht. Aber das ist wohl von der Person abhängig.

Das Bewegtbild ist wirklich außerordentlich gut. Selbst bei 60HZ.

Also meine Settings sind so. G-Sync Comp Fullscreen, 237 FPS Limit, und V-Sync ON Global im NV CP. Kein Tearing, Kein Flickern, kein Input Lag.


ja danke euch, funktioniert: https://abload.de/img/controlqxjq3.jpg:uup:

:up:

aufkrawall
2021-12-26, 21:30:01
Der Mod hatte afair leider mindestens stellenweise die Frame Time-Varianz verschlechtert.

hq-hq
2021-12-26, 21:43:39
Der Mod hatte afair leider mindestens stellenweise die Frame Time-Varianz verschlechtert.

die groben Bildtexturen waren so greislig, da hab ich das Game gleich mal auf Eis gelegt :freak: lieber ein Zucken + immer scharf als mal scharf mal 1993

Guardians of the Galaxy hat bei mir heute in 2160p DLSS Q mit RTX alles auf Maximum bis zu 7949 MB VRAM belegt, bei ca. 1100 MB "Vorbelastung"

FarCry6 RTX+HDR+allesMaximum 2160p bisher 13725 MB VRAM

aufkrawall
2021-12-26, 21:52:55
Guardians of the Galaxy
Ich hab keine eigenen Erfahrungen mit dem Spiel, aber es scheint überdurchschnittlich optimiert zu sein.

Ex3cut3r
2021-12-26, 23:32:25
RE8 (Village)

Max Settings + Max RT Settings, 1440p ~ 9,1 GB

https://abload.de/img/re8_2021_12_26_23_12_qbkkc.png

https://abload.de/thumb/re8_2021_12_26_23_12_3lj8q.png (https://abload.de/image.php?img=re8_2021_12_26_23_12_3lj8q.png)

Hmm, lief im Mai mit der 2080 nicht wirklich rund, allerdings war es damals noch DRM verseucht.

Ich musste damals auch in den Außenaralen, RT unbedingt ausmachen, um keinen VRAM überlauf zu haben.

Jetzt mit der 3080 Ti und ohne DRM Seuche, fluppt es einfach so wie nix. Unglaublich vorallem mit 240HZ Upgrade und VRR in der Zwischenzeit. Als das 60HZ Only Geraffel damals. :hammer:

Das ist definitiv auch so ein Beispiel, dass man als PCler lieber nicht zum rls. und zum vollpreis zuschlagen sollte.

UXZGCwAJpbM

HisN
2021-12-27, 01:14:46
Moin. Im Moment ist es so, dass ich das Spiel ausschließlichen VR spiele/bisher gespielt habe. Ich spiele mit der Reverb G2, die hat eine Auflösung ein Stückchen oberhalb von 4k (4320x2160). Die "Unpielbarkeit" äußert sich darin, dass sobald die Texturen von Hoch auf Ultra gestellt werden, die FPS von 80-90 auf 15 runtergehen. Texturen wieder zurück auf Hoch und es läuft wieder flüssig. Deswegen gehe ich mal von einem v-ram Problem aus. GPU-Z zeigt auch, dass der v-ram selbst mit hohen Texturen komplett gefüllt ist. Es kann natürlich an etwas anderem liegen, aber ich denke die Indizien sprechen doch für den RAM Verbrauch als Ursache:wink:.


Ich hab mal kurz mit der G2 getestet.
Beim ersten Planeten-Besuch gleich auf 15GB im VRAM.

Nutze fpsVR für die VRAM-Anzeige ingame.

SamLombardo
2021-12-27, 09:06:33
Ich hab mal kurz mit der G2 getestet.
Beim ersten Planeten-Besuch gleich auf 15GB im VRAM.

Nutze fpsVR für die VRAM-Anzeige ingame.
Wow, danke fürs Testen. Das Spiel will also schon noch mal ordentlich mehr VRAM, als meine 3080Ti maximal hätte. Das es so krass ist hätte ich jetzt nicht erwartet. Das ist ja mehr als das Doppelte im Vergleich zur nicht-VR Variante mit allem auf Maximum.:eek:

dildo4u
2021-12-27, 12:48:07
Wird normal sein wenn das Game nicht von Anfang an für VR konzepiert wurde.
Ich vermute ist das selbe mit Flight Sim 2020.

Ex3cut3r
2021-12-27, 14:42:55
Gut, das ich von VR nichts halte, ergo braucht man 16 oder 24GB VRAM. ;D

Ex3cut3r
2022-01-03, 03:05:04
Horizon Zero Dawn 5K DLSS P Max Details ~ 10,3 GB VRAM

https://abload.de/thumb/horizonzerodawn_2022_xgk13.jpg (https://abload.de/image.php?img=horizonzerodawn_2022_xgk13.jpg)

Ex3cut3r
2022-01-05, 19:10:45
Mirros Edge Catalyst rls. 2016

HYPER Details/Max

Satte 11,2 GB in 5K

https://abload.de/thumb/mirrorsedgecatalyst_2okjk3.png (https://abload.de/image.php?img=mirrorsedgecatalyst_2okjk3.png)

Außerdem hat das Game eine Art RT?!
Funktioniert vollkommen dynamisch, zwar nicht hochauflösend, aber für ein Spiel von 2016, geil. :eek:

https://abload.de/thumb/mirrorsedgecatalyst_2gckeu.png (https://abload.de/image.php?img=mirrorsedgecatalyst_2gckeu.png)

aufkrawall
2022-01-05, 19:14:10
Mirrors an ausgesuchten Stellen. Das Spiel würde massiv von RT-Reflexionen profitieren, wenn diese die SSR komplett ersetzen.

Ex3cut3r
2022-01-05, 19:16:38
Auf der Leak Liste die Nvidia ja selbst geleakt hat. Gabs es auch ein Mirrors Edge RTX Remaster. Das wäre IMO ziemlich geil.

Das Game ist immer noch eine Wucht, auch Teil 1. Diese Freiheit und den Adrenalin Schub in Verbindung mit dem Geschwindigkeitsgefühl ist Top Notch.

Demogod
2022-01-05, 21:19:54
Bei Halo Infinite darfste in relativ high settings (vor allem Textures lol) nichts anderes laufen haben was VRAM verbraucht. Das maxxed meine 8GB (RX 590) und crasht sonst auch mal gerne.

Ex3cut3r
2022-01-05, 22:53:30
Ok, kann ich nicht wirklich bestätigen. Bzw. verhält es sich mit GeForce anders?

Ultra bzw. alles was geht auf Max. 1440p mit Texture Pack.

8GB Belegt, 7,8 GB in Usage nach 2.Std Spielzeit.
Mit High aber Texturen Ultra pendelt es zwischen 6,5 und 7,5 GB.

https://abload.de/thumb/haloinfinite_2022_01_5zjsz.png (https://abload.de/image.php?img=haloinfinite_2022_01_5zjsz.png)

Ex3cut3r
2022-01-07, 14:26:53
Watch Dogs Legion Max Details, außer Auto Schweinwerfer Schatten @ x2 + RT Spiegelungen @ Ultra

5K mit DLSS P, Texture Packet an. 10 - 11 GB VRAM

https://abload.de/thumb/watchdogslegion_2022_kfkpd.jpg (https://abload.de/image.php?img=watchdogslegion_2022_kfkpd.jpg)

Für knapp 60 FPS @ 5K @ GA102 bitte folgendes benutzen.
Schatten High, RT @ High, DLSS P, Auto Schweinwerfer Schatten x2, rest Max. Kann aber nicht sagen, ob die 10GB der 3080 dafür reichen. Notfalls Texturen @ High dann. 3080 Ti und 3090 sind aber safe.

Rampage 2
2022-03-14, 19:11:01
Wurde eigentlich schon der diesjährige (2022) Steam HW Survey gemacht? Würde mich sehr interessieren, wieviel % der PC-Spieler eine GPU mit 11GB oder mehr VRAM besitzen?:smile:

R2

@Ex3:

Danke für deine Arbeit - sind sehr solide Analysen, wie gut eine 12GB-Karte in aktuellen Spielen performt:up:

R2

Rampage 2
2022-03-15, 13:29:28
Edit: Hab' selber recherchiert - anscheinend haben nur 6.6% der Steam-Nutzer eine GPU mit 11 oder 12GB VRAM und knapp 1% eine mit 24GB. Also insgesamt knapp 7.5% die 11GB oder mehr haben - falls also nicht 8GB VRAM (23.1%) der gemeinsame Nenner der maximalen Texturqualität für Spieleentwickler ist, dann ist es in Zukunft 12GB:)

R2

Di_Stefan0
2022-03-15, 13:55:25
Edit: Hab' selber recherchiert - anscheinend haben nur 6.6% der Steam-Nutzer eine GPU mit 11 oder 12GB VRAM und knapp 1% eine mit 24GB. Also insgesamt knapp 7.5% die 11GB oder mehr haben - falls also nicht 8GB VRAM (23.1%) der gemeinsame Nenner der maximalen Texturqualität für Spieleentwickler ist, dann ist es in Zukunft 12GB:)

R2

Du vergisst den Anteil derer, die eine Karte mit 16GB VRAM haben? Damit sind es mehr als 7,5%, die >11GB VRAM haben.

VG Di_Stefan0

Rampage 2
2022-03-15, 15:23:44
Du vergisst den Anteil derer, die eine Karte mit 16GB VRAM haben? Damit sind es mehr als 7,5%, die >11GB VRAM haben.

VG Di_Stefan0

Ebendie 16GB-Nutzer habe ich im Steam HW Survey auch gesucht und nichts gefunden - nur 10, 11, 12 und 24GB-Nutzer scheinen in der Statistik zu sein...:rolleyes:

R2

Ex3cut3r
2022-03-15, 16:31:42
Ich wurde vom Steam Survey noch gar nicht gefragt, ob er meiner HW Daten sammeln darf, seit ich die 3080 Ti habe. Von daher scheint das sicherlich nicht den aktuellen Stand wiederzugeben.

Da die 3060, 6700XT, die 3080 12GB und die 3080 Ti 12GB haben, sowie die kommende Mittelklasse bei AMD und Nvidia IHMO auch 12GB haben werden, ist 12GB für die nächsten Jahre tatsächlich sowas wie die 8GB der Letzen Jahre (IMHO)

DirectStorage sollte man aber auch nicht vergessen, da scheint es mittlerweile loszugehen. Forsaken mit UE5 wird wohl einer des ersten Titeln sein, denke ich. Die Technolgie ist ziemlich geil, damit reichen auch 6GB VRAM. (Vermutlich, mal abwarten, wie sich das entwickelt)

8jya3YU6ILc

https://www.computerbase.de/2022-03/directstorage-api-microsoft-windows-10-11/

ChaosTM
2022-03-15, 18:19:01
Ebendie 16GB-Nutzer habe ich im Steam HW Survey auch gesucht und nichts gefunden - nur 10, 11, 12 und 24GB-Nutzer scheinen in der Statistik zu sein...:rolleyes:

R2


ich hab eine mit 16GB - von Nvidia ;)

Rampage 2
2022-03-15, 21:33:58
ich hab eine mit 16GB - von Nvidia ;)

Es geht ja nicht darum, ob du eine hast, sondern wieviel % der PC-Gamer eine 16GB-Karte (egal ob von Nvidia oder AMD) haben;)

Ich nehme mal an, es ist eine "Quadro"-Karte?;) Im Consumer(GeForce-)-Segment existiert nämlich keine Nvidia-GPU mit 16GB-Bestückung...

Ich warte immer noch vergeblich auf die 16GB 3070 Ti:frown:

R2

sapito
2022-03-15, 23:09:20
Ich wurde vom Steam Survey noch gar nicht gefragt, ob er meiner HW Daten sammeln darf, seit ich die 3080 Ti habe. Von daher scheint das sicherlich nicht den aktuellen Stand wiederzugeben.

Da die 3060, 6700XT, die 3080 12GB und die 3080 Ti 12GB haben, sowie die kommende Mittelklasse bei AMD und Nvidia IHMO auch 12GB haben werden, ist 12GB für die nächsten Jahre tatsächlich sowas wie die 8GB der Letzen Jahre (IMHO)

DirectStorage sollte man aber auch nicht vergessen, da scheint es mittlerweile loszugehen. Forsaken mit UE5 wird wohl einer des ersten Titeln sein, denke ich. Die Technolgie ist ziemlich geil, damit reichen auch 6GB VRAM. (Vermutlich, mal abwarten, wie sich das entwickelt)

https://youtu.be/8jya3YU6ILc

https://www.computerbase.de/2022-03/directstorage-api-microsoft-windows-10-11/


die 3080 hat 10 GB :P:P:P

Rampage 2
2022-03-15, 23:26:18
die 3080 hat 10 GB :P:P:P

:confused:

Die *alten* 3080er haben nur 10GB, die neuen 12 - und kein Käufer bei Verstand wird sich jetzt noch die 10GB-Version holen...

R2

aufkrawall
2022-03-15, 23:27:25
Oder eine Ampere/RDNA2-Karte zu den Preisen, sind in Kürze nur noch Alteisen.

sapito
2022-03-16, 06:32:59
:confused:

Die *alten* 3080er haben nur 10GB, die neuen 12 - und kein Käufer bei Verstand wird sich jetzt noch die 10GB-Version holen...

R2

3080 > 10GB
3080 Ti > 12GB

ist das so schwer?

OgrEGT
2022-03-16, 07:06:24
3080 > 10GB
3080 Ti > 12GB

ist das so schwer?

Mittlerweile gibt es 2 Varianten der 3080...

3080 10GB 320bit SI 68SM GA-102-200
3080 12GB 384bit SI 70SM GA-102-220

3080ti 12GB 384bit SI 80SM GA-102-225

https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3080-12gb-review-test/

The_Invisible
2022-09-13, 11:28:06
Mal wieder ein Spiel für die VRAM Junkies https://www.computerbase.de/2022-09/steelrising-benchmark-test/ :D

HisN
2022-10-16, 22:11:19
So ist es.
SteelRising Hämmert die 24GB einer Titan RTX/3090/4090 instant voll.
UHD, Alle Regler bis auf Screenres max, RT aktiviert.

1. Bild im Game
https://abload.de/img/steelrising_2022_10_1r7e9r.jpg (https://abload.de/image.php?img=steelrising_2022_10_1r7e9r.jpg)

1. Bild in dem ich mich selbst bewegen darf.
https://abload.de/img/steelrising_2022_10_1gbd7g.jpg (https://abload.de/image.php?img=steelrising_2022_10_1gbd7g.jpg)

Ich hätte gerne eine 4090TI/Titan wie auch immer sie sich nennen wird^^

Raff
2022-10-16, 23:26:57
@HisN du hast nicht zufällig ein grafisch besonders gemeines Steelrising-Savegame zur Hand? Also in Sachen Fps, nicht unbedingt VRAM-Beladung. :)

MfG
Raff

Muskelbiber
2022-10-17, 02:17:50
So ist es.
SteelRising Hämmert die 24GB einer Titan RTX/3090/4090 instant voll.
UHD, Alle Regler bis auf Screenres max, RT aktiviert.


Ich hätte gerne eine 4090TI/Titan wie auch immer sie sich nennen wird^^

Das Spiel sieht aus wie aus 2013, my two cents…

aufkrawall
2022-10-17, 14:06:56
Kompletter Softwareschrott halt. Deathloop macht auch die 24GB voll. Aber wehe, man alt + tabt raus und startet den Browser. Dann gibts nach dem Reintabben genau so Ruckler wie mit Grafikkarten mit weniger VRAM. ;D

HisN
2022-10-17, 15:36:42
@HisN du hast nicht zufällig ein grafisch besonders gemeines Steelrising-Savegame zur Hand? Also in Sachen Fps, nicht unbedingt VRAM-Beladung. :)

MfG
Raff


Ich muss leider passen Raff, ich hab das Game gestern das erste mal gestartet^^

HisN
2022-10-19, 22:31:01
RRRRR
Fast 20GB wenn man in Uncharted mal GAS gibt. Wozu ist die Graka so ein Monster?

https://abload.de/img/u4_2022_10_19_22_24_2dufzq.jpg (https://abload.de/image.php?img=u4_2022_10_19_22_24_2dufzq.jpg)

SamLombardo
2022-10-25, 11:28:45
MS Flight Simulator VR mit der 4090 mit 180% Rendertarget und 175% Sichtweite gönnt sich auch mal eben 17Gb Vram. Der Flight Simulator war ja bisher immer als nicht wirklich Vram hungrig bekannt. Diese Zeiten sind mit den richtigen Settings wohl vorbei;).

SamLombardo
2022-11-20, 19:53:57
Das 40th Anniversary Update des MSFS hat den Vram Verbrauch noch mal ordentlich erhöht. Bei Flügen in VR über Manhattan gönnt sich meine 4090 jetzt 21Gb Vram:eek:. Absoluter Rekord ohne jegliche Mods oder dergleichen.

Inquisitor
2022-11-20, 20:04:38
Na wie gut, dass ich mich für die 4090 entschieden habe für FS :D

MasterElwood
2022-11-20, 20:13:39
Das 40th Anniversary Update des MSFS hat den Vram Verbrauch noch mal ordentlich erhöht. Bei Flügen in VR über Manhattan gönnt sich meine 4090 jetzt 21Gb Vram:eek:. Absoluter Rekord ohne jegliche Mods oder dergleichen.

Dx11 oder 12?

SamLombardo
2022-11-20, 20:17:45
Dx11 oder 12?
Immer noch 11. Stimmt, 12 sollte ich nach dem Update auch nochmal testen.

SamLombardo
2022-11-20, 20:22:50
Na wie gut, dass ich mich für die 4090 entschieden habe für FS :D
Jo, Auflösung im Open XR hoch, Sichtweite und Objettdichte hoch, Settinges hoch, DLSS Q... und ein völlig neues Erlebnis genießen. Klingt wie ein blöder Werbespruch, aber sorry, ist so:eek:.

Wuge
2022-11-20, 22:52:18
Vorallem juckt der MSFS einer übertakteten 4090 auch 550W raus :D

SamLombardo
2022-11-21, 17:34:46
Immer noch 11. Stimmt, 12 sollte ich nach dem Update auch nochmal testen.
Gerade mal in DX 12 getestet und der VRam Verbrauch ist da signifikant niedriger. Komme in Manhattan nicht über 17Gb, meist 15.5-16,5.

Dafür geht die Belegung von Systemram etwas nach oben, von etwa 12 auf 14 Gb.

Die GPU Auslastung ist auch nicht anders unter DX12 meist so zwischen 70 und 90 Prozent, identisch zu DX11.

Allerdings habe ich in DX12 in VR hin und wieder eine Art Lag beim Bewegen, wie als wenn die fps schwanken würden (was sie nicht tun), daher gehts erstmal auf DX11 zurück.

ChaosTM
2022-11-21, 18:18:30
Das 40th Anniversary Update des MSFS hat den Vram Verbrauch noch mal ordentlich erhöht. Bei Flügen in VR über Manhattan gönnt sich meine 4090 jetzt 21Gb Vram:eek:. Absoluter Rekord ohne jegliche Mods oder dergleichen.


Oh, ich muss die 80er vielleicht nochmals überdenken, obwohl ich bei 4K Ultra DLSS2 noch nicht über 12GB kam bisher. Das Spiel ist nebenbei ein Prime Kandidat für Direct Storage.
150% Render Target ist zwar witzig, bringt aber grafisch kaum mehr was. Muss ich mir noch genauer anschauen.

Mal schaun ob mein Netzteil bei Furmark abraucht. Lauft jetzt seit 15 Minuten und ich hör die Karte immer noch so gut wie nicht.
Wenn ja kommt ein neues ATX3 NT (nona)+ 90er. Für VR sicher ein Sicherheitspolster.

SamLombardo
2022-11-21, 18:52:24
Ich denke mal, diese hohen Vram Auslastungen sind eine VR Eigenheit. Ist ja bei No Mans Sky das Gleiche, 4k mit allem auf Maximum 6,9Gb, in VR 16Gb.

Wenn du nicht in VR unterwegs bist, sollte das mit den 16Gb der 4080 problemlos sein.

aufkrawall
2022-11-29, 21:10:38
Sackboy macht in 4k DLSS RT 7GB auf einer 4090 voll.

SamLombardo
2023-01-03, 18:07:01
Witcher 3 next gen in den Städten mehr als 14 Gb. Auch eine deutliche Steigerung im Vergleich zur ursprünglichen Version, die ja Vram technisch sehr genügsam war...

Rampage 2
2023-01-03, 19:21:46
Witcher 3 next gen in den Städten mehr als 14 Gb. Auch eine deutliche Steigerung im Vergleich zur ursprünglichen Version, die ja Vram technisch sehr genügsam war...

Welche Auflösung? Mit DS? DLSS an oder aus? MSAA oder sonstige AA-Modi zugeschaltet? Irgendwelche inoffiziellen (!) Texture-Packs oder -Mods enthalten?

R2

SamLombardo
2023-01-03, 20:11:20
Welche Auflösung? Mit DS? DLSS an oder aus? MSAA oder sonstige AA-Modi zugeschaltet? Irgendwelche inoffiziellen (!) Texture-Packs oder -Mods enthalten?

R2
Stimmt, sollte man dazu schreiben;). 4K, DLSSQ, alles auf maximum inkl. RT, die neuen ultra+ Settings. Aber keine zusätzlichen Mods oder Texturpacks.

Edit: in Novigrad teilweise 15,5 Gb

HisN
2023-01-04, 01:30:37
Kompletter Softwareschrott halt. Deathloop macht auch die 24GB voll. Aber wehe, man alt + tabt raus und startet den Browser. Dann gibts nach dem Reintabben genau so Ruckler wie mit Grafikkarten mit weniger VRAM. ;D


Ich bin endlich mal zum anschauen gekommen.
Relativ fix sind die 24GB voll^^
Genau wie Du sagst :-)

https://abload.de/img/deathloop_2022_12_08_h6dwg.jpg (https://abload.de/image.php?img=deathloop_2022_12_08_h6dwg.jpg)

Rampage 2
2023-01-07, 01:29:14
Stimmt, sollte man dazu schreiben;). 4K, DLSSQ, alles auf maximum inkl. RT, die neuen ultra+ Settings. Aber keine zusätzlichen Mods oder Texturpacks.

Edit: in Novigrad teilweise 15,5 Gb

Du hast eine 16GB- oder 24GB-Karte? Wurden schon 12GB-(Nvidia-)Karten auf Nachladeruckler getestet? Es ist ja weithin bekannt, dass die meisten Games den VRAM nach Möglichkeit gleich vollstopfen, auch wenn der tatsächliche Bedarf etwas/deutlich geringer ist;)

R2

hq-hq
2023-01-11, 03:53:37
NFS:Heat

anscheinend läuft bei dem Game langsam der VRAM voll, grad gesehen ... fängt so bei 8-9GByte an und nach einiger Zeit ist er bei 22GByte

https://abload.de/thumb/needforspeedheat_2023z2cip.jpg (https://abload.de/image.php?img=needforspeedheat_2023z2cip.jpg)

SamLombardo
2023-01-12, 07:29:13
Du hast eine 16GB- oder 24GB-Karte? Wurden schon 12GB-(Nvidia-)Karten auf Nachladeruckler getestet? Es ist ja weithin bekannt, dass die meisten Games den VRAM nach Möglichkeit gleich vollstopfen, auch wenn der tatsächliche Bedarf etwas/deutlich geringer ist;)

R2
Hi. Es ist ne 4090 also 24Gb. Aber du hast natürlich Recht, es wäre ja nicht das erste Mal dass sich eine Karte mehr nimmt, weil mehr Ressourcen vorhanden sind, aber es auch mit weniger Vram gut läuft. Müsste tatsächlich mal jemand mit einer 4070ti probieren, ob es da Probleme gibt.

Btw: ich habe noch vergessen zu erwähnen, dass ich mit Frame Generation spiele. In dem anderen Thread habe ich jetzt gelesen, dass diese normal 1-2 GB Vram extra braucht. Das habe ich aber noch nicht selbst probiert, FG war immer an. Würde den Speicherbedarf für Karten ohne FG noch ein bisschen relativieren.

Blase
2023-01-12, 21:58:13
Also ich habe nun auch mal mit und ohne FG im Witcher 3 getestet (4K, DLSS@Q alles Max - 4090). Bin ne ganze Weile in Novigard rumgelaufen und habe Quests erledigt. Bis zu 15 GB waren beim Grafikspeicher belegt. Allerdings konnte ich persönlich jetzt keinen wirklich nennenswerten Unterschied zwischen FG on/off hinsichtlich Auslastung RAM feststellen. Ja, mögen ein paar Dutzend bis knapp dreistellige MBs mehr an verbrauchten RAM mit FG on gewesen sein, aber einen plötzlichen Anstieg oder gar Sprung von einem GB konnte ich jetzt persönlich nicht beobachten...

MfG Blase

HisN
2023-01-20, 18:39:13
Seit wann haut Tarkov das VRAM so voll?
Direkt zum Level-Load.

https://abload.de/img/escapefromtarkov_2023jwitn.jpg (https://abload.de/image.php?img=escapefromtarkov_2023jwitn.jpg)

Mortalvision
2023-01-20, 21:05:55
Wie geil ist das Bild denn bitte? Klasse Modelle für Autos, Gras, Umgebung. Aber gefühlt eine 8bit Version von der Bierflasche und die Steinchen könnten schon auf dem C64 in einer Grafikdemo als veraltet gegolten haben ;)

BlacKi
2023-01-20, 22:17:59
memory leak mit binaral audio on. dachte aber es würde den ram voll hauen statt vram.

HisN
2023-01-20, 22:33:37
Und vor allem: Instant. Also das ist direkt nach Level-Start, direkt nach Game-Start. Nix mit "ich spiele schon ein paar Stunden". So viel kann doch noch gar nicht geleakted haben.

lilgefo~
2023-01-29, 06:22:17
Stimmt, sollte man dazu schreiben;). 4K, DLSSQ, alles auf maximum inkl. RT, die neuen ultra+ Settings. Aber keine zusätzlichen Mods oder Texturpacks.

Edit: in Novigrad teilweise 15,5 Gb

Hab bei mir bisher 16,9gib gesehen möglicherweise gings auch mal über 17gib hab das overlay aber nur selten an daher vielleicht nicht gemerkt. alles max mit dlssq und 60fps lock


https://s20.directupload.net/images/230129/tpsyed75.jpg


bild ist in hdr daher siehts so weird aus genau wie cp screenshots in hdr

auch interessant, dead space remake knallt direkt die 24gib fast komplett voll und die cpu zieht mehr watt als in w3ng oder cp2077
settings wie oben, alles max mit dlssq + 60fps lock

https://s20.directupload.net/images/230129/3c43ti5i.jpg

edit: mit dem detonator 528.24 hat sich die vram belegung halbiert und die cpu last auch :ucrazy4:

Raff
2023-01-30, 12:11:19
Hier ein paar frische Impressionen zum Thema Vieh-RAM: Flight Simulator: Wie läuft der Hardware-Killer auf aktuellen Prozessoren und Grafikkarten? (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/2/)

Verschiedene Szenarien auf der Erde getestet, RTX 4070 Ti bricht mehr oder minder zusammen.

MfG
Raff

Sonyfreak
2023-01-30, 13:10:55
Du hast eine 16GB- oder 24GB-Karte? Wurden schon 12GB-(Nvidia-)Karten auf Nachladeruckler getestet? Es ist ja weithin bekannt, dass die meisten Games den VRAM nach Möglichkeit gleich vollstopfen, auch wenn der tatsächliche Bedarf etwas/deutlich geringer ist;)Ich habe in den letzten beiden Wochen viel Zeit mit dem Hexer verbraucht. Dabei sind mir bei Witcher 3 NG in WQHD (Quality DLSS, RT Ultra, mit diversen Mods und Texture-Packs) und nur 12GB VRAM (RTX 4070 Ti) noch keine Probleme aufgefallen. Kann aber natürlich gut sein, dass es in 4K ganz anders aussieht.

mfg.

Sonyfreak

readonly
2023-01-30, 13:13:52
Der FluSi ist aber generell ein Vram Killer, wie man an den anderen Karten sieht.

Aber, auch hier, und gerade hier, DLSS und FG als Killerargument pro Grün. 🤷🏼*♂️

Exxtreme
2023-01-30, 13:14:32
Ich habe in den letzten beiden Wochen viel Zeit mit dem Hexer verbraucht. Dabei sind mir bei Witcher 3 NG in WQHD (Quality DLSS, RT Ultra, mit diversen Mods und Texture-Packs) und nur 12GB VRAM (RTX 4070 Ti) noch keine Probleme aufgefallen. Kann aber natürlich gut sein, dass es in 4K ganz anders aussieht.

mfg.

Sonyfreak

Eine höhere Auflösung erhöht den VRAM-Bedarf nur sehr unwesentlich. Sprich, wenn in 1080p der VRAM nicht limitiert dann wird er das in 4K mit sehr hoher Wahrscheinlichkeit auch nicht tun. Wir reden da von ca ~52 MB Mehrbedarf.

dildo4u
2023-01-30, 13:24:03
Hier ein paar frische Impressionen zum Thema Vieh-RAM: Flight Simulator: Wie läuft der Hardware-Killer auf aktuellen Prozessoren und Grafikkarten? (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/2/)

Verschiedene Szenarien auf der Erde getestet, RTX 4070 Ti bricht mehr oder minder zusammen.

MfG
Raff
Wobei da auch noch Potenzial im Treiber stecken sollte 6800XT = 4070 TI in 1440p ist ziemlich mäh oder NV macht dort nix mehr da DLSS3 integriert wurde.
Für 4k hat sie imo eh zu wenig Leistung gibt also wenig Grund kein DLSS zu nutzen wo die 12GB dann ok sind.

fulgore1101
2023-01-30, 13:25:46
Hier ein paar frische Impressionen zum Thema Vieh-RAM: Flight Simulator: Wie läuft der Hardware-Killer auf aktuellen Prozessoren und Grafikkarten? (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/2/)

Verschiedene Szenarien auf der Erde getestet, RTX 4070 Ti bricht mehr oder minder zusammen.

MfG
Raff

Wo genau abseits New York bricht die 4070 Ti ein? In der Tabelle sehe ich 11,17Gb als Maximum. Bei den Frametimes vereinzelt Spikes, nichts Wildes. Auch bei den FPS sehe ich nichts auffälliges bis auf die Tatsache, dass die 4070 Ti in 4k plötzlich sogar schneller als die 3090 ist. Das hätte ich nicht erwartet.

Was interpretiere ich anders als du? :confused:

ChaosTM
2023-01-30, 13:30:01
Bin froh doch noch eine halbwegs bezahlbare 3Slot 4090er bekommen zu haben bevor die Rücksendefrist ablief.
London, Rio, Paris und Rom haben die 16GB der 80er nach einiger Zeit schon fast gefüllt. Über 15,6 kam ich aber bisher noch nicht. Diese Städte sind auch die bösesten CPU Fresser neben einigen Groß-Flughäfen.

Matrix316
2023-01-30, 13:31:17
Hier ein paar frische Impressionen zum Thema Vieh-RAM: Flight Simulator: Wie läuft der Hardware-Killer auf aktuellen Prozessoren und Grafikkarten? (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/2/)

Verschiedene Szenarien auf der Erde getestet, RTX 4070 Ti bricht mehr oder minder zusammen.

MfG
Raff
Warum fehlen da eigentlich die 4080 und 7900XT? Irgendwie sieht das komisch aus, wenn sogar die 4070TI mit dabei ist, aber die anderen beiden nicht. ;)

Lurtz
2023-01-30, 21:26:36
Hier ein paar frische Impressionen zum Thema Vieh-RAM: Flight Simulator: Wie läuft der Hardware-Killer auf aktuellen Prozessoren und Grafikkarten? (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/2/)

Verschiedene Szenarien auf der Erde getestet, RTX 4070 Ti bricht mehr oder minder zusammen.

Aber die 3090 mit 24 GB ist ja kaum schneller :confused: Sind die Karten nicht eigentlich vergleichbar schnell?

Edit: Ok, in New York brechen die Frametimes zusammen.

MasterElwood
2023-01-31, 07:31:13
Aber die 3090 mit 24 GB ist ja kaum schneller :confused: Sind die Karten nicht eigentlich vergleichbar schnell?


Es gibt noch keine CPU die den FS nicht IMMER ausbremst. Die top GPUs können also nicht so schnell wie sie wollen. Wenn die nächste CPU Generation da ist, wird sich die 4090 deutlicher absetzen - selbiges natürlich wenn sie ein Update rausbringen was die CPUs besser ausnützen.

readonly
2023-01-31, 10:25:08
Rödelt der FluSi eigentlich viel auf der Platte rum? Könnte da DirectStorage noch was bringen? Muss doch viele Daten schaufeln. Oder?

dargo
2023-01-31, 11:30:49
Der FluSi ist aber generell ein Vram Killer, wie man an den anderen Karten sieht.

Aber, auch hier, und gerade hier, DLSS und FG als Killerargument pro Grün. ����*♂️
Jo... vor allem wenn man auf Artefakte steht. X-D
https://youtu.be/GkUAGMYg5Lw

Blase
2023-01-31, 11:53:06
Ernstgemeinte Frage: Du würdest also FG nicht nutzen? Du empfindest den Qualitätsverlust beim normalen Spielen also als zu hoch - gegenüber dem Qualitätsgewinn der verdoppelten FPS?

Nur hier oder generell in allen aktuellen Titeln?

MfG Blase

dargo
2023-01-31, 12:04:58
Ernstgemeinte Frage: Du würdest also FG nicht nutzen? Du empfindest den Qualitätsverlust beim normalen Spielen also als zu hoch - gegenüber dem Qualitätsgewinn der verdoppelten FPS?

Diese Frage lässt sich pauschal gar nicht beantworten. Ich kann dir aber sagen wie ich FG einschätze. Im Prinzip sehe ich das wie HWU... bei high-fps wäre das durchaus eine Option um zb. von 100 auf 200fps zu kommen. Aber garantiert nicht um von 30 auf 60fps zu kommen oder sogar noch tiefer. Erstens wäre die Latenz absolut ekelhaft und zweitens fallen Artefakte durch die Fake-Frames stärker auf. Ist imo eher so ein Gimmick für high-fps Spieler mit hohen Monitorfrequenzen. Auch stört mich an FG, dass die Latenz dann nicht mehr zu den fps passt. Klar... bei >100 echten fps wird das vom Gefühl her weniger ein Problem sein.

PS: ein Szenario wo ich FG trotz höheren fps problematisch sehe wäre noch bsw. eine verlangsamte Cutszene (wird ja gerne mal bei Erinnerungen verwendet). Je langsamer der Bildablauf umso mehr nimmt das Auge die Artefakte wahr.

Exxtreme
2023-01-31, 12:15:09
Du empfindest den Qualitätsverlust beim normalen Spielen also als zu hoch - gegenüber dem Qualitätsgewinn der verdoppelten FPS?


Schon witzig. Als früher die Spiele Benchmarks erkannten um höhere FPS auf Kosten der Bildqualität zu generieren dann nannte man das Cheaten. Jetzt scheinen die Leute so darauf konditioniert zu sein, dass sie das als positiv empfinden wenn das gemacht wird. Übrigens, man kann das auch selbst machen: man geht in die Spieloptionen und deaktiviert ein paar Effekte. Dann hat man auch die Bildqualität verringert um höhere FPS zu bekommen. :)

dargo
2023-01-31, 12:25:56
Schon witzig. Als früher die Spiele Benchmarks erkannten um höhere FPS auf Kosten der Bildqualität zu generieren dann nannte man das Cheaten.
Da sprichst du gerade ein heißes Thema an. ;) Mir kommt das langsam so vor als wenn die IHVs die "Schmerzgrenze" beim Cheaten mit dem ganzen Gedöns @Upscaler und FG bei den Spielern austesten. Mal sehen was als nächstes kommt. :freak:

Exxtreme
2023-01-31, 12:29:37
Da sprichst du gerade ein heißes Thema an. ;) Mir kommt das langsam so vor als wenn die IHVs die "Schmerzgrenze" beim Cheaten mit dem ganzen Gedöns @Upscaler und FG bei de Spielern austesten. Mal sehen was als nächstes kommt. :freak:

Ich glaube, das Problem ist ein anderes: für brauchbares Raytracing bräuchtest du zig Millionen Strahlen. Und das packt so schnell keine Hardware. FG ist wohl beträchtlich billiger zu haben.

dargo
2023-01-31, 12:31:24
Ich glaube, das Problem ist ein anderes: für brauchbares Raytracing bräuchtest du zig Millionen Strahlen. Und das packt so schnell keine Hardware. FG ist wohl beträchtlich billiger zu haben.
Da bin ich voll bei dir. RT-Kosten sind so extrem hoch (bisher nur paar simple Spielereien davon implementiert), dass jetzt krampfhaft nach Beschleunigungskompromissen von den IHVs gesucht wird.

ChaosTM
2023-01-31, 12:38:55
Rödelt der FluSi eigentlich viel auf der Platte rum? Könnte da DirectStorage noch was bringen? Muss doch viele Daten schaufeln. Oder?


Ich denke schon. Ein schnelle Internetzverbindung hilft aber auch, wenn man kein riesiges Cache File mitschleppen will.
Aber bis Asobo das einbaut wird noch viel Zeit vergehen. Zuerst muss mal der CPU Flaschenhals weg.

Blase
2023-01-31, 12:42:18
Diese Frage lässt sich pauschal gar nicht beantworten. Ich kann dir aber sagen wie ich FG einschätze. Im Prinzip sehe ich das wie HWU... bei high-fps wäre das durchaus eine Option um zb. von 100 auf 200fps zu kommen. Aber garantiert nicht um von 30 auf 60fps zu kommen oder sogar noch tiefer. Erstens wäre die Latenz absolut ekelhaft und zweitens fallen Artefakte durch die Fake-Frames stärker auf. Ist imo eher so ein Gimmick für high-fps Spieler mit hohen Monitorfrequenzen. Auch stört mich an FG, dass die Latenz dann nicht mehr zu den fps passt. Klar... bei >100 echten fps wird das vom Gefühl her weniger ein Problem sein.

PS: ein Szenario wo ich FG trotz höheren fps problematisch sehe wäre noch bsw. eine verlangsamte Cutszene (wird ja gerne mal bei Erinnerungen verwendet). Je langsamer der Bildablauf umso mehr nimmt das Auge die Artefakte wahr.

Verstehe was du meinst - ich kann es nur für mich persönlich nicht bestätigen. Ich spiele ja grade den Witcher 3. Aufgrund der starken CPU Limitierung schwanken die FPS MIT FG je nach Spielgebiet (Stadt oder Land) irgendwie zwischen 60+ und 100+. Ohne FG also spätestens klar in dem Bereich, den du hier als schwierig ansprichst. Auch bezüglich Cutszenes geizt das Spiel ja nicht grade, wirst du doch immer und immer wieder bei nahezu jedem Dialog aus dem Spiel herausgerissen. Das Spiel strotzt also in Summe mit all den Dingen, die du bezüglich der Nutzung von FG kritisch siehst. Und ich kann nichts davon bestätigen. Ich sehe keine Artefakte und der Inputlag fühlt sich auch nicht schlechter an, als würde ich FG weg lassen. Und du kannst sicher sein, dass ich dem Feature anfangs sehr kritisch gegenüber stand. Ich habe nämlich auch als ersten "Berührungspunkt" mit FG das von dir verlinkte HWUB Video gesehen - und die Nase gerümpft. Aber mit jedem von mir (durch-) gespielten Titel, in welchem ich FG genutzt habe (A Plague Tale, Portal RTX (hier waren die FPS noch niedriger), Witcher 3 NG), bin ich mehr und mehr vom Feature begeistert.

Schon witzig. Als früher die Spiele Benchmarks erkannten um höhere FPS auf Kosten der Bildqualität zu generieren dann nannte man das Cheaten. Jetzt scheinen die Leute so darauf konditioniert zu sein, dass sie das als positiv empfinden wenn das gemacht wird. Übrigens, man kann das auch selbst machen: man geht in die Spieloptionen und deaktiviert ein paar Effekte. Dann hat man auch die Bildqualität verringert um höhere FPS zu bekommen. :)

Siehe oben - ich "weiß" zwar, dass ein Qualitätsverlust vorhanden ist, aber ich bemerke ihn nicht. Und was ich nicht bemerke, stört mich auch nicht. Es geht also um die Art der Implementierung.

Es mag sein, dass FG in einigen Titeln bessere Ergebnisse liefert als in anderen Titeln und ich will hier nicht pauschal ein Urteil fällen. Aber ich habe immerhin zwei Titel damit komplett durchgespielt und bin über 40 Stunden im dritten Titel - und für mich liegen die Vorteile bisher klar auf der Hand...

MfG Blase

dargo
2023-01-31, 12:56:03
Verstehe was du meinst - ich kann es nur für mich persönlich nicht bestätigen. Ich spiele ja grade den Witcher 3. Aufgrund der starken CPU Limitierung schwanken die FPS MIT FG je nach Spielgebiet (Stadt oder Land) irgendwie zwischen 60+ und 100+. Ohne FG also spätestens klar in dem Bereich, den du hier als schwierig ansprichst. Auch bezüglich Cutszenes geizt das Spiel ja nicht grade, wirst du doch immer und immer wieder bei nahezu jedem Dialog aus dem Spiel herausgerissen. Das Spiel strotzt also in Summe mit all den Dingen, die du bezüglich der Nutzung von FG kritisch siehst. Und ich kann nichts davon bestätigen. Ich sehe keine Artefakte und der Inputlag fühlt sich auch nicht schlechter an, als würde ich FG weg lassen.
Verstehe mich jetzt bitte nicht falsch, aber mir wollten hier schon so manche einen vom Pferd erzählen. Angefangen hatte das damit wie toll doch DLSS 1 ist. :ulol: Ging dann über DLSS 2 welches immer noch mit vielen Problemen zu kämpfen hat und jetzt geht das "Märchen" mit FG weiter. Wo wir schon bei so einem Thema sind... bei Uncharted wollen mir auch Leute erzählen es gäbe überhaupt kein Problem zwischen Maussteuerung und Frameausgabe. X-D

Zum fettgedruckten, das ist auch komplett der falsche Vergleich. Wenn du ohne FG 30fps hast und mit FG 60fps wird sich die Latenz logischerweise ohne FG bei 30fps genauso schlecht anfühlen. Vergleiche mal 60 FG fps mit 60 non FG fps. ;)

PS: es kann natürlich sein, dass FG im Witcher 3 weniger Artefakte produziert. Der Spielablauf ist jetzt nicht so super schnell wie zb. ein sich schnell bewegendes Fahrzeug.

Blase
2023-01-31, 13:09:32
Zum fettgedruckten, das ist auch komplett der falsche Vergleich. Wenn du ohne FG 30fps hast und mit FG 60fps wird sich die Latenz logischerweise ohne FG bei 30fps genauso schlecht anfühlen. Vergleiche mal 60 FG fps mit 60 non FG fps. ;)

Hmmm, klar. Aber es ist ja FG nicht vorzuwerfen, dass die Latenz sich nicht ebenfalls verbessert, sondern beim Ausgangswert verbleibt. Du hast dank der doppelten FPS aber in Summe dennoch ein sehr viel besseres Spielgefühl, als würdest du FG nicht nutzen. Die Latenz mag unverändert nicht optimal sein, dafür ist das bewegte Bild doch um längen besser.

Ich kann also meine Frage eingangs an dich umformulieren.

Du würdest FG bei 30, 40 oder 50 FPS auslassen? Dann "passt" die Latenz zu den FPS. Du siehst für dich dann keinen Mehrwert in der Aktivierung von FG - trotz des sehr viel flüssigeren Bildaufbaus?

MfG Blase

Ex3cut3r
2023-01-31, 13:53:03
Verstehe mich jetzt bitte nicht falsch, aber mir wollten hier schon so manche einen vom Pferd erzählen. Angefangen hatte das damit wie toll doch DLSS 1 ist. :ulol: Ging dann über DLSS 2 welches immer noch mit vielen Problemen zu kämpfen hat und jetzt geht das "Märchen" mit FG weiter. Wo wir schon bei so einem Thema sind... bei Uncharted wollen mir auch Leute erzählen es gäbe überhaupt kein Problem zwischen Maussteuerung und Frameausgabe. X-D


DLSS 1? Ehrlich? Das hat doch soweit mir bekannt, niemand hier in den Himmel gelobt, außer vlt. Troyan? DLSS 2 ist/war gut. Spätenstens mit der 2.5.1 DLL und CAS via Reshade @ 4K 32" bin ich abousult zufrieden damit. Im gegenteil zu FSR. Was in 9 von 10 Fällen immer viel schlechter ist. :ulol:

SamLombardo
2023-01-31, 14:01:30
Ich nutze FG in zur Zeit in drei Spielen, Witcher 3, Warhammer Darktide und Plague Tale Requiem (Spiele die FG unterstützen die ich eben derzeit spiele) und habe bei keinem dieser Spiele störende Artefakte oder irgendwelche Lags bemerkt. Und ich habe, gerade weil das Feature neu ist, explizit danach gesucht. Mir geht es da wie Blase, ich war noch der ersten Vorstellung so was von skeptisch. Hatte da diese Zwischenbildberechnung wie man sie von TVs kennt im Hinterkopf, mit Artefakten unt Inputlag from hell. Hier gibt es nicht nur Entwarnung, sondern eine handfeste Überraschung. Die Nvidia FG hat damit aber mal gar nichts zu tun. Sie ist DAS Feature dieser Generation.

Btw: In PT Requiem zum Beispiel nutze ich nur die FG ohne DLSS weil das in der Tat noch besser aussieht:). Und das bei der wirklich guten Qualität die aktuelles DLSS hat.

dargo
2023-01-31, 15:17:31
Ich kann also meine Frage eingangs an dich umformulieren.

Du würdest FG bei 30, 40 oder 50 FPS auslassen? Dann "passt" die Latenz zu den FPS. Du siehst für dich dann keinen Mehrwert in der Aktivierung von FG - trotz des sehr viel flüssigeren Bildaufbaus?

Bei so tiefen fps würde ich mir eine deutlich schnellere Grafikkarte kaufen. Gibt es die nicht würde ich eher Details reduzieren um mehr fps zu bekommen. Vorzugsweise RT da das am meisten Frames frei macht. Latenz bei 30-40fps ist für mich eh völlig indiskutabel. Bei 50fps eigentlich auch schon. Wobei ich bei 50+fps eventuell es noch akzeptieren würde wenn es sehr selten in einem Spiel vorkommt. Ist für mich aber schon sehr grenzwertig. Das wäre so der Bereich um ein Upgrade einzuplanen.

readonly
2023-01-31, 15:31:36
Bei so tiefen fps würde ich mir eine deutlich schnellere Grafikkarte kaufen. Gibt es die nicht würde ich eher Details reduzieren um mehr fps zu bekommen. Vorzugsweise RT da das am meisten Frames frei macht. Latenz bei 30-40fps ist für mich eh völlig indiskutabel. Bei 50fps eigentlich auch schon. Wobei ich bei 50+fps eventuell es noch akzeptieren würde wenn es sehr selten in einem Spiel vorkommt. Ist für mich aber schon sehr grenzwertig. Das wäre so der Bereich um ein Upgrade einzuplanen.

Halten wir fest, Du bist kein Kunde den man mit FG und DLSS erreichen kann. Ist ok, aber jetzt ist auch mal gut. Es gibt Leute die sehen das anders. Hab mich wie Bolle gefreut das ich mit meiner 3060ti 2020 viele Spiele mit hohen Settings wegen DLSS spielen konnte. FG ist für mich (weil ich auf dem TV mit fix 60hz spiele) leider auch noch nichts, es sei denn ich nehme Tearing in Kauf.

Gerade CP77 getestet, kann mit der 4070ti aber mit DLSS auch ohne FG alles auf Max spielen (bei Vsync 60fps)

Das Tearing ist übrigens wohl weniger ausgeprägt mit DX12 und Vulkan, so wie ich das verstanden habe. Kann man ignorieren oder eben nicht. Gerade bei so Stellen wie der Achterbahn bei CP77 zerreisst das Bild schon. Glaub im Treiber kann ich Vsync noch mal testen, aber da ging bei W3 die Latenz enorm nach oben. Übrigens gab es ein GOG Client Update, da es gerade mit DLSS3 wohl Abstürze gab. Die hatte ich beim W3 auch, aber konnte das jetzt auf die schnelle nicht testen, heute abend erst wieder am Rechner.

Blase
2023-01-31, 16:19:48
Bei so tiefen fps würde ich mir eine deutlich schnellere Grafikkarte kaufen. Gibt es die nicht würde ich eher Details reduzieren um mehr fps zu bekommen. Vorzugsweise RT da das am meisten Frames frei macht. Latenz bei 30-40fps ist für mich eh völlig indiskutabel. Bei 50fps eigentlich auch schon. Wobei ich bei 50+fps eventuell es noch akzeptieren würde wenn es sehr selten in einem Spiel vorkommt. Ist für mich aber schon sehr grenzwertig. Das wäre so der Bereich um ein Upgrade einzuplanen.

Ok, kann ich nachvollziehen. Wäre dennoch echt neugierig, dich vor einem solchen System zu sehen ;) Ist natürlich nur meine ganz persönliche Meinung, aber von einem eher wenig flüssigem Spielgefühl um 40 FPS zu kommen (Witcher 3) - und dann mit FG auf Knopfdruck dann um 80 FPS zu haben, ist ein gefühlter (und durchaus realer) Unterschied wie Tag und Nacht...

MfG Blase

aufkrawall
2023-01-31, 16:26:29
Ja. Ist in Miles Morales im CPU-Limit dem 5800X3D einfach der Unterschied ruckelig -> flüssig: Klebt plötzlich einen Großteil der Zeit im Reflex 138fps-Limit, anstatt ~70fps. In dem Fall wird der etwas höhere Input Lag um ein Vielfaches wieder wettgemacht, und man sieht real praktisch gar keine Artefakte. :eek:

ChaosTM
2023-01-31, 17:48:05
Ist für mich DAS Killer-Feature dieser Generation, aber wir bewegen uns immer weiter vom Thema weg.
Zurück zu den VRAM Fressern :)

SamLombardo
2023-01-31, 18:05:30
Zurück zu den VRAM Fressern :)
Zu Befehl:biggrin:. Cyberpunk@max mit FG ohne DLSS 14,8Gb Vram. Selbe Szene mit DLSSQ und FG 11,8Gb. Die native 4K Auflösung frisst irgendwie außergewöhnlich viel Speicher...hm.

dargo
2023-01-31, 18:15:33
Ok, kann ich nachvollziehen. Wäre dennoch echt neugierig, dich vor einem solchen System zu sehen ;)
Ich werde FG genauer unter die Lupe nehmen wenn Radeon so weit ist, keine Sorge.

ChaosTM
2023-01-31, 19:13:56
Forspoken - 13800MB.
Siehe DF Video ziemlich am Anfang, für ein relativ "beschränkt" aussehendes Spiel.

Dampf
2023-02-11, 09:07:38
Es ist 2023 und Entwickler benutzen immer noch keine fortschrittlichen Streaming-Techniken wie Sampler Feedback.

Wir haben derzeit zwei PC-Ports, die unter 12 GB VRAM deutliche Probleme machen. Bei Forspoken laden nicht mal die Texturen. Und Hogwarts ist eine Ruckelorgie.

Wenn das jetzt so weitergeht, muss ich mir eingestehen, dass ich damals falsch lag. Es gibt immer noch viele Spiele, die weder Virtual Texturing noch Sampler Feedback nutzen.

Die Inkompetenz der Entwickler ist etwas, das ich bei meinen damaligen Aussagen nicht bedacht hatte. Ich dachte auch, Nvidia würde mit den Entwicklern zusammenarbeiten, um sowas, das wir jetzt haben zu verhindern. Aber Pustekuchen. Anscheinend interessieren die sich nicht dafür, wie ihre Karten im Vergleich abschneiden.

Raff, du hattest recht.

Inquisitor
2023-02-11, 09:59:36
Ja, es scheint etwas beängstigend. Hogwards läuft ja nicht mal auf 1080p brauchbar auf einer 3080 10GB Version.

aufkrawall
2023-02-11, 10:02:35
und Entwickler benutzen immer noch keine fortschrittlichen Streaming-Techniken wie Sampler Feedback.

Werden sie auch erst, wenn das in der UE einfach per Klick an ist.
Fortnite läuft allerdings trotzdem @max mit <10GB in 4k. Das Streaming (und MT) wurde erst mit den letzten Spiel-Versionen deutlich verbessert, der ganze UE4-Kram hinkt halt auch Jahre hinterher.

HOT
2023-02-11, 10:40:29
Es ist 2023 und Entwickler benutzen immer noch keine fortschrittlichen Streaming-Techniken wie Sampler Feedback.

Wir haben derzeit zwei PC-Ports, die unter 12 GB VRAM deutliche Probleme machen. Bei Forspoken laden nicht mal die Texturen. Und Hogwarts ist eine Ruckelorgie.

Wenn das jetzt so weitergeht, muss ich mir eingestehen, dass ich damals falsch lag. Es gibt immer noch viele Spiele, die weder Virtual Texturing noch Sampler Feedback nutzen.

Die Inkompetenz der Entwickler ist etwas, das ich bei meinen damaligen Aussagen nicht bedacht hatte. Ich dachte auch, Nvidia würde mit den Entwicklern zusammenarbeiten, um sowas, das wir jetzt haben zu verhindern. Aber Pustekuchen. Anscheinend interessieren die sich nicht dafür, wie ihre Karten im Vergleich abschneiden.

Raff, du hattest recht.

Inkompetenz der Entwickler ist glaub ich Blödsinn. Ich würd eher sagen, wo gehobelt wird, da fallen Späne, denn wenn die 8GB-Konsolen aus der Rechnung herausfallen, ist der Weg doch klar. Und NV trägt dem einfach keine Rechnung. Heute müsste die Mittelklarre auf 12GB sein und darüber alles 16GB. Ist aber bei NV nicht so. Der Trend wird sich sicherlich fortsetzen. Die Konsolen haben nunmal 16GB (die alten hatten ja 8) und das wird mittelfristig auch genutzt werden. Das fällt natürlich wieder auf den PC zurück, da die Spiele ja nunmal Konsolenprojekte sind. Und die Streamingtechniken sind da schon einkalkuliert, denn die werden nur bei wirklich neuen Engines eine tragende Rolle spielen (und da werden die Entwickler nicht sparsamer zuwerke gehen sondern mehr Details auffahren), es sind aber bei weitem nicht alle neuen Titel mit neuen Engines entwickelt. Das war noch nie so. Ich hab dir schon vor Jahren gesagt, das scheitert an der Praxis und tadaa...

Ich machs nochmal klar:
NV bietet zuwenig Speicher, Punkt. Die 3060Ti, 3070, 3080(TI) und 4070Ti sind unterbestückt und damit scheiß Produkte. Die 4060, 7600(XT) werden auch scheiß Produkte sein. NV müsste irgendwann ne 4070 Super mit 16GB bringen und ne 4060 Super mit 12. Dann wäre man wieder auf Stand. N33 wird ja eh absolute Grütze, der hat das gleiche Problem wie N24, falsche Zielgruppe.

Shink
2023-02-11, 11:02:04
Ja, es scheint etwas beängstigend. Hogwards läuft ja nicht mal auf 1080p brauchbar auf einer 3080 10GB Version.
Jetzt Mal eine ganz blöde Frage: Wir reden hier immer von "wenn man die Texturen auf Maximum stellt, geht der Speicher aus".
Wie schlimm sieht das denn aus, wenn man auf 1080p die Texturen nicht auf Maximum stellt?

Thunder99
2023-02-11, 12:39:20
Auf PCGH gibt es ein tolles Video wo HL unter die Lupe genommen wird mit VRAM Diskussion und Texturdetails. Würde dennoch HL nicht als neuen Standard nehmen. Dafür ist es zu früh

Lurtz
2023-02-11, 14:35:15
Auf PCGH gibt es ein tolles Video wo HL unter die Lupe genommen wird mit VRAM Diskussion und Texturdetails. Würde dennoch HL nicht als neuen Standard nehmen. Dafür ist es zu früh
Gab es 2020 ein Spiel wie HL das ohne HD-Texturen etc. 8/10 GB so überfordert hat?

Ex3cut3r
2023-02-11, 14:57:17
Ja, HZD im release zustand.

Troyan
2023-02-11, 15:23:14
Frage ist eher, ob man noch andere niedriger aufgelöste Texturen als die von den Konsolen erhält. Kein Plan, ob für die Serie S irgendwelche extra Texturen angefertigt werden.

Bei Hogwarts sieht man ja bei Raytracing, wie sinnlos man VRAM füllen kann:
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/vram.png
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html

5GB einfach mehr in 900p. Kein Wunder, dass das auf 12GB Karten kaum nutzbar ist.

aufkrawall
2023-02-11, 15:54:27
Ich sehe hier mit dem Day 1 Patch 1440p DLSS Q RT off bislang maximal 7,5GB VRAM-Verbrauch. War allerdings noch nicht außerhalb der Schule.
RAM ist kritischer, ging schon über 16GB.

Edit: Oder auch nicht, er hatte die Einstellungen wieder auf medium gesetzt...

Langlay
2023-02-11, 16:44:17
Ich sehe hier mit dem Day 1 Patch 1440p DLSS Q RT off bislang maximal 7,5GB VRAM-Verbrauch. War allerdings noch nicht außerhalb der Schule.
RAM ist kritischer, ging schon über 16GB.

Edit: Oder auch nicht, er hatte die Einstellungen wieder auf medium gesetzt...

RAM ist bei mir eigentlich auch immer bei ~18GB (allerdings hab ich relativ viel im Hintergrund laufen). VRAM bei 1440p ohne RT (alles Ultra nur Motion Blur, Chromatische Aberration und Filmkörnung sind off) liegt so bei ~12GB mit der 6900XT.

dargo
2023-02-11, 17:04:57
Es ist 2023 und Entwickler benutzen immer noch keine fortschrittlichen Streaming-Techniken wie Sampler Feedback.

Breaking News. :freak:

Schon mal überlegt was so bei der PC-Plattform an Hardware im Umlauf ist? Wenn von dem ganzen Kuchen nur 20% (fiktive Zahl) der Hardware Sampler Feedback unterstützt dann wirst du wohl 1 und 1 zusammen zählen können oder? Ich als DEV würde absolut genau so handeln damit ich das Maximum an Verkaufszahlen vom Game XY generieren kann. SF wird garantiert irgendwann beim PC ankommen, es dauert halt wie immer bis die Verbreitung vom Feature XYZ für die DEVs keine nennenswerten Risiken mehr beinhaltet.

dildo4u
2023-02-11, 17:13:51
Hängt nicht nur am PC Hogwarts kommt im Gegensatz zu Forspoken noch für die alten Konsolen nur später musste also immer mit einer HDD laufen.

aufkrawall
2023-02-11, 17:19:33
RAM ist bei mir eigentlich auch immer bei ~18GB (allerdings hab ich relativ viel im Hintergrund laufen). VRAM bei 1440p ohne RT (alles Ultra nur Motion Blur, Chromatische Aberration und Filmkörnung sind off) liegt so bei ~12GB mit der 6900XT.
Scheint auf den ersten Blick spielbar mit RT auf der 3060:
https://abload.de/thumb/hogwartslegacy_2023_0jxc7t.png (https://abload.de/image.php?img=hogwartslegacy_2023_0jxc7t.png)

Rauscht zwar, aber die Szenenbeleuchtung kommt in Bewegung viel plausibler rüber. Ich kann dieses Fake Raster-Licht aus dem Nichts langsam nicht mehr ab. :redface:
Selbst die Orientierung in Gebäuden finde ich dadurch anstrengender.

dargo
2023-02-11, 17:53:48
Hängt nicht nur am PC Hogwarts kommt im Gegensatz zu Forspoken noch für die alten Konsolen nur später musste also immer mit einer HDD laufen.
Mal wieder am Thema vorbei... auch ein Forspoken verwendet kein Sampler Feedback am PC.