PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 30. März 2023


Leonidas
2023-03-31, 11:09:31
Link zur News:
https://www.3dcenter.org/news/news-des-30-maerz-2023

Gast
2023-03-31, 11:51:07
Es ist doch ziemlich klar, dass hier der Spieleentwickler einen Fehler gemacht hat und nicht die Masse der genutzten Grafikkarten das Problem darstellen.
Außerdem die kommenden 8 GB Vram der neuen AMD und NVidia Mainstream Modelle.

Die Masse der Spieler hat 8 GigaByte VRAM, schätzungsweise 40%. 10 bis 15 % haben vielleiucht 10 GB - 24 GB VRAM. Der Rest hat weniger!

Das bedeutet, dass Sony schlicht am Markt vorbei entwickelt hat. Denn unter FullHD sollten hohe bis maximal sinnvolle Texturen von deren Auflösung relativ zur Bildschirmaufläsung möglich sein.
Jetzt kann es natülrich sein, dass bei TLOU die maximalen Texturen unter FullHD die selben wie unter UHD/4K sind. Was schlicht und einfach VRAM-Verschwendung wäre und ein miserabel entwickeltes Spiel.

Hier muss nicht NVidia oder AMD im Treiber nachbessern, auch wenn sie versuchen könnten es etwas abzufangen, nein hier muss Sony der Entwicler dieses Spiels nachbessern.
Entweder das VRAM-Management des Spiels generell verbessern oder den Auflösungen entsprechende Texturen bereitstellen.
Oder eben klar artikulieren, dass es optisch unter FullHD zwischen Maximalen(Ultra) Texturen und Hohen Texturen keinen sichtbaren Unterschied gibt. Sprich Perlen vor die Säue.
Das kann ich wiederum nicht beurteilen, da ich es nicht weiß.

Relic
2023-03-31, 12:18:56
Also realistisch gesehen wird den Herstellern bei den aktuellen Speicherpreisen die 8GB nicht mehr als 30-40€ kosten. In den Zeiten der Knappheit kann man verstehen das am Speicher gespart wurde aber aktuell ist es einfach nur dumm.

MiamiNice
2023-03-31, 12:19:29
Logisch kostet die Speicherverdopplung dennoch Geld und würde die hiermit ausgestattete Grafikkarte um vielleicht bis zu 100 Euro verteuern. Aber als reine Option zur default-Speicherbestückung angeboten sollte dies dennoch eine Überlegung für AMD & nVidia wert sein. Möglicherweise muß man hierfür nur den Grafikkarten-Herstellern freie Hand lassen, jene sollten wegen des harten Wettbewerbs untereinander normalerweise immer interessiert sein an dieserart Sonder-Varianten.

Da ich die Speicherbestückung quasi für ein Mindesthaltbarkeitsdatum halte, würde sich NV nur ins eigene Fleisch schneiden.

bloodflash
2023-03-31, 12:31:08
Das mit den Speichermengen ist echt komisch. 2018 gab es schon 8GB-Karten unter 200,-€. Aber seitdem sind soviele Mainstream- und HighEnd Karten mit 10GB oder weniger erschienen, kosteten aber meist das Doppelte oder sogar mehr.
Deshalb sollten Spieleentwickler die 8GB als Optimum für 1080p nehmen. Dass jetzt aber die ersten Spiele erscheinen, die dieses Limit überschreiten, finde ich bedenklich. Ich ärgere mich jetzt schon die 6700/10GB gekauft zu haben statt der 80,-€ teureren 6700xt/12GB.

bad_sign
2023-03-31, 13:27:36
Da ich die Speicherbestückung quasi für ein Mindesthaltbarkeitsdatum halte, würde sich NV nur ins eigene Fleisch schneiden.

Kritisch ist es, wenn das Verfallsdatum, bei neuen Produkten, in der Vergangenheit liegt

schM0ggi
2023-03-31, 13:55:09
Werde mir dieses Jahr wahrscheinlich eine neue Karte kaufen und von RX 5700 (non XT) auf 7600 XT umsteigen, so zumindest der Plan. Aber die Entwicklung und der Zustand der letzten Monate bzgl. PC Gaming verunsichert mich und ich weiß nicht ob es überhaupt noch sinnvoll ist eine 8GB Karte zu kaufen. Die Konsequenz wäre dann eher 6700 XT oder 7700 XT. Finde den aktuellen Status echt bedenklich.

Spiele in Full HD.

Legendenkiller
2023-03-31, 14:36:20
Die maximalen Texturen gehen klar Richung 16 Gbyte in den nächstne Jahren.

Mit einer 8Gbyte Karte muss man dann ebend die Textuen 1 Stufe runterstellen, wie man aktuell ja bei einer 4GB Karte schon machen muss und die 4Gb ist minimum.
In FullHD ist das erstmal nicht weiter tragisch, da die höchste Texturauflösung in FullHD ja kaum Vorteile bringt.

Auch Hogwarts wird mit 1 Stufe kleiner TExturen in 8GB problemlos laufen. Dafür sind die Texturstufen/Einstellungen ja da.

Bis 8GB reichen jetzt nicht mehr für MAximalsettings aber eh sie garnicht mehr reichen dauers sicher noch 10 Jahre.
Jetz aktuell fliegen gerade die 3GB Karten raus, also 4Gbyte ist minimum.

MiamiNice
2023-03-31, 14:44:30
Kritisch ist es, wenn das Verfallsdatum, bei neuen Produkten, in der Vergangenheit liegt

Für den Kunden, klar. NV kassiert einfach doppelt. Das ist der Sinn dahinter. Gekauft wird es eh, weil kein Weg an NV vorbei führt.

Gast
2023-03-31, 16:17:09
Ich bin wirklich kein Fan von Nvidia und schon gar nicht dem Cheffe.

Das Rumhacke auf der Speicherausstattung führt zu Grundsatzsatzdiskussion. Und auf die habe ich kein Bock, weil man gegen Sturheit nicht ankommt. Obwohl das als Kontrapunkt bei Entry-Level Karten mit 2x oder 4x so viel DDR statt GDDR unzählige Male thematisiert wurde.
Der Speicher ist zu klein für 50fps in den aktuellen Settings? Dann ändert man sie. Keine Ahnung, wie oft ich schon darauf hingewiesen habe, dass es blanker Bullshit ist, dem heiligen Gral der Vergleichbarkeit zu Liebe, Benchmarks auf Karten loszulassen, die für die Settings unterdimensioniert sind. Ober eben umgekehrt eine 4090 unter HDready.

Rabiata
2023-03-31, 16:39:00
Bis 8GB reichen jetzt nicht mehr für MAximalsettings aber eh sie garnicht mehr reichen dauers sicher noch 10 Jahre.
Jetz aktuell fliegen gerade die 3GB Karten raus, also 4Gbyte ist minimum.
4GB ist auch schon spürbar zu knapp, siehe die Tests zur Radeon 6500 XT. Und 8 GB reicht auch nur noch im Mainstream. Wer 500,- Euro und mehr ausgibt, sollte an Karten unter 12GB nicht mal mehr denken.
Für den Kunden, klar. NV kassiert einfach doppelt. Das ist der Sinn dahinter. Gekauft wird es eh, weil kein Weg an NV vorbei führt.
Komisch, ich bin mit meiner AMD - GPU ganz zufrieden...

Gast
2023-03-31, 17:16:34
Bei mir läuft noch eine Radeon 260X mit 2 GB. Im Dezember kam sie erstmals an ihre Grenzen. Bei Grounded gabs Probleme mit der Textur auf Würfeln, die die Zahlen unlesbar machten.

Ansonsten hatte ich bis jetzt keine Probleme, allerdings spiele ich in FHD und hauptsächlich ältere oder genügsamere Titel. Aber jetzt wird es Zeit.

Ich hoffe auf ein Angebot für eine RX 6600 unter den 250€, die sie bei Mindfactory zuletzt mehrfach erreicht hat. In Kombination mit einem Ryzen 5600 sollte das wieder für einige Jahre reichen. Dazu eine M.2 SSD, 32 GB RAM und ein MB mit USB-C-Anschluß, 4 RAM-Steckplätzen und 2 M.2-Anschlüssen und ich fühle mich für die nächsten Jahre - für meine Ansprüche - gewappnet.

Das Ganze gibt es aktuell für knapp über 600€ (Gehäuse und Netzteil kann ich wahrscheinlich weiter verwenden).

Dino-Fossil
2023-03-31, 17:22:46
Ich bin beim Speicher bei den kleinen Karten unter 1080 einigermaßen entspannt.
Ja, gibt immer mal Spiele, die mehr als 8Gb unter höchsten Einstellungen verlangen.
Aber da sieht man denn meistens keinen wirklichen Unterschied dazu, wenn man den Regler eine Stufe runter nimmt.
Gibt es Tests, die anstatt lediglich zu versuchen den Speicher voll zu bekommen, auch mal untersuchen wie man dem entgegen wirkt und inwieweit das die Optik beeinträchtigt?

IchoTolot
2023-03-31, 19:24:17
Komisch, ich bin mit meiner AMD - GPU ganz zufrieden...

Same. ^^

Das ist der Sinn dahinter. Gekauft wird es eh, weil kein Weg an NV vorbei führt.

:conf2::down:

Κριός
2023-04-01, 01:58:06
:conf2::down:

Unrecht hat er nicht.

Treiber Probleme, weniger Leistung, mehr Verbrauch, kein DLSS, furchtbarer Encoder und unmöglich zu verkaufen, wenn man eine neue Karte hat.

Denniss
2023-04-01, 02:28:05
als ob der grüne haufen nie Treiber-Probleme hätte. Wieviel Hotfix-Treiber gab es denn schon dieses Jahr?
Statt DLSS gibt es halt FSR wo AMD aber noch ein wenig Nachholbedarf hat. Wüsste jezt nicht das man AMD-Karten unmöglich verkaufen kann, da bekommt man sogar gut geld für.

Leonidas
2023-04-01, 05:13:18
Gibt es Tests, die anstatt lediglich zu versuchen den Speicher voll zu bekommen, auch mal untersuchen wie man dem entgegen wirkt und inwieweit das die Optik beeinträchtigt?

Würde ich genauso gerne sehen. Man muss sich dabei ja gar nicht auf die eine oder andere Seite stellen - allein wissenswert wäre es schon.

GerryB
2023-04-01, 05:29:07
Das hängt wohl stark von den Angewohnheiten ab, ... ich bevorzuge maximale Sichtweite+Details.(in 4k)
Alles was irgendwie aufploppt, seien es Schatten oder Texturen, ist nervig.(Kantenflimmern soundso)

Wo ich mitgehe sind gesonderte Einstellungen für den Hintergrund.(ala GRB)
z.Bsp. Vordergrund 60fps und Hintergrund 30fps mit weniger Schatten.
(und Hintergrund hat traditionell eeh ne geringere Texturauflösung, selbst ohne SF)

Äquivalent gibts ja auch noch VRS in einigen Games.
(warum z.T. VRS und FSR2 net gleichzeitig geht, sollte in den jeweiligen Games behoben werden)

crnkoj
2023-04-01, 07:12:15
Würde ich genauso gerne sehen. Man muss sich dabei ja gar nicht auf die eine oder andere Seite stellen - allein wissenswert wäre es schon.
Notebookcheck hat einen halb brauchbaren test von 1080p mid verschiedenen Qualitäten. Da sieht man schon den cut off für 6 und 8 GB.

Platos
2023-04-01, 10:04:10
könntest du den verlinken?

Exxtreme
2023-04-01, 15:02:43
Komisch, ich bin mit meiner AMD - GPU ganz zufrieden...

Da gab es schon abseits von Spielen etliche Nachteile vor RDNA3:
https://www.pcworld.com/article/1434166/amd-rdna-3-radeon-rx-7900-xtx-content-creation-review.html

Und das Problem ist jetzt, AMD wird womöglich 10 Jahre brauchen damit das aus den Köpfen wieder rausgeht. Siehst ja hier im Thread.

Gast
2023-04-01, 15:58:21
könntest du den verlinken?

https://www.notebookcheck.com/The-Last-of-Us-Part-I-im-Test-Laptop-und-Desktop-Benchmarks.704420.0.html

Casillas
2023-04-01, 17:18:20
Joa. Muss jeder selbst wissen was er tut, wenn er sich ne Grafikkarte mir eigentlich perfomanter gpu kauft, wo der Speicher aber knapp angebunden und meist auch zu wenig ist.

Eine 1070 von Nvidia hatte vor 6 Jahren? Auch schon 8gb. Dann ging’s bei Nvidia mal wieder auf 6 und dann waren 8 gb auf einmal auch wieder genug.

Als die 3070 rausgekommen ist, war auch klar, dass die in der Speicheranbindung gegenüber einer 3080 stärker beschnitten war, als bei der eigentlichen GPU. Hab dann mal verglichen:

Zum Test der 3070 auf CB war die 3080 in WQHD in FPS/Perzentil 26%/21% schneller. In 4K 32%/30%.

Zum diesen Test der 4070Ti sind die Unterschiede in WQHD folgende: 32%/34% - in 4k 45%/48%

Also ist die Grafikkarte mit begrenzter speichermenge und speicheranbindung deutlich zurück gefallen in ihrer Leistung

Aber klar. Die Spieleentwickler sind schuld.

Gast
2023-04-01, 22:01:12
Treiber Probleme, weniger Leistung, mehr Verbrauch, kein DLSS, furchtbarer Encoder und unmöglich zu verkaufen, wenn man eine neue Karte hat.
Weniger Leistung? Naja, wenn den NV Karten der Speicher ausgeht, dann war's das mit "mehr Leistung". Sieht man ja im Test, da schneidet in den Min-FPS in QHD eine 6700XT sogar besser ab als eine 3080. Eigentlich trennen die Karten ja Welten. Aber wenn der Speicher ausgeht, war's das mit der Herrlichkeit.
Verbrauch: Ist Ampere schon so lange her? Und ob der Verbrauch von Ada immer noch so gut ist, wenn ihr der Ram ausgeht, da würde ich auch nicht drauf wetten. Klar, das Problem betrifft nur die 4070Ti und kleiner, ist da aber durchaus ein Thema.

Gast
2023-04-02, 01:39:15
Komisch, ich bin mit meiner AMD - GPU ganz zufrieden...

Das letzte mal dass ich mit AMD GPUs zufrieden war, war zur 9700/9800 Zeit. Aber ich glaub damals hieß es noch ATI.

OpenVMSwartoll
2023-04-02, 18:42:08
Das letzte mal dass ich mit AMD GPUs zufrieden war, war zur 9700/9800 Zeit. Aber ich glaub damals hieß es noch ATI.

Die Aussage ist aber wertlos, wenn man nicht weiß, welche AMD-Karten Dich begleitet haben und was Du jeweils als negativ wahrgenommen hast.

Polaris find ich z. B. immer noch okay.

IchoTolot
2023-04-02, 18:46:33
Das letzte mal dass ich mit AMD GPUs zufrieden war, war zur 9700/9800 Zeit. Aber ich glaub damals hieß es noch ATI.

Also vor 20 Jahren oder was? Und aus der Erfahrung werden heute noch Kaufentscheidungen getroffen? Na dann Prost zu den nvidia Preisen die ihr alle mittragt. :uup: