PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4./5. November 2023


Leonidas
2023-11-06, 07:42:34
Link zur News:
https://www.3dcenter.org/news/news-des-45-november-2023

Aroas
2023-11-06, 08:45:21
Ich verstehe einfach nicht, wie man sich angesichts der Anforderungen aktueller und kommender Spiele sehenden Auges für 600€+ eine RTX 4070 mit nur 12GB Speicher kaufen kann.
Wenn schon in FullHD oft 8GB nicht mehr ausreichen um volle Texturdetails zu fahren, nimmt man doch keine 12GB Karte zu diesem Preis.
Eine gebrauchte RX 6700XT für unter 300€ ist ok mit 12GB.
Aber bei 600€+ geht unter 16GB einfach mal gar nichts.

Legendenkiller
2023-11-06, 09:06:06
Ich fühle mich mal angesprochen.

Jedes Spiel in den nächsten 10 Jahren wird mir 12 Gb laufen, der Trick verbirgt sich unter Grafikeinstellungen, Settings.

Ich hatte vorher eine 1070 mit 8Gb und auf der lief alles was ich zoken will, halt mit zu wenig FPS und oft nur noch in Normal-Grafikdetails.
Klar hätte ich lieber 16GB genommen, aber die 4070 ist es geworden weil sie die effizienteste Graka ist (läuft bei mir mit 2,4Ghz@0,85V mit 130W TPD)
Die 6800 und auch die 7800 verbrauchen mir einfach zu viel Strom, ich muss den halt selber bezahlen und im Sommer die Abwärme noch zusätzlich mit einer Klimaanlage wieder wegkühlen.

Und wenn ein Spiel zukünftig wirklich nicht mit 12 GB läuft, kaufe ich es einfach nicht. Iss ja nicht so das da blos 3 Spiele im Jahr rauskommen. Ich gehe aber davon aus das man es die nächsten 10 Jahre, mit Settings eine Stufe runterstellen, lösen kann.
Ja aber ich weiß schon , mimimimimi, immer das beste wollen aber für am liebsten für Umme.


Aktuell spiele Ich Ufo Aftermatch , das benutzt 1 Gbyte VRam und Factorio nutz 2-4 Gbyte VRam :-)

Gast
2023-11-06, 10:02:31
@Legendenkiller

<< Jedes Spiel für die nächsten 10 Jahre wird mit 12 Gb laufen >>

Das ist die Frage. Klar wirst Du immer Auflösung/Texturdetails nach unten drehen können. Die Frage ist, ob das passiert bevor die Rohleistung der Karte (die ja gut ist) ausgeschöpft ist. Da besteht ein großes Fragezeichen.

Mit meiner 6 Gb 3060 RTX im Notebook (stark UV; 120W TGP) habe ich momentan tatsächlich keine Speicherprobleme. Der Grund ist schlicht, dass für Games wie Darktide eh wegen der Rohleistung nur mittlerere Details in Kombination mit DLSS "Performance" in Frage kommen. Also eine geringe interne Renderauflösung mit reduzierten Texturdetails => 6 Gb reichen.

Ob Dir das mit Deiner 4070 auch so gehen wird?

The_Invisible
2023-11-06, 10:33:51
Ich verstehe einfach nicht, wie man sich angesichts der Anforderungen aktueller und kommender Spiele sehenden Auges für 600€+ eine RTX 4070 mit nur 12GB Speicher kaufen kann.
Wenn schon in FullHD oft 8GB nicht mehr ausreichen um volle Texturdetails zu fahren, nimmt man doch keine 12GB Karte zu diesem Preis.
Eine gebrauchte RX 6700XT für unter 300€ ist ok mit 12GB.
Aber bei 600€+ geht unter 16GB einfach mal gar nichts.

UE5 hat keinen Speicherhunger und CP2077/Alan Wake2 mit PT gehen für die 4070 vernünftige Auflösungen auch. Da könnte ich genauso gut fragen warum man sich eine 1k Radeon kaufen soll die in PT viel langsamer ist als eine 4070. Und jetzt sag nicht man kann RT/PT ausschalten, ich kann mit der 4070 auch Details reduzieren wenn nötig.

Gast
2023-11-06, 13:16:06
Daran sieht man wie ineffizient AMDs CU sind. 72 versus 58 und nur 7% schneller in ausgewählten Benchmarks. Dann schaltest du RT ein und bei Radeon geht das Licht aus. RDNA3 bleibt ein Rohrkrepierer. Nvidia bringt nur was sie müssen.

GerryB
2023-11-06, 14:08:13
Ich hatte vorher eine 1070...
Klar hätte ich lieber 16GB genommen, aber die 4070 ist es geworden weil sie die effizienteste Graka ist (läuft bei mir mit 2,4Ghz@0,85V mit 130W TPD)
Die 6800 und auch die 7800 verbrauchen mir einfach zu viel Strom

Die anderen Grakas lassen sich auch UVen.

Wo kommt eigentlich die irrige Meinung her, das ne 6800 säuft?
(die 6800@409€ ist soooo viel preiswerter als ne 4070@579€, da muss man schon laaaaange Strom sparen)

Exxtreme
2023-11-06, 14:14:50
Ich glaube, sie verwechseln die 6800 mit der 6800 XT. Die letztere säuft tatsächlich recht ordentlich. Ist wohl nahe der Kotzgrenze.

GerryB
2023-11-06, 14:43:11
... der 6800 XT. Die letztere säuft tatsächlich recht ordentlich. Ist wohl nahe der Kotzgrenze.
NO, die 6800xt hat nur ab Werk ne seeeeehr hohe Voreinstellung bezgl. minGFX.(und ein vollkommen überzogenes PL von 254W tgp)

mit 150W tgp läufts auch noch ausreichend (der Kollege hat die minGFX von 881mV auf 825mV senken können ohne Probleme)

btw.
Der Preisvorteil der 6800xt@499€ ggü. ner 7800xt@539€ ist natürlich nicht so groß.
Aber wenns 16GB sein sollen ne gute Wahl.

Gast
2023-11-06, 18:26:36
Daran sieht man wie ineffizient AMDs CU sind. 72 versus 58 und nur 7% schneller in ausgewählten Benchmarks. Dann schaltest du RT ein und bei Radeon geht das Licht aus. RDNA3 bleibt ein Rohrkrepierer. Nvidia bringt nur was sie müssen.

Das ist falsch.

Der höhere Energiebedarf ist der Trennung von Last Level Cache und CU auf verschiedene Dies zuzuschreiben, obendrein ist das Fertigungsverfahren nicht so fortgeschritten auf RDNA3.

Die CUs selbst sind tatsächlich im Design gleich effizient wie die Nvidia SM, man muss die verbrauchte Fläche, den Fertigungsvorteil und den IF-Cache Verbrauch gegenrechnen.

AMD hat lediglich entschieden den Chipletvorteil nicht mit mehr CUs pro $$ deutlich zu ihren Gunsten auszulegen, sondern selbst Marge zu machen. Der Takt um das auszugleichen treibt den Verbrauch.

Der L2 bei Nvidia ist mittlerweile gigantisch, das ist aber kein Wunderdesign, nur schneller grosser Cache...

crnkoj
2023-11-06, 18:48:40
Hey diese CPU Verkaufszahlen von mf sind leider ein kleiner Witz. Mf hat sehr häufig AMD CPUs im mindstar oder damn Deal, Intel CPUs fast nie. Wenn mf die CPUs im mindstar hat, steigen auch die AMD verkaufe stark an, wenn nicht fallen diese wieder. Das gleiche gilt bei den Grafikkarten, sind die im mindstar, steigen die Verkäufe, sogar bei Intel. Vielleicht könnte man etwas weniger Gewicht diesen Zahlen zusagen?

Aroas
2023-11-06, 20:24:37
...der Trick verbirgt sich unter Grafikeinstellungen, Settings.


Oh, wieder so ein gaaaanz Schlauer... Wie mich das ermüdet.

Ich will aber speziell die Texturdetails nicht reduzieren! Ich HASSE Matschtexturen. Und noch schlimmer sind gleich mal gar nicht ladende Texturen aufgrund von zu wenig Speicher.
Gegen Letzteres kannst du auch mit niedrigeren Settings einen Scheissdreck ausrichten.

So hoch wie möglich aufgelöste Texturen sind das A und O in einem Spiel.
An anderer Stelle kann ich durchaus auf Details verzichten, wenn die FPS sonst nicht ausreichen. Aber nicht bei den Texturen, nein.

Aroas
2023-11-06, 20:27:11
UE5 hat keinen Speicherhunger und CP2077/Alan Wake2 mit PT gehen für die 4070 vernünftige Auflösungen auch.

Und mit einer 600€+ Karte spielst du in den nächsten 3-4 Jahren stets und ständig nur diese zwei Spiele und kaufst dir nicht etwa mal was neueres, was dann mehr Speicherbedarf hat?
Und du spielst das auch die ganze Zeit nur in FullHD oder max. WQHD?

Ok, wenn dem so ist, dann mögen die 12GB ausreichend sein.

Ich würde halt nicht so viel Geld für eine Karte ausgeben, bei der zu 100% sicher ist, dass in den nächsten Jahren der Speicher zu gering sein wird.

Schrotti
2023-11-06, 20:43:13
Selbst meine ARC770 hat schon 16 GB VRAM und die hat mich nur knapp über 300 Euro gekostet.

Exxtreme
2023-11-06, 20:46:02
VRAM ist auch nicht teuer. AFAIR 5 - 10 USD pro 8 GB GDDR6.

bbott
2023-11-06, 23:01:43
Daran sieht man wie ineffizient AMDs CU sind. 72 versus 58 und nur 7% schneller in ausgewählten Benchmarks. Dann schaltest du RT ein und bei Radeon geht das Licht aus. RDNA3 bleibt ein Rohrkrepierer. Nvidia bringt nur was sie müssen.
Im Vergleich zur 4090m sieht's gar nicht so schlecht aus. Die 4090m sieht auch schlecht aus im Vergleich zur 4080m 😉

Gast
2023-11-07, 12:41:05
Daran sieht man wie ineffizient AMDs CU sind. 72 versus 58 und nur 7% schneller in ausgewählten Benchmarks. Dann schaltest du RT ein und bei Radeon geht das Licht aus. RDNA3 bleibt ein Rohrkrepierer. Nvidia bringt nur was sie müssen.

SMs mit CUs zu Vergleichen ist Äpfel mit Birnen zu vergleichen.

Freilich ist AMD im Vergleich zu Nvidia ziemlich ineffizient, die SM/CU-Anzahl zu vergleiche ist aber einfach nur blöd.