Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 5. Dezember 2024


Leonidas
2024-12-06, 08:08:11
Link zur News:
https://www.3dcenter.org/news/news-des-5-dezember-2024

Gast Ritis
2024-12-06, 09:18:07
habs zum gestrigen Artikel schon geschrieben.
Celestial soll beim HW-Team "im RTL" fertig sein, da ist noch kein Waver-Layout definiert.

Gast
2024-12-06, 11:11:54
Weiterhin ist also alles bisher an zwei Orten einstellbar, wobei GeForce Experience bzw. die nVidia-App im Detail natürlich mehr Möglichkeiten bietet als das althergebrachte Control Panel.

Nicht wirklich, rein von der Anzahl der Möglichkeiten würde ich ohne nachzuzählen sogar das alte CP vorne sehen.

Wie lange jenes noch mitgeschleppt wird, ist unklar.

Vermutlich "ewig", es wird nur nicht mehr weiterentwickelt. Der einzige Grund dieses nicht mehr auszuliefern wäre, falls Architekturänderungen im Treiber zur Inkompatibilität führen würden.

Gast
2024-12-06, 11:22:42
Interessante Ergebnisse, die Computerbase da gefunden hat:
Eine 3080 konkurriert hier teilweise nicht einmal mit einer 6700XT. Wer hätte das vor 2 Jahren gedacht. Schade, dass NVidia der Karte einfach zu wenig VRAM mitgegeben hat und schade, dass die Kritik an der VRam Menge kaum erfolgt ist und immer wieder relativiert wurde. Mit 12GB hätte NVidia immer noch genug verdient und die Karte könnte gut altern, denn Leistung hat sie ja eigentlich.

Das Thema hätte man bei PCGH auch klarer thematisieren können, im Text wird das nur kurz angeschnitten. Dass man dann die Tests nur mit Texture Pool auf "Low" durchführt, passt leider in's Bild. Man hätte hier zumindest Karten mit 8GB, 10GB, 12GB und 16GB durch die verschiedenen Pool Sizes jagen können. Vermutlich hat man das sogar gemacht (der Text deutet darauf hin), aber in ein Diagramm hat man das Ergebnis leider nicht gepackt.

The_Invisible
2024-12-06, 12:13:19
Die PoolSize Einstellung ändert aber nix an der bildqualität so lange man nicht zu niedrig geht, war bei vorigen id-tech Games auch schon so. Mit 8gb Karten hat man da einfach eine Stufe runter gestellt und es lief flüssig ohne schlechter auszusehen.

Leonidas
2024-12-06, 12:36:49
habs zum gestrigen Artikel schon geschrieben.
Celestial soll beim HW-Team "im RTL" fertig sein, da ist noch kein Waver-Layout definiert.

Eben gelesen, das genau ist wohl des Pudels Kern.

Exxtreme
2024-12-06, 12:48:11
Interessante Ergebnisse, die Computerbase da gefunden hat:
Eine 3080 konkurriert hier teilweise nicht einmal mit einer 6700XT. Wer hätte das vor 2 Jahren gedacht. Schade, dass NVidia der Karte einfach zu wenig VRAM mitgegeben hat und schade, dass die Kritik an der VRam Menge kaum erfolgt ist und immer wieder relativiert wurde. Mit 12GB hätte NVidia immer noch genug verdient und die Karte könnte gut altern, denn Leistung hat sie ja eigentlich.

Das Thema hätte man bei PCGH auch klarer thematisieren können, im Text wird das nur kurz angeschnitten. Dass man dann die Tests nur mit Texture Pool auf "Low" durchführt, passt leider in's Bild. Man hätte hier zumindest Karten mit 8GB, 10GB, 12GB und 16GB durch die verschiedenen Pool Sizes jagen können. Vermutlich hat man das sogar gemacht (der Text deutet darauf hin), aber in ein Diagramm hat man das Ergebnis leider nicht gepackt.

Man muss auch fairerweise sagen, es gibt nicht viele Spiele, die so VRAM-hungrig sind, dass die RTX3080 ein Problem damit hat. Und es gibt wiederum andere Spiele, wo diese Grafikkarte Kreise um die 6700XT dreht:

https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Benchmark-Grafikkarten-Test-Release-1455019/

Bei den 1%-Frames 71% schneller. X-D

Und ich würde auch nicht sagen, dass das 2021 so wirklich absehbar war, wie sich die Sache entwickelt.

Gast
2024-12-06, 13:54:15
Vermutlich wurde dies an anderer Stelle schon erwähnt, aber intel wird weiter GPUs entwickeln, sofern der Bereich nicht eingestampft/ausgelagert & eingekauft wird.
Aber ob es discrete GPUs geben wird, ist nicht mal für Battlemage-Nachfolger gesichert.

Gast
2024-12-06, 14:53:07
Sind 10% Waferausbeute nicht einfach 10% Waferausbeute, egal wie groß die darauf belichteten Chips sind?

bloodflash
2024-12-06, 15:15:11
Und ich würde auch nicht sagen, dass das 2021 so wirklich absehbar war, wie sich die Sache entwickelt.
Hmm, 8GB-Midrangekarten gab es schon 2016. Ich hatte 2018 eine Low-Budget-Karte mit 8GB für 169,-€ gekauft, eine RX570/8GB.
Und Du meinst ernsthaft, dass weitere 3 Jahre später nicht absehbar war, dass 8GB in 2024 evtl. nicht mehr ausreichend sein könnten!? Ernsthaft? Schon damals gab es Spiele die die 8GB in 1080p ausgereizt haben, z.B. Doom.

Gast
2024-12-06, 15:47:53
Bei den 1%-Frames 71% schneller. X-D

Und ich würde auch nicht sagen, dass das 2021 so wirklich absehbar war, wie sich die Sache entwickelt.
Dir ist schon klar, dass die 6700XT eigentlich der Konkurrent zur 3070 war, oder? Insofern ist das nicht verwunderlich, wenn man eine Grafikkarte, die 2021 zwischen 1000 und 2000€ (Durchschnitt laut Geizhals ca. 1200€) gekostet hat, mit einer vergleicht, die im selben Zeitraum von 600€-1000€ gekostet hat (Durchschnitt 800€) und eine Marktebene niedriger platziert war.

Und bezüglich nicht absehbar gab es ja schon einen Kommentar. Ich denke, der Trend war durchaus erkennbar, nur hat NVidia das in Kauf genommen. Finde ich bei der Preisklasse allerdings durchaus fragwürdig, denn bereits 12GB wären ja deutliche Linderung gewesen, und solche Karten (3080Ti) hat man ja dann später auch gebracht.

Klar, man kann das Spiel natürlich mit Anpassungen auf ein wieder gut spielbares Level einstellen. Aber das ist halt mehr als Schade, wenn der Chip eigentlich viel mehr könnte. Bei RDNA2 hieß es da immer nur, dass die RT Schwäche für die Zukunft ein Problem sein wird. Aber dass der VRam Ausbau bei Ampere ein ähnliches Problem ist, ist ja inzwischen auch offensichtlich.

Leonidas
2024-12-06, 16:26:18
Sind 10% Waferausbeute nicht einfach 10% Waferausbeute, egal wie groß die darauf belichteten Chips sind?

Die Waferausbeute ermisst sich an brauchbaren Chips pro Wafer. Es kommt also sehr wohl darauf an, welche Chips das sind. Riesen-Chips haben ganz automatisch niedrigere Ausbeuten.

Recht hättest Du, wenn man die Ausbeute in Defekt pro mm² angibt. Ist halt einfach nicht üblich.

Exxtreme
2024-12-06, 16:42:26
Hmm, 8GB-Midrangekarten gab es schon 2016. Ich hatte 2018 eine Low-Budget-Karte mit 8GB für 169,-€ gekauft, eine RX570/8GB.
Und Du meinst ernsthaft, dass weitere 3 Jahre später nicht absehbar war, dass 8GB in 2024 evtl. nicht mehr ausreichend sein könnten!? Ernsthaft? Schon damals gab es Spiele die die 8GB in 1080p ausgereizt haben, z.B. Doom.

Naja, das Spiel läuft auch mit 10 GB problemlos wenn man die Detailstufe heruntersetzt. Und andererseits ist das so, dass die Kunden dieses Sparen an VRAM finanziell belohnt haben. Sprich, Nvidia hat nur das geliefert was am Markt sehr gut ankam.

Platos
2024-12-06, 16:45:07
Ändert nichts daran, dass schon Damals direkt bei Launch von vielen Angemerkt wurde, dass 10GB in Zukunft knapp werden könnte.

Und abgesehen davon gibts ja mittlerweile genug Spiele, die auch 12GB-Karten Vernichten.

War m.M.n abzusehen.

Gast
2024-12-06, 17:04:14
10% vollständig funktionsfähige 800mm2 Chips wären jetzt nicht so schlecht.

10% überhaupt verwendbare wären selbst bei 800mm2 komplett unbrauchbar.

Troyan
2024-12-06, 17:14:31
Nun, der Launch ist 4 Jahre her und dank UE5 ist die 3080 nun auf dem Niveau der 6950XT. Verloren haben also die AMD Leute, die sich eine 6800XT gekauft haben - z.B. in Marvel Rivals: https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/marvel-rivals-test-gpu-cpu

In 1080p reichen die 10GB locker.

Gast
2024-12-06, 17:56:57
Und dies ist beim neuen Indiana-Jones-Spiel nur noch das fünfthöchste Setting (Low, Medium, High, Ultra, Giga, Hyper

Ich weiß schon, wie Intel seine beiden nächsten CPU-Generationen nennen wird.:ugly:

The_Invisible
2024-12-06, 19:06:50
Nun, der Launch ist 4 Jahre her und dank UE5 ist die 3080 nun auf dem Niveau der 6950XT. Verloren haben also die AMD Leute, die sich eine 6800XT gekauft haben - z.B. in Marvel Rivals: https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/marvel-rivals-test-gpu-cpu

In 1080p reichen die 10GB locker.

Jo zudem sind die ue5 sehr vram genügsam und es kommen immer mehr Spiele damit raus in unterschiedlichsten Genres.

Rabiata
2024-12-07, 00:53:08
Man muss auch fairerweise sagen, es gibt nicht viele Spiele, die so VRAM-hungrig sind, dass die RTX3080 ein Problem damit hat.

[..]

Und ich würde auch nicht sagen, dass das 2021 so wirklich absehbar war, wie sich die Sache entwickelt.
Daß die VRAM-Größe in der Regel zuerst zum Problem wird, war schon länger bekannt. Ich selbst nutze meine GraKas sehr lange und bekomme damit aus eigener Anschauung mit, wo es zuerst kneift. Typisch sind Nachladeruckler (Crossout) oder fehlende Texturen (World Of Tanks). Meist ist die Framerate ansonsten noch im 30+ Bereich, was ich außer für hektische FPS durchaus akzeptabel finde.

Tigerfox
2024-12-07, 12:59:06
Interessante Ergebnisse, die Computerbase da gefunden hat:
Eine 3080 konkurriert hier teilweise nicht einmal mit einer 6700XT. Wer hätte das vor 2 Jahren gedacht. Schade, dass NVidia der Karte einfach zu wenig VRAM mitgegeben hat und schade, dass die Kritik an der VRam Menge kaum erfolgt ist und immer wieder relativiert wurde. Mit 12GB hätte NVidia immer noch genug verdient und die Karte könnte gut altern, denn Leistung hat sie ja eigentlich.
Wieso vor 2 Jahren? Ich hab das schon bei Release befürchtet, spätestens, als man die 8GB-Karten schon zu Release mit RT in die Knie zwingen konnte. Wenn man dann eine so ungewöhnliche Größe wie 10GB wählt, die ansonsten nur sehr wenige Karten hatten, dann wird diese bei der Spieleentwicklung kaum beachtet.

Man muss auch fairerweise sagen, es gibt nicht viele Spiele, die so VRAM-hungrig sind, dass die RTX3080 ein Problem damit hat. Und es gibt wiederum andere Spiele, wo diese Grafikkarte Kreise um die 6700XT dreht:
[...]
Und ich würde auch nicht sagen, dass das 2021 so wirklich absehbar war, wie sich die Sache entwickelt.
Dem würde ich widersprechen, es war, nachdem 8-11GB schon zwei Generationen Standard waren, zumindest nicht ganz unwahrscheinlich. Und selbst 12GB hätten die Karte schon sehr viel langlebiger gemacht. Hat man dann ja auch als 3080 12GB nachgeschoben, leider so spät und zu so einem Preispunkt, dass die Karte kaum gekauft wurde.

Hmm, 8GB-Midrangekarten gab es schon 2016. [...]
Und Du meinst ernsthaft, dass weitere 3 Jahre später nicht absehbar war, dass 8GB in 2024 evtl. nicht mehr ausreichend sein könnten!? Ernsthaft? Schon damals gab es Spiele die die 8GB in 1080p ausgereizt haben, z.B. Doom.
Eben, man sollte auch solche Möglichkeiten bei der Produktgestaltung berücksichtigen.
Und bezüglich nicht absehbar gab es ja schon einen Kommentar. Ich denke, der Trend war durchaus erkennbar, nur hat NVidia das in Kauf genommen. Finde ich bei der Preisklasse allerdings durchaus fragwürdig, denn bereits 12GB wären ja deutliche Linderung gewesen, und solche Karten (3080Ti) hat man ja dann später auch gebracht.

Klar, man kann das Spiel natürlich mit Anpassungen auf ein wieder gut spielbares Level einstellen. Aber das ist halt mehr als Schade, wenn der Chip eigentlich viel mehr könnte. Bei RDNA2 hieß es da immer nur, dass die RT Schwäche für die Zukunft ein Problem sein wird. Aber dass der VRam Ausbau bei Ampere ein ähnliches Problem ist, ist ja inzwischen auch offensichtlich.
Die 3080Ti war aber im Prinzip eine 3090 für alle, die das Speicher-Risiko bewusst eingehen wollten, auch weil sie sich ohnehin jede Generation eine neue Karte kaufen. 12GB ist auch schon viel besser, inzwischen aber auch nicht ganz optimal für hohe Auflösungen, was für 4070/S/Ti auch sehr ärgerlich ist.

AMD bringt der große Speicher nicht viel, weil die Rohleistung bzw. die RT-Leistung, wo der Speicher hauptsächlich gebraucht wird, eben nicht stimmt. NV bringt die RT-Leistung nur bedingt etwas, weil der Speicher nicht stimmt. Beides Mist.

Naja, das Spiel läuft auch mit 10 GB problemlos wenn man die Detailstufe heruntersetzt. Und andererseits ist das so, dass die Kunden dieses Sparen an VRAM finanziell belohnt haben. Sprich, Nvidia hat nur das geliefert was am Markt sehr gut ankam.

Die 3080 ist eine Highendkarte der letzten Generation. Auch wenn sie 4 Jahre alt ist, es gibt gerade mal eine Nachfolgeneration. Bei so einer Karte sollte man in keinem Spiel jetzt schon in 1080p/1440p die Details auf "Medium" stellen müssen.

Ändert nichts daran, dass schon Damals direkt bei Launch von vielen Angemerkt wurde, dass 10GB in Zukunft knapp werden könnte.

Und abgesehen davon gibts ja mittlerweile genug Spiele, die auch 12GB-Karten Vernichten.

War m.M.n abzusehen.

Sehe ich genauso.

Daß die VRAM-Größe in der Regel zuerst zum Problem wird, war schon länger bekannt. Ich selbst nutze meine GraKas sehr lange und bekomme damit aus eigener Anschauung mit, wo es zuerst kneift. Typisch sind Nachladeruckler (Crossout) oder fehlende Texturen (World Of Tanks). Meist ist die Framerate ansonsten noch im 30+ Bereich, was ich außer für hektische FPS durchaus akzeptabel finde.

Genau das ist auch meine Erfahrung und deshalb hätte ich gerne die Möglichkeit, etwas mehr für eine langlebige Karte auszugeben. Ich werde auch keine 5070 mit 12GB kaufen und wahrscheinlich nichtmal die 5070Ti mit 16GB, sondern auf den Refresh mit hoffentlich 24GB durch 3GB-Module warten. Alternativ eine 8800XT(X), wenn die RT-Leistung mich überrascht.

Ärgerlich ist es ja nicht nur für die Besitzer einer 3080 10GB, sondern vor allem für die Käufer einer 3070(Ti) oder 4060Ti mit 8GB, die auch noch relativ teuer waren und noch nicht alt sind und bei diesem Spiel völlig abschmieren.

Platos
2024-12-07, 13:22:22
Bezüglich 10GB: Ich erinnere mich noch an 1080Ti Zeiten, wo es schon Spiele gab, die unter 4k die 11GB gefuttert haben. 10GB wurde schon damals direkt am Launchtag bemängelt. Sogar die 12GB der 4070Ti wurde bemängelt. Ich hatte selbst eine (als Übergang) und es hat eig. gereicht, aber eben nur damals. Ich würde heutzutage keine GPU mehr unter 12GB kaufen für 1080p. Und Grafikkarten für 4k mindestens 16GB. Für 4k+ Sollte man idealerweise eig. schon 20GB+ haben. Z.B Leute die 4k + DLDSR benutzen. Aber Grafikkarten mit mehr wie 16GB gibts ja leider nicht so viele.

Zum Glück bin ich immer 1-2 Jahre hinterher mit Spielen. Das entschärft die Problematik etwas.

Daß die VRAM-Größe in der Regel zuerst zum Problem wird, war schon länger bekannt. Ich selbst nutze meine GraKas sehr lange und bekomme damit aus eigener Anschauung mit, wo es zuerst kneift. Typisch sind Nachladeruckler (Crossout) oder fehlende Texturen (World Of Tanks). Meist ist die Framerate ansonsten noch im 30+ Bereich, was ich außer für hektische FPS durchaus akzeptabel finde.

Sag das nicht im PC Masterrace Forum.

Da ist 30FPS komplett unspielbar :D
Quasi ein Grund zum deinstallieren :D

Und 60 FPS ist auch nur mit einem Auge zugedrückt spielbar, aber eigentlich sollte es doch schon 120Hz im Minimum sein (wobei ja eig. 144Hz).

bushMills
2024-12-07, 23:56:36
Es war seit Jahren absehbar das das ganze so enden würde. Bei den abgehobenen Preisen und dann zuwenig Vram und dem Zusammenspiel von Medien und NV, bleibt nur noch Melkvieh übrig. Wir sehen ja das wenn die 5090 für 5090€ kommt, es kaum Kritik geben wird auch die halbgaren 12gb Karten für Arme darunter, werden wieder für ihre Preis/Leistung gelobt werden und die ganze S...Sache geht wieder von vorne los. Wenns doch Kritiker geben sollte, werdens die zukünftig nicht belieferen, Kritik wird bei all den Lobeshymnen im Nichts verhallen. Auch der Letzte merkt, das man mit Kritik kein Geld/Klicks verdient und von daher ists auch egal was NV machen wird, es wird auf jedenfall die Kunden treffen. (Satire und Ironie inside:)

Platos
2024-12-08, 09:04:42
Deswegen kriegen die grossen Youtuber trotz massig Kritik weiterhin samples...