Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 28. Oktober 2025
Leonidas
2025-10-29, 08:17:33
Link zur News:
https://www.3dcenter.org/news/news-des-28-oktober-2025
"Dies ist erst einmal korrekt, vergisst aber die klare Grundregel, nicht vergleichsweise teure Güter (wie eben Gaming-Notebooks, welche man auch nicht mehr aufrüsten kann) zu erstehen auf Basis von Spezifikationen, die jetzt schon an der Grenze dessen liegen, was noch geht. Solcherart Gerätschaften werden üblicherweise mehrere Jahre benutzt und müssen sich später also auch mit noch höheren Anforderungen bei nochmals neueren Spieletiteln herumschlagen – da darf es nicht jetzt schon knapp auf Kante genäht sein. "
Naja, das ist halt auch eine Preisfrage. Ich habe mir erst vor kurzem ein Nitro16 mit einer 4070m geholt, weil bei meinem Asus Laptop wohl am internen Spannungswandler/Netzteil was defekt gegangen ist.
Eigentlich wollte ich mindestens 12GB VRam, aber entsprechende Geräte mit aktueller Technik haben damals grob das doppelte von meinem Neuen gekostet. Sorry, aber etwa 1000€ Aufpreis war mir das dann nicht Wert, da mache ich dann lieber Abstriche in der Bildqualität.
Oder anders ausgedrückt: Teure Güter werden, wenn man das berücksichtigt, noch einmal so viel teurer, dass sich der Aufpreis unter Umständen nicht mehr lohnt.
Grafikspachtel
2025-10-29, 10:20:15
Computerbase war noch am dichtestesten dran.
Für RDNA2 hätten sie für einen besseren Vergleich die 6800 mit 60CU nehmen sollen,
da die 7800XT ebenfalls 60 CU hat und nur die 9070er geringfügig abweichen (56CU oder 64CU).
Außerdem hat die 6800 dieselbe Menge VRAM (16GB) wie 7800XT und 9070XT.
Darüber hinaus haben alle vier Kandidaten 5700XT, 6800, 7800XT und 9070XT den selben Memory Bus (256-bit).
Bei PCGH geht's drunter und drüber: 5700XT, 6800XT, 7900XTX, 9070XT
-> Wenn von jeder Generation das Beste genommen wird, warum dann nicht die 6950XT?
So oder so passt da gar nichts.
5700XT: 40CU, 8GB, 256-bit
6800XT: 72CU, 16GB, 256-bit
7900XTX: 96CU, 24GB, 384-bit
9070XT: 64CU, 16GB, 256-bit
Exxtreme
2025-10-29, 10:25:55
John Carmack ist seit 2013 kein id-Software-Mastermind. ;)
John Carmack ist seit 2013 kein id-Software-Mastermind. ;)
Und wenn man mal genauer nachliest und nicht nur die Clickbait-Überschrift erkennt man auch dass es sich hier gleich um mehrere Fehlinterpretationen der Specs handelt.
Die 240W beziehen sich auf das Gesamtsystem, wovon sich die GPU die angegebenen 100W genehmigen darf. Der Rest kommt durch die falsche Umrechnung zwischen den (gemessenen) BF16 und den angeblich zu niedrigen MXFP4
Das ganze ist natürlich eine Milchmädchenrechnung wenn der Hersteller definiert was "Midrange" ist. Ausgehend vom Preis der 6700XT (500€),(die Preise in Deutschland sind um 13% bzw 22% mit Energiekosten seit 2021 gestiegen) sollte Midrange dann 565€ bis 610€ sein also eher 9070GRE preislich gesehen. Und dann sieht der großartige Zuwachs ganz anders aus. VRAM ebenfalls 12GB und CUs 48.
Fast wie beim Autovergleich. Kleinwagen gibt es nicht mehr oder man definiert einfach eine neue Klasse.Fiat 500 oder Mini Cooper haben inzwischen das doppelte Volumen ihres Ursprungs.
Rabiata
2025-10-29, 14:47:55
Computerbase war noch am dichtestesten dran.
Für RDNA2 hätten sie für einen besseren Vergleich die 6800 mit 60CU nehmen sollen,
da die 7800XT ebenfalls 60 CU hat und nur die 9070er geringfügig abweichen (56CU oder 64CU).
Außerdem hat die 6800 dieselbe Menge VRAM (16GB) wie 7800XT und 9070XT.
Darüber hinaus haben alle vier Kandidaten 5700XT, 6800, 7800XT und 9070XT den selben Memory Bus (256-bit).
Bei PCGH geht's drunter und drüber: 5700XT, 6800XT, 7900XTX, 9070XT
-> Wenn von jeder Generation das Beste genommen wird, warum dann nicht die 6950XT?
So oder so passt da gar nichts.
5700XT: 40CU, 8GB, 256-bit
6800XT: 72CU, 16GB, 256-bit
7900XTX: 96CU, 24GB, 384-bit
9070XT: 64CU, 16GB, 256-bit
Man könnte auch nach ähnlichem Preis und Stromverbrauch vergleichen, soweit möglich. Dann paßt die Abfolge RX 5700 XT => 6700 XT einigermaßen.
Als nächstes würde eher die 7700 XT ins Konzept passen. Bei PCGHs Test nicht mit dabei, aber aus den 3DCenter Indices ist sie etwa 12% langsamer als die 7800 XT, bei 229W Stromverbrauch. Beziehungsweise 25% schneller als die 6700 XT (Raster FHD). Ein alter PCGH- Artikel von Februar 2024 gibt den Preis als "ab 444 Euro" an.
In der 9000er Generation gibt es nichts wirklich gut passendes, aber nehmen wir mal die 9070 non-XT. Diese ist laut 3DCenter Index etwa 40% schneller als die 7700 XT (Raster FHD), beziehungsweise 76% schneller als die 6700 XT. Dabei verbraucht sie 220W, was auch im Rahmen der anderen Karten ist. Preise aktuell ab 560 Euro laut Geizhals.
Gast Ritis
2025-10-29, 15:20:37
Der RDNA-Vergleich ist doch eigentlich Banane.
AMD hat festgestellt dass 4k nicht im Mainstream und abseits derer Zielgruppe im Midrange liegt. Also haben die konsequent die Karten auf bis zu QHD ausgelegt und den IF-Cache kleingespart. Schon von RDNA2 auf RDNA3 war die 4k Skalierung nicht mehr im Verhälntis der sonstigen Leistungszugewinne, mit RNDA4 und nur einem Mittelklassechip ist die Bremse noch deutlicher. AMD hat zwar in der ISA extra Flags für IF-Cachemanagement eingeführt, nur wird wohl kaum jeder Spieletitel und Treiber immer für jede Variante durchoptimiert, der Cachebedarf hängt auch von einzelnen Grafikoptionen und der Auflösung ab. Und IF-Cache war und ist vor allem ein Trick um langsameren VRAM zu nutzen, ist der zu klein skaliert man nicht mehr so gut wie die Konkurrenz.
Das ganze Herumbenchen bringt auch irgendwann keine neuen Erkenntnisse mehr. Man sollte besser anfangen die Zusammenhänge zu sehen und zu verstehen. Vielleicht sogar wagen die dem Leser zu erklären und AMD unangenehme Fragen zu stellen.
Es ist offensichtlich dass AMD sich für geringere Chipkosten und weniger High-End Eignung entschieden hat. Von den Programmierern der Games-Portierungen wird regelmässig zu viel Optimierung abverlangt. Meist bleibt Radeon da aber auf der Strecke. Nur wo es in der Engine mit den Optimierungen passt wie bei CoD ist der IF-Cache auch mal nicht zu klein. Das bleibt aber die Ausnahme. Das haben die bei AMD noch nicht einsehen wollen, oder aber eben bewusst auf den Preisvorteil für die Mittelklasse gesetzt weil die 4k-Fetischisten fast alle nur Nvidia kaufen würden.
Exxtreme
2025-10-29, 15:36:30
Es ist offensichtlich dass AMD sich für geringere Chipkosten und weniger High-End Eignung entschieden hat.
Das ist korrekt weil die Kunden exakt so mit dem Geldbeutel abstimmen. Ich glaube, irgendein AMD-Heini sagte mal, die allerwenigsten Kunden geben mehr als 800 USD für Grafikkarten aus. Also haben sie sowas auch kaum mehr im Angebot.
DozerDave
2025-10-29, 17:14:53
...
Es ist offensichtlich dass AMD sich für geringere Chipkosten und weniger High-End Eignung entschieden hat. Von den Programmierern der Games-Portierungen wird regelmässig zu viel Optimierung abverlangt. ...
Ja wer kennt nicht die Unreal Engine 5 Spiele die auf jedem Toaster laufen.^^
Platos
2025-10-29, 18:25:20
Also bezüglich Upgradebarkeit von Laptop-GPUs: Der 16" Frameworklaptop kann das, allerdings ist das Problem weiterhin, dass die Upgradeteile nicht frei verfügbar sind auf dem Markt, also nur bei Framework selber. Das heisst, es ist teuer, weil Monopolstellung in dem Punkt. Da kostet dann ne RTX 5070 700 Dollar.
Aber Framework ist sowieso viel zu teuer und wird auch immer teurer.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.