PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 4. August 2021


Leonidas
2021-08-05, 07:50:18
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-august-2021

Man beachte bitte das Update zu 3dfx vom 5.8. um 8:28.

Legendenkiller
2021-08-05, 08:38:32
Das ist der knacksus casus.


Gut die 100$ klasse übernehmen die iGPUs.

Aber es fehlen klar Angebote wie ala 1050Ti für 150-175€ und sowas wie 1060 3G/6G für 235/285€ UVP.
Im Zweifel ebend eine Gen älter ... z.b. als 2060 oder 1660TI.
Aber die Karten sind alle eingestellt.

Bleibt für den Mainstreamkäufer also blos OEM Angebote oder der Gebrauchtmarkt.

Problem ist , solange AMD undNvidia das Zeug aus den Händen gerissen wird ... warum sollten sie das tun.

HeroQuest
2021-08-05, 09:43:53
Ich hab immer noch eine 1050 Ti im Rechner. Und die wird da auch die Stellung halten bis der ganze Wahnsinn endlich vorbei ist.

YeahBuoy!
2021-08-05, 09:46:26
In Zeiten von Komponentenknappheit und Kunden die den Herstellern alle Karten aus der Hand reissen die sie kriegen können werden sich die Controller bei AMD/Nvidia halt mit klassischer Engpasskalkulation behelfen müssen; sprich wo in Relation zur Absatzmenge die höchste Marge erzielt wird, wird die Fertigung hochgefahren. Ist ja auch fürs Marketing nicht so prickelnd wenn man Karten vorstellt die dann keiner kaufen kann.

Langfristig sehe ich das aber mit als drängendstes Problem da die Einkommen ja jetzt nicht plötzlich durch die Decke gehen. Entrylevel kann man ja noch ganz gut mit iGPUs in den Griff kriegen, aber für den Casual / Esport Kunden muss spätestens bis Weihnachten ein preislich attraktives Angebot geschnürt werden das nicht aus umgelabelten alten Karten besteht.

Dino-Fossil
2021-08-05, 09:54:11
Langfristig müssen sie eigentlich den 200-300€ Preisbereich auch wieder bedienen. Als reines High-End Hochpreis-Hobby sehe ich wenig Potential für PC-Gaming, da dann irgendwann auch die Spieleschmieden aussteigen. Dann gibt's AAA Gaming eben nur noch auf Konsolen.
Ältere und einfachere Sachen wir man hingegen in den nächsten Jahren immer mehr&besser auch ausreichend gut auf den iGPUs zocken können (mit der Einschränkung, dass halt möglicherweise nicht mehr viel aus dem AAA Bereich nachkommt.)

greeny
2021-08-05, 10:18:21
... nachdem eine "Jansen Products" genannte Firma angebliche "3dfx-Assets" übernommen ...
Ein "e" zu viel...
Andererseits ist das ganze für einen Fake- oder Troll-Versuch bereits zu aufwendig, ...
Ein "d" zu wenig...

cipoint
2021-08-05, 10:34:35
Totgesagt wurde der Spiele-PC ja schon einmal. Vermutlich werden wir erst nach der Covid-Krise abschätzen können, wie überlebensfähig der PC dann noch sein kann. Schade fände ich es schon. Aber alles hat ein Ende. Ich denke aber dass zumindest die nächte und übernächste GPU-Generation noch für den PC kommen wird, was uns doch noch ein paar Jahre Zeit verschaffen wird. Dass die Preise nicht mehr auf das alte Niveau sinken werden halte ich für sehr plausibel und wahrscheinlich. Midrange GPUs aus der aktuellen Generation für 200€ werden wir wohl nie wieder sehen.

Abgesehen davon scheinen die Preise aber nun wieder ganz langsam zu sinken. Ich konnte gestern eine Gigabyte 3080 für 1030€ bei MF kaufen, nachdem ich die 2080 Zi vor 2 Monaten für 1050€ verkauft habe und zwischenzeitlich auf einer 1050 saß (für 200€!).

Complicated
2021-08-05, 11:07:42
Es gab Zeiten, da konnten man für einen Konsolen-Preis auch einen (stark Preis-optimierten) Mainstream-PC (samt Mainstream-Grafikkarte) erwerben – heuer reicht es gerade für eine einzelne Midrange-Grafikkarte. Dies mag im Enthusiasten-Segment keine Rolle spielen, aber in den anderen Marktsegmenten wird man mit dieser Preisansetzung an Käufern verlieren – welche entweder zu anderen Systemen abwandern, oder aber zukünftig seltener/niedriger kaufen.
Hier denke ich ist die Allokation der verfügbaren Wafer dafür verantwortlich - es gibt einfach nicht genügend für eine breite Versorgung der Midrange-Käufer, solange die benötigte Waferfläche für Server/Datacenter ansteigt in der jetzigen Situation und deutlich höhere Margen möglich sind.

Loeschzwerg
2021-08-05, 11:10:02
Man beachte bitte das Update zu 3dfx vom 5.8. um 8:28.

LOL, schon die erste Folie "Here a few key-details..."

Sorry, aber so schreibt doch niemand mit echtem Business Hintergrund ^^ Auch die weiteren Daten sind ein Witz, was soll das ein?!

Und welche Firma geht mit einem Markennamen aktiv ins Rennen, wenn der ganze Prozess dahinter noch gar nicht abgeschlossen ist.
Naja, wenn es doch kein Fake sein sollte, dann zeigt mir allein dieser Foliensatz, dass die Leute hinter dieser Firma noch keine Erfahrung haben. Auch keine guten Voraussetzungen...

Rabiata
2021-08-05, 11:28:14
Mir scheint daß hier auch die Kategorien verrutschen, in Sachen absoluter Leistung (im Sinne des 3Dcenter Performanceindex) gibt es mehr fürs selbe Geld wenn wir mal nach dem Listenpreis gehen. Den Mining-Wahnsinn und seine Auswirkungen auf den Preis blende ich mal kurz aus.

Dann haben wir zum Vergleich aus der Vorgängergeneration


RX 6600 XT 1200-1300% (geschätzt) 8GB 237mm² Launchpreis $379 Kategorie: Midrange??[
RX 5700 XT 1160% 8GB 251mm² Launchpreis $399 Kategorie: Performance
Geforce RTX 2080 Super 1380% 8GB 545mm² Launchpreis $699 Kategorie: High End

Der technische Fortschritt ist halt nicht mehr so schnell, und das Namensschema ist oft Schall und Rauch. Lieber auf Dinge wie die Chipfläche achten, da hängt der Fertigungsaufwand dran. Die RX 6600 XT ist vom technischen Aufwand her eher in der selben Kategorie wie die RX 5700 XT

Was mich persönlich irritiert ist daß AMD unterhalb der RX 6600 voraussichtlich keine 8GB mehr anbieten wird.

Halb-OT: Hat jemand ein Beispiel für eine Tabelle in diesem Forum? Irgendwie stelle ich mich mit dem BBCode heute dumm an. Mußte auf eine Liste zurückgehen :confused:

Geldmann3
2021-08-05, 11:50:26
8 GB Vram waren bereits bei der RTX 3070 ein Witz, dennoch hat es Nvidia leider nicht davon abgehalten diesen Unsinn zu bauen. Genau wie die 10 GB bei der RTX 3080. 12 GB wären bei letzterer in meinen Augen das Unterste gewesen, was der gesunde Menschenverstand verbaut hätte. Selbst das ist eher noch zu wenig. Mit 12 GB hätte ich sie mir damals gekauft, so musste ich auf die RTX 3090 hochgehen, da ich mir keinen Müll kaufe. Well played Nvidia!

etp_inxession
2021-08-05, 12:04:10
Genug Platz lassen für die Intel Grafikkarten ...



3Dfx hätte ich gerne wieder zurück.
Aber unabhängig vom damaligen Käufer.
Also lieber mit AMD als Chip Partner als mit nV.

Aber wird eh nur ne Ente sein.

Loeschzwerg
2021-08-05, 12:10:34
Also lieber mit AMD als Chip Partner als mit nV.


Beides waren Konkurrenten von 3dfx, insofern fände ich auch einen Brand mit AMD GPU ziemlich lame.
Dann lieber begraben lassen ^^

matty2580
2021-08-05, 12:10:34
Dies führt jedoch langsam aber sicher in eine ungesunde Entwicklung hinein, denn der allgemeine Preis-Maßstab sind immer noch die Konsolen-Preise – und jene ändern sich für die nächsten Jahre nicht. Es gab Zeiten, da konnten man für einen Konsolen-Preis auch einen (stark Preis-optimierten) Mainstream-PC (samt Mainstream-Grafikkarte) erwerben – heuer reicht es gerade für eine einzelne Midrange-Grafikkarte. Dies mag im Enthusiasten-Segment keine Rolle spielen, aber in den anderen Marktsegmenten wird man mit dieser Preisansetzung an Käufern verlieren – welche entweder zu anderen Systemen abwandern, oder aber zukünftig seltener/niedriger kaufen.


Ich hatte es ja hier schon vor 2 Tagen geschrieben.
Die Preisentwicklung bei PC Komponenten führte bei mir dazu, dass ich nach fast 30 Jahren PC Gaming nur noch die Switch oder PS5 nutze, und mich seit 2 Jahren immer mehr darauf einrichte, und mein defekter PC seit 2 Jahren in der Ecke steht.

D.h. ich wurde regelrecht vom PC verdrängt, weil mir als EU Rentner auf Hartz IV Niveau einfach dass Geld fehlt defekte PC-Komponenten ersetzen zu können.

Dazu kommt die im Vergleich zum PC recht hohe Leistung der PS5, mit der ich Spiele wie Final Fantasy 7 Remake Intergrade auf einem 65 Zoll TV in 4k spiele. Und das ich die letzten 6 Spiele für die PS5 alle gebraucht für ~10€ gekauft habe.

Wenn Alder Lake da ist, hoffe ich dass es eine günstige CPU wie den i5 11400F geben wird. Dann werde ich anfangen mir stückchenweise PC-Komponenten wieder nachzukaufen.

Platos
2021-08-05, 12:38:35
Genau, mache ich auch. Konnte mir mittlerweile auch für ~520 Euro (umgerechnet) eine PS5 mit 2 Controller (Disc Version) holen. Hab zwar bisher mangels Zeit nur das kurze (alte) Rachet and Clank PS4 Spiel gespielt, aber beim PC hänge ich noch bei der 1070Ti fest. Und hätte ich mich vor einem Jahr dazu entschieden, auf eine 3050Ti zu warten, anstatt gebraucht sehr günstig eine 1070Ti abzustauben, hätte ich jetzt die Arschkarte gezogen und würde noch mit einer GTX 960 dastehen.

Mit der jetzigen Situation update ich einfach nix an meinem PC und werde die PS5 nutzen. Und wenn Lovelace keine 4070 mit etwa gleichem Listenpreis und 16GB (oder z.b 15) bringt (oder mindestens 4060 mit 12GB), dann gibts nix für mich. Oder aber RDNA3 schafft es, bei der RT Perfomance und mit FSR irgendwie gleichzuziehen. Aber die sind ja momentan auch mit dem Motto "wenig liefern, viel verlangen" unterwegs.

Oder hald eine gebrauchte 3060 dann für 200 Euro, wenn Lovelace kommt (was anderes kaufe ich nicht von Ampere und eine 2080Ti zieht mir zu viel Strom und ist aufgrund des Alters einfach unattraktiver). Alles unter RDNA3 kommt für mich mangels Zukunftsfähigkeit nicht in Frage, ausser der Preis wäre extremst attraktiv.

Thomas Gräf
2021-08-05, 13:26:23
Haben iGPUs auf kommenden AMD/Intel CPUs keinen ausreichenden Platz mehr?
Ab Zen4/RDNA3 könnt es doch eine recht nette Kombination sein die heutige 300-400euro Karten verblassen lassen würde.

Wär doch sexy eine AiO Wakü für "alles" drauf und ab gehts.
Wenn AMD/Intel ihre iGPUs gut anbinden, sollten diese in Zukunft doch nicht mehr so viel Nachteile haben...

Aroas
2021-08-05, 13:33:47
Da hat es ja nicht besonders lange gedauert, bis AMD von der Einstellung, dass Gaming Perfomance "für jedermann" bezahlbar und verfügbar sein sollte abgekommen ist.

Tja, die sind halt auch nur ein kapitalistisches Unternehmen mit den Dollarzeichen in den Augen. Und sobald es sich anbietet, wird ordentlich Kasse gemacht.
Sieht man ja auch an den 5000er Ryzen. Nicht ein einziges Modell unter 200€ gibts da und selbst die älteren Modelle sind nur noch zu überzogenen Preisen zu bekommen, weil sie einfach nicht mehr hergestellt werden.

Seit heute sind die 5000er APUs am Start, aber auch hier gibts wieder nur 6 und 8 Kerne für weit über 200/300€. Während Nutzer, die diese hohe Leistung gar nicht benötigen und auch entsprechend nicht diese Preise zahlen wollen, weiterhin in die Röhre gucken bzw. sich bei Intel oder am Gebrauchtmarkt umschauen müssen.

Mir ist klar, dass AMD massive Kapazitätsprobleme hat. Aber deshalb den Budgetmarkt einfach vollkommen aufzugeben, halte ich für reichlich gefährlich.

Rabiata
2021-08-05, 13:56:07
Haben iGPUs auf kommenden AMD/Intel CPUs keinen ausreichenden Platz mehr?
Ab Zen4/RDNA3 könnt es doch eine recht nette Kombination sein die heutige 300-400euro Karten verblassen lassen würde.

Wär doch sexy eine AiO Wakü für "alles" drauf und ab gehts.
Wenn AMD/Intel ihre iGPUs gut anbinden, sollten diese in Zukunft doch nicht mehr so viel Nachteile haben...
Den iGPUs fehlt es aktuell noch an der Speicherbandbreite. Das bremst die Grafik stark aus, AMD hat mit der 4000er Serie sogar die Anzahl der Compute Units verringert. Vermutlich gehen sie davon aus daß die Chipfläche verschwendet wäre. Vergleiche mit Desktop-Grakas sind knapp, aber ich meine mich zu erinnern daß die besten Ergebnisse die iGPUs bei etwa 150% Performanceindex sehen.

Zen 4 mit DDR5 sollte helfen, und ein ausreichend großer Infinity Cache auch. Faktor 1,5 für DDR5 (frühe Versionen), darauf nochmal einen Faktor 2 dank Infinity Cache, und etwas irgendwo zwischen einer R9 270 und einer RX470 sollte erreichbar sein. Immer noch nicht High End, aber damit könnte ich mich anfreunden.

Scream
2021-08-05, 14:10:19
Letzer Absatz:

Update 5. August ca. 8:28: Mittels eines weiteren Twitter-Postings versucht sich "3dfx Interactive" an weiteren Erklärungen. Besonders zielführend sind je nicht, die Bedenken primär der ganzen "Firma" gegenüber werden nicht ausgeräumt. Produkt-technisch scheint man zudem eher kaum auf Grafikkarten zu setzen, wenn dafür nur 10% der Investitionssumme verwendet werden sollen. Die Ankündigung einer "Voodoo 6 PCI" deutet zudem darauf hin, dass man vielleicht nur ein paar Retro-Grafikkarten verkaufen will – und ansonsten den Markennamen für andere Dinge benutzt. Einige Schreibfehler sowie die ungewöhnlichen Mailverbindung (über den Anbieter "Arcticmail") sehen eher nach einer auf sehr kleiner Flame köchelnden Unternehmung aus – welche demzufolge nichts mit dem "richtigen" Grafikkarten-Business zu tun haben sollte.

Gast
2021-08-05, 14:21:14
Mainstream geht bis 250, nicht 300. Darüber kann man aber vielleicht noch streiten. Und leider verschiebt sich das ständig nach oben. Was u.a. an den Chipgrößen liegt. Das wurde anderweitig gut thematisiert.

Seit Einführung der 16xx ist x060 kein Mainstream mehr.
Nvidia hat keine neue Mainstream-Karte aufgelegt.
Bei AMD ist die Zuordnung komplizierter.

Aroas
2021-08-05, 14:21:30
Zen 4 mit DDR5 sollte helfen, und ein ausreichend großer Infinity Cache auch. Faktor 1,5 für DDR5 (frühe Versionen), darauf nochmal einen Faktor 2 dank Infinity Cache, und etwas irgendwo zwischen einer R9 270 und einer RX470 sollte erreichbar sein. Immer noch nicht High End, aber damit könnte ich mich anfreunden.

Das Problem an der ganzen iGPU Sache ist aber, dass man die schlicht nicht austauschen kann, wie eine dedizierte Karte und somit entweder für die gesamte Nutzungsdauer der APU auf diese Grafikleistung beschränkt ist, oder extra teuer nachkaufen muss, weil man die bisherige Grafik ja nicht einfach gebraucht verkaufen kann.

Das ist genau der Punkt, der mir bei den APUs sauer aufstößt.
Brauche ich keine besonders hohe GPU Leistung, dann reicht mir auch die iGPU, wie sie derzeit in einer Intel CPU sitzt.
Will ich hingegen wirklich auch eine gewisse Spieleleistung haben, dann nagle ich mich ganz bestimmt nicht auf eine der AMD APUs fest bei der die GPU Leistung dann nach 2 Jahren oftmals eben nicht mehr ausreichend ist.

Da nehm ich lieber eine normale CPU + dedizierter Grafikkarte und kann dort nach Bedarf aufrüsten.

Lehdro
2021-08-05, 14:24:08
Mir ist klar, dass AMD massive Kapazitätsprobleme hat. Aber deshalb den Budgetmarkt einfach vollkommen aufzugeben, halte ich für reichlich gefährlich.
Ich halte es wirtschaftlich für sehr gefährlich in dieser Situation (Kapazitätsengpässe + sehr kompetetives Highend im eigenen Produktportfolio) verstärkt den Mid/Lowendmarkt ins Visier zu nehmen, der von niemanden ausser Intel (dank eigener Fertigungskapazitäten und der Minderleistung eigener Produkte) derzeit mit aktuellen Produkten bedient wird. Sobald diese Engpässe überwunden sind, steht einer inoffiziellen Preissenkung (siehe Zen 3 CPUs) oder gar eine Portfolioverschiebung mithilfe neuer, eigener Produkte (Refresh/Zen3D/RDNA3) nichts im Wege. Der Zustand ist nur temporär, langfristig kann sich das weder NV noch AMD leisten, da dann die Basis des Großteils des eigenen Marktes wegstirbt.

YeahBuoy!
2021-08-05, 14:27:54
Da hat es ja nicht besonders lange gedauert, bis AMD von der Einstellung, dass Gaming Perfomance "für jedermann" bezahlbar und verfügbar sein sollte abgekommen ist.

Tja, die sind halt auch nur ein kapitalistisches Unternehmen mit den Dollarzeichen in den Augen. Und sobald es sich anbietet, wird ordentlich Kasse gemacht.
Sieht man ja auch an den 5000er Ryzen. Nicht ein einziges Modell unter 200€ gibts da und selbst die älteren Modelle sind nur noch zu überzogenen Preisen zu bekommen, weil sie einfach nicht mehr hergestellt werden.

Seit heute sind die 5000er APUs am Start, aber auch hier gibts wieder nur 6 und 8 Kerne für weit über 200/300€. Während Nutzer, die diese hohe Leistung gar nicht benötigen und auch entsprechend nicht diese Preise zahlen wollen, weiterhin in die Röhre gucken bzw. sich bei Intel oder am Gebrauchtmarkt umschauen müssen.

Mir ist klar, dass AMD massive Kapazitätsprobleme hat. Aber deshalb den Budgetmarkt einfach vollkommen aufzugeben, halte ich für reichlich gefährlich.

Wenn weniger Leistung für einen schmaleren Taler gewünscht wird gibts ja noch den 3400G für rund 210€. Es wird ja keiner genötigt zu kaufen. Als reine Übergangslösung finde ich den schon in Ordnung. Was den Entrybereich anbelangt glaube ich eher, wie schon vorher von mir geschrieben, das niemand bei AMD (bzw. Nvidia, haben ja beide schließlich nix taufrisches in der 100-300€ Range) diesen Markt freiwillig aufgibt. Wenn ich aber durch Kapazitätsengpässe den Breitenmarkt einfach nicht sinnvoll bedienen kann würde ich als Entscheider auch lieber warten. Zumal es nicht wenigen da draußen auch Wurst ist was AMD launcht, wenn kein grüner Augapfel auf dem Produkt steht ists per se schon mal suspekt.

Edith; Lehdro hats schneller und knapper auf den Punkt gebracht.

davidzo
2021-08-05, 15:02:51
Bezüglich der News zu 3gb / 24Gbit DDR5 Chips:

In der offiziellen GDDR6 Spec wurde extra ein Platzhalter für sowohl 24Gbit als auch 32Gbit chips gelassen, Micron nennt die 32er auch schon in ihrem Datenblatt.


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76387&stc=1&d=1628168796
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76386&stc=1&d=1628168674

http://monitorinsider.com/GDDR6.html


Es wäre also gar nicht mal so unwahrscheinlich wenn wir 24Gbit GDDR6 Chips sehen. 32Gbit GDDR6 ist gesichert, das hat Micron sogar schon in den Datenblättern (in Klammern).

Für 24Gbit müsste Nvidia aber auch ein Abnehmer werden, denn für eine oder zwei AMD SKUs würde sich das nicht lohnen eine eigene Fertigung aufzubauen, da wären 32Gbit chips aufgrund des größeren Marktes vermutlich billiger.

Rabiata
2021-08-05, 15:55:36
Das ist genau der Punkt, der mir bei den APUs sauer aufstößt.
Brauche ich keine besonders hohe GPU Leistung, dann reicht mir auch die iGPU, wie sie derzeit in einer Intel CPU sitzt.
Will ich hingegen wirklich auch eine gewisse Spieleleistung haben, dann nagle ich mich ganz bestimmt nicht auf eine der AMD APUs fest bei der die GPU Leistung dann nach 2 Jahren oftmals eben nicht mehr ausreichend ist.

Da nehm ich lieber eine normale CPU + dedizierter Grafikkarte und kann dort nach Bedarf aufrüsten.
AMD hat die schnellere iGPU und ist dafür im CPU-Teil etwas schwächer. Meiner Meinung der bessere Allrounder für Leute mit moderaten Gaming-Anforderungen, da nur wenige Leute massive CPU-Leistung brauchen.

Ich persönlich will beim "moderat" gerade ein bißchen mehr als APUs aktuell hergeben. Meine alte HD 7850 wäre noch akzeptabel in den FPS, aber sie hat zunehmend Kompatibilitätsprobleme unter Linux. Vermutlich weil Spieleprogrammierer zunehmend Vulkan 1.2 haben wollen (indirekter Hinweis von Aufkrawall). Explizite Mindestanforderungen für die Grafikstandards gibt es leider nur noch selten, daher muß ich mir das zusammenreimen.

Ich denke, eine APU, die aktuelle Grafikstandards unterstützt und annähernd die Leistung einer RX 470 erreicht, würde mir auf lange Zeit reichen. Auch weil ich schon gut mit Spielen eingedeckt bin, die nicht beim zweiten Durchspielen langweilig werden => die Anforderungen sind kalkulierbar und ich brauche nicht für eine schnellere GPU zu planen.

Grafikspachtel
2021-08-05, 15:56:15
Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.
Die Frage lautet: Was leistet die aktuelle Midrange im Vergleich zur Midrange vor fünf Jahren?
Vor fünf Jahren erschien Polaris.

RX480 (https://www.techpowerup.com/gpu-specs/radeon-rx-480.c2848) (2016) | Performance = 295%
232mm² | 8GB VRAM | 229$

Wie sah es fünf Jahre vor Polaris aus? Auswahlkriterien sind Chipgröße (~230mm²) & Preis (200-300$).
Für das Jahr 2011 habe ich kein Midrangeäquivalent gefunden, musste also auf 2010 und 2012 ausweichen.

HD6870 (https://www.techpowerup.com/gpu-specs/radeon-hd-6870.c256) (2010) | Performance = 100%
255mm² | 1GB VRAM | 239$

HD7850 (https://www.techpowerup.com/gpu-specs/radeon-hd-7850.c1055) (2012) | Performance = 120%
212mm² | 2GB VRAM | 249$


Jetzt zu unserer aktuellen Pseudo-Midrange Karten:
6600 (https://www.techpowerup.com/gpu-specs/radeon-rx-6600.c3696) (2021) | Performance = 500%
237mm² | 8GB VRAM :freak: | 299$

und der 6600XT (https://www.techpowerup.com/gpu-specs/radeon-rx-6600-xt.c3774) (2021) | Performance = 588%
237mm² | 8GB VRAM :freak: | 379$ :ufinger:

Die aktuellen "Midrange"-GPUs sind eine Farce sondergleichen.
8GB VRAM steckten bereits in Polaris vor FÜNF Jahren.
Während Polaris die VRAM-Menge gegenüber der HD6870 verachtfachte und gegenüber der HD7850 vervierfachte,
bietet Navi exakt genau so viel VRAM wie man bereits vor fünf Jahren serviert bekam.
Die 6600 ist gegenüber dem fünf Jahre alten Vorgänger Polaris mit Ach und Krach 1,7 mal schneller,
während Polaris 2,4 mal schneller als die vier Jahre ältere HD7850
und 2,9 mal schneller als die sechs Jahre ältere HD6870 ist.

Polaris war in jeder Hinsicht (Preis, VRAM-Ausstattung, Performancevorteil gegenüber den Vorgängern) besser als der überteuerte Witz, den wir hier momentan serviert bekommen.

Complicated
2021-08-05, 16:16:53
Das ist genau der Punkt, der mir bei den APUs sauer aufstößt.
Brauche ich keine besonders hohe GPU Leistung, dann reicht mir auch die iGPU, wie sie derzeit in einer Intel CPU sitzt.Wieso die APU anders behandeln als die Intel CPU mit iGPU?

Cyberfries
2021-08-05, 18:57:21
Das Problem an der ganzen iGPU Sache ist aber, dass man die schlicht nicht austauschen kann, wie eine dedizierte Karte und somit entweder für die gesamte Nutzungsdauer der APU auf diese Grafikleistung beschränkt ist, oder extra teuer nachkaufen muss, weil man die bisherige Grafik ja nicht einfach gebraucht verkaufen kann.

Und das ist teurer weil...?
2018 nen 2400g für 170€, 2021 nen 5600g für 260€, verkaufen kann man die alte CPU auch.
Damals 1600x + rx550 war bei 270€ und der 5600g wischt mit Beidem den Boden.
Wenn du heute mehr Grafikleistung willst.... aber selbst unter normaleren Bedingungen kommst du nicht billiger weg.

Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.

Übersetzt: Wir wählen willkürliche Beispiele und setzen erfundene Leistungswerte an um die Argumentation zu unterstützen.

Die 6600XT ist gegenüber dem fünf Jahre alten Vorgänger Polaris mit Ach und Krach 2 mal schneller,

Könnte ich mir mal die Zeitmaschine ausleihen? Die aktuelle Leistungsprognose sieht einen größeren Sprung.

Wie sah es fünf Jahre vor Polaris aus?

Wesentlich besser - für AMD.
Für den Kunden dagegen war Polaris großartig. Von einer 7870 für 349€ (https://www.computerbase.de/2012-03/test-amd-radeon-hd-7870-und-hd-7850/12/) zur rx480 für 256€, traumhafte Verhältnisse.
Kein Wunder vergleichst du mit der 7850, dann wird nicht deutlich wie günstig Polaris war.

Komisch auch das die Preise bei im Vergleich zur Konkurrenz schnellen Karten höher liegen (5870 & 7870 @ 350€, 280x @300€)
und bei langsameren Karten niedriger liegen (380x & 480 @ 250€, 6870 @ 200€). Woran das wohl liegen mag?

Lehdro
2021-08-05, 19:01:21
Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.
Vor fünf Jahren erschien Polaris.

RX480 (2016) | Performance = 294%
232mm² | 8GB VRAM | 229$

Wie sah es fünf Jahre vor Polaris aus? Für das Jahr 2011 habe ich kein Midrangeäquivalent gefunden, musste also auf 2010 und 2012 ausweichen:

HD7850 (2012) | Performance = 123%
212mm² | 2GB VRAM | 249$

HD6870 (2010) | Performance = 100%
255mm² | 1GB VRAM | 239$

Jetzt zu unserer aktuellen Pseudo-Midrange Karte 6600XT (2021) | Performance = 588%
237mm² | 8GB VRAM :freak: | 379$ :ufinger:

Die aktuellen "Midrange"-GPUs sind eine Farce sondergleichen.
8GB VRAM steckten bereits in meiner RX470 vor FÜNF Jahren.
Die 6600XT ist gegenüber dem fünf Jahre alten Vorgänger Polaris mit Ach und Krach 2 mal schneller,
während Polaris 2,4 mal schneller als die vier Jahre ältere HD7850
und 2,9 mal schneller als die sechs Jahre ältere HD6870 ist.

Polaris war in jeder Hinsicht (Preis, VRAM-Ausstattung, Performancevorteil gegenüber den Vorgängern) besser als der überteuerte Witz, den wir hier momentan serviert bekommen.
Warum nimmst du die 6600XT? Warum nicht die noch kommende 6600 non XT? Warum nimmst du die 7850 und nicht die 7870 oder 7870XT? Oder die 7770? Warum wunderst du dich das die abflachenden Leistungssteigerungen zu einer relativen Verteuerung bezogen auf die Vorgeneration führen? Spiel das ganze mal mit Midrangekarten von vor 15 Jahren durch und setze die ins Verhältnis zu den von vor 10 Jahren - da wird ähnliches bei rauskommen. Die Preise sind zwar dort ähnlich, dafür die Leistungssteigerungen umso krasser. Irgendwie muss das ganze kompensiert werden, aber solche wilden Apfel und Birnenvergleiche quer durchs Portfolio helfen da mal so gar nicht. Entweder man vergleicht preisnormiert oder positionsnormiert im Produktstack, beides hast du nicht gemacht.

wandermann
2021-08-05, 19:09:58
Ich denke dass die neueste Fertigungstechnologie einfach nicht mehr für günstiges Midrange genutzt wird. Da Fertigungskapazitäten aktuell nun einmal knapp sind wird man die neueste Fertigungstechnologie nicht mehr für Dinge nutzen die nur einen begrenzten Gewinn bringen oder wo die Zahlungsbereitschaft in Euro/mm² halt nicht so hoch ist. Da reißen auch die Leute die bereit sind 1000€ für die neueste Gamergrafikkarte auszugeben die ganzen Fertigungskapazitäten an sich.

Es war ja in der Chip-Industrie noch nie anders, je älter eine Fertigungstechnologie desto billiger wird sie. Deshalb fängt Apple auch immer mit der neuesten Technologie im Smartphone an: kleine Chips sehr teuer verkauft.

FarCry
2021-08-05, 19:58:03
Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.
Vor fünf Jahren erschien Polaris.

RX480 (2016) | Performance = 294%
232mm² | 8GB VRAM | 229$

...

Jetzt zu unserer aktuellen Pseudo-Midrange Karte 6600XT (2021) | Performance = 588%
237mm² | 8GB VRAM | 379$

Ist doch eigentlich mehr oder weniger ein Witz, was hier die Wellen hochschlagen lässt. Natürlich ändern sich die Preise stetig nach oben, was denkst du denn? Das Pfund Butter kostet auch nicht mehr 49 Pfennig und das letzte mal im Kino für DM 6,- war ich 1995.
Zu deinem Vergleich: Du bekommst die doppelte Leistung für nur 65% mehr Geld. Dazu kommen noch Unterstützung von directX 12 Ultimate, eine 4-fache Pixelrate, die doppelte Texturrate bei insgesamt etwa gleicher TDP.
Was erwartest du denn jetzt noch für die paar Kröten?

... Da reißen auch die Leute die bereit sind 1000€ für die neueste Gamergrafikkarte auszugeben die ganzen Fertigungskapazitäten an sich. ...

Eine gute / sehr gute GK ist das Herz eines Gamer-PCs und wenn sie 1000 Euro kostet (und diesen Preis auch wert ist), dann ist das einfach so. Wie oft kauft man sich denn sowas im Leben? Vielleicht alle 8-10 Jahre?
Und selbst wenn sie nach 5 Jahren ausgetauscht werden muss, dann hat sie vielleicht noch einen Restwert von 400,-, d.h. man hat 60 Monate zum Preis von 600,- gezockt. Das sind 10 Euro pro Monat.
Die meisten von uns haben irgendwelche Netflix-/Disney-/Sky-Abos, das ist Ok, aber wenn ein Hobby 10 Euro im Monat kostet, dann macht sich hier jeder Zweite ins Höschen? ;D Weia.

iamthebear
2021-08-05, 20:25:15
Oder hald eine gebrauchte 3060 dann für 200 Euro, wenn Lovelace kommt (was anderes kaufe ich nicht von Ampere und eine 2080Ti zieht mir zu viel Strom und ist aufgrund des Alters einfach unattraktiver). Alles unter RDNA3 kommt für mich mangels Zukunftsfähigkeit nicht in Frage, ausser der Preis wäre extremst attraktiv.

Ich habe derzeit auch eine 1070 Ti (zum Turing Launch geholt weil die Turing Preise so überzogen waren).
Eine 3060 würde ich mir jedoch nicht holen. Die iwt nur ca. 30-40% über der 1070 Ti. Das macht keinen Sinn. Entweder greife ich etwas tiefernin die Tasche wenn die Performance passt oder ich sitze es weiter aus.

Haben iGPUs auf kommenden AMD/Intel CPUs keinen ausreichenden Platz mehr?
Ab Zen4/RDNA3 könnt es doch eine recht nette Kombination sein die heutige 300-400euro Karten verblassen lassen würde.

Das Problem ist hier einfach, dass es bei den iGPUs extrem unterschiedliche Anforderungen gibt. Es gibt Anwender, die nur die CPU brauchen ohne jegliche 3D Effekte. Du muss die GPU nur Youtube abspielen können.
Dann gibt es diejenigen, die vielleicht gelegentlich einmal ein nicht älteres Spiel wie Skyrim oder was nicht so anspruchsvolles wie LOL oder Fortnite spielen wollen. Für die sind aktuelle iGPUs ausgelegt.
Und dann gibt es diejenigen, die den PC nur zum Gaming anschaffen. Dort steckt dann z.B. eine eine 3080 drin.

Vergrößert man die iGPU, so müssen das alle mitzahlen.

Ich würde es am Sinnvollsten finden, wenn alle PCs eine relativ kleine iGPU verbaut bekommen und wer mehr braucht, der steckt sich eben eine GPU dazu bzw. tauscht die falls notwendig einfach durch ein leistungsstärkeres Modell aus. Eine CPU muss man nach 3-4 Jahren ja noch nicht wegwerfen.

Wär doch sexy eine AiO Wakü für "alles" drauf und ab gehts.
Wenn AMD/Intel ihre iGPUs gut anbinden, sollten diese in Zukunft doch nicht mehr so viel Nachteile haben...

Der Markt für Wasserkühler ist relativ überschaubar und meiner Meinung nach zumindest bei CPUs in den meisten Fällen nicht mehr wirklich notwendig. Von einem High End Luftkühler zu einer AiO Wakü fehlt nicht mehr viel und kühlt gleich die Komponenten wie VRMs um das Mainboard mit.

Was GPUs angeht: Die aktuellen Karten reduzieren die Drehzahl im Stillstand ja schon auf 0. Während dem Spielen habe ich sowieso die Kopfhörer mit ingame Sound auf. Da ist mir etwas Lüftergeräusch ehrlich gesagt ziemlich egal und 300W lassen sich auch schon so ganz OK kühlen. Die Frage ist: brauchen wir wirklich 400W+ für GPUs?

Was die Vergleiche der Die Size angeht:
Die hinken ziemlich, da die Fertigungskosten pro mm² ja durch entweder immer mehr Masken oder sauteures EUV Equipment deutlich teurer geworden sind. Also zumindest von +50% über die letzten 10 Jahre würde ich schon rechnen.

matty2580
2021-08-05, 21:00:15
Das es günstiger geht zeigen doch gut die neuen Konsolen, wie die PS5.
Viele Games laufen dort mit 30fps in nativen 4k, oder 60fps mit variabler Auflösung.
Alte PS4 Games laufen auch besser auf der PS5, und man kann sie gebraucht für wenig Geld kaufen, wie ich bei den letzten 6 Games, wo ich pro Spiel ~10€ ausgegeben habe. Und mit Verlust verkauft Sony auch nicht mehr die PS5. Da war man nur ganz am Anfang nicht in der Gewinnzone.

Hardware muss also nicht immer extrem teuer sein.
Bei den Konsolen hat man ein Komplettpaket, aus Gehäuse, Mainboard, CPU, GPU, RAM, SSD, Netzteil, Betriebssystem, und guten Controller, der allein 70€ kostet.

Und in vielen Foren habe ich im letzten Jahr oft gelesen, "ich bin raus aus dem PC-Gaming", "ich steige auf Konsole um", oder einfach "ich suche mir ein anderes Hobby". Das was AMD und Nvidia da aktuell machen, ist nichts Anderes als den Ast zu sägen, auf dem sie selbst sitzen....

Denn irgendwann ist der Miningwahnsinn vorbei, und dann ist die Zielgruppe wieder Gamer....

grandmasterw
2021-08-05, 21:32:18
Ist doch eigentlich mehr oder weniger ein Witz, was hier die Wellen hochschlagen lässt. Natürlich ändern sich die Preise stetig nach oben, was denkst du denn?

Die Preise für Technik sind jahrelang nach unten gegangen, sowohl was den "Preis pro Leistung" angeht, als auch generell den Preis. Ist ok, wenn sich das ändert, aber dann ersetz ich meine Hardware natürlich auch weniger oft. Teilweise erst, wenns kaputt wird.

Mit fünf Jahre alter Hardware spielen ist heutzutage halt was anderes als vor 20 Jahren. Da stellt man halt die Details auf Medium und fertig.

Fünf Jahre Unterschied ist z.B. ein Sprung von einer Radeon RX 580 auf eine RTX 3060. Vom Preisunterschied mal abgesehen ist das ca. eine Performanceverdoppelung.

Fünf Jahre liegen auch zwischen der Voodoo 3 und der Geforce 6. Letztere hat 8x so viel Speicher, über 10x so hohe Füllrate und hat, wenn ich mich richtig erinnere, sogar etwas weniger gekostet. Drum wars ja auch erfolgreich.

FarCry
2021-08-05, 21:56:13
Fünf Jahre liegen auch zwischen der Voodoo 3 und der Geforce 6. Letztere hat 8x so viel Speicher, über 10x so hohe Füllrate und hat, wenn ich mich richtig erinnere, sogar etwas weniger gekostet. Drum wars ja auch erfolgreich.

Ähm, natürlich sind die Leistungssprünge am Anfang bzw. Mitte einer technischen Ära enorm. Wir nähern uns so langsam den atomaren Grenzen. Leistungssprünge im gleichen Zeitraum werden kleiner, und um noch weiter vorzudringen bedarf es noch mehr KnowHow, noch mehr Forschung, noch mehr Anstrengung, die finanziert werden will. Völlig normal.
Immer höher, schneller, weiter, und das möglichst mit 0 Preisänderung, gibts halt nur im Märchen.

wandermann
2021-08-05, 22:11:37
Was die Vergleiche der Die Size angeht:
Die hinken ziemlich, da die Fertigungskosten pro mm² ja durch entweder immer mehr Masken oder sauteures EUV Equipment deutlich teurer geworden sind. Also zumindest von +50% über die letzten 10 Jahre würde ich schon rechnen.Die hinken nicht wenn du die Margen bei TSMC, Nvidia und AMD siehst. Vor einigen Jahren hat man schon angefangen die Low-End-Graka nur auf alten Nodes rauszubringen, nun sind schon die unteren Midrange-Exemplare dran bzw. man bringt gar keine neu relabelte Karte auf altem Node mehr heraus.

Der Graka-Markt ändert sich da gerade fundamental. Wer etwas für 250€ kaufen möchte kann nichts neues kaufen sondern sollte ältere Midrange-Modelle gebraucht kaufen. Eine Graka ist damit keine Wegwerfware nach Gebrauch mehr sondern es baut sich zunehmend ein Gebrauchtmarkt auf der dann die nächsten Interessenten bedient was auch dem Werterhalt der teuer gekauften Spitzenmodelle und Midrange-Modelle dient. Das führt dann sozusagen dazu dass die Grafikkarten dann gar nicht so teuer sind, wenn man seine alten Modelle wieder zeitnah verkauft da deren Preise nicht so schnell ins Bodenlose fallen. Ist auch irgendwo logisch wenn das Zeug immer teurer wird dass der Verkauf dann eher lohnt. Fraglich nur ob damit die Leute aus ärmeren Ländern wo das Angebot alter Grafikkarten nicht so groß sein dürfte, bedient werden können, da ich bezweifle dass dort genug Neuwarenkäufer vorhanden sind, die dann den Markt mit gebrauchten Karten füttern.

Gast
2021-08-05, 22:11:46
Da hat es ja nicht besonders lange gedauert, bis AMD von der Einstellung, dass Gaming Perfomance "für jedermann" bezahlbar und verfügbar sein sollte abgekommen ist.

Tja, die sind halt auch nur ein kapitalistisches Unternehmen mit den Dollarzeichen in den Augen. Und sobald es sich anbietet, wird ordentlich Kasse gemacht.[...]
Seit heute sind die 5000er APUs am Start, aber auch hier gibts wieder nur 6 und 8 Kerne für weit über 200/300€. Während Nutzer, die diese hohe Leistung gar nicht benötigen und auch entsprechend nicht diese Preise zahlen wollen, weiterhin in die Röhre gucken bzw. sich bei Intel oder am Gebrauchtmarkt umschauen müssen.

Mir ist klar, dass AMD massive Kapazitätsprobleme hat. Aber deshalb den Budgetmarkt einfach vollkommen aufzugeben, halte ich für reichlich gefährlich.
Man kann sich natürlich auch alles schön/schlecht reden...
1. AMD verdient an den hohen Grafikkarten Preisen gar nichts, weil die Preise für die GPUs und den passenden Speicher, den die Hersteller zahlen müssen, an die UVP gekoppelt sind. Und die UVP ist deutlich niedriger Ähnlich geht es auch NVidia.
2. Wenn jemand keine 8 Kerne in einer APU braucht, dann kauft er sich halt einen 4300GE oder 3200G. Da er nicht so viel Leistung braucht reicht ihm das ja auch vermutlich. Und die sind laut Geizhals sofort lieferbar und deutlich unter 200€ zu haben, also genau das, was du forderst. 3000G und 200GE gibt's sofort lieferbar unter 100€. Wer sagt denn, dass man immer nur die neuesten Chips kaufen muss? Natürlich kann es durchaus bei Intel die besseren Angebote geben, aber dass es bei AMD keine APUs unter 200€ gibt, ist so einfach falsch.

Gast-chk
2021-08-05, 22:11:46
Zwei Gedanken dazu:

* Zum einen existiert das Argument, dass die Preise *pro Transistor* seit der 28nm-Fertigungsprozess-Generation nicht mehr gefallen sind. Das würde bedeuten, dass sich zwar die Performance und Performance/Watt verbessern, aber nicht mehr der Preis/Performance

* Zweitens scheint jeder gefühlsmäßig davon auszugehen, dass der Nachfrageüberhang für CPUs/Grafikkarten nie zu Ende gehen wird. Die jetzige Phase kann aber nicht die Norm sein.

Benutzername
2021-08-06, 00:56:38
Zwei Gedanken dazu:

* Zum einen existiert das Argument, dass die Preise *pro Transistor* seit der 28nm-Fertigungsprozess-Generation nicht mehr gefallen sind. Das würde bedeuten, dass sich zwar die Performance und Performance/Watt verbessern, aber nicht mehr der Preis/Performance


Sehr guter Punkt.


* Zweitens scheint jeder gefühlsmäßig davon auszugehen, dass der Nachfrageüberhang für CPUs/Grafikkarten nie zu Ende gehen wird. Die jetzige Phase kann aber nicht die Norm sein.

Zumindest AMD kann ja Herstellungskapazitäten zwischen Grafikchips udn CPUs verschieben je nach Marktbedarf, was dann bei wegfallendem Crypto ja den CPU Markt entlasten dürfte wenn mehr Ryzen udn Epyc hergestellt werden.

Ex3cut3r
2021-08-06, 02:32:19
Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.
Die Frage lautet: Was leistet die aktuelle Midrange im Vergleich zur Midrange vor fünf Jahren?
Vor fünf Jahren erschien Polaris.

RX480 (https://www.techpowerup.com/gpu-specs/radeon-rx-480.c2848) (2016) | Performance = 295%
232mm² | 8GB VRAM | 229$

Wie sah es fünf Jahre vor Polaris aus? Auswahlkriterien sind Chipgröße (~230mm²) & Preis (200-300$).
Für das Jahr 2011 habe ich kein Midrangeäquivalent gefunden, musste also auf 2010 und 2012 ausweichen.

HD6870 (https://www.techpowerup.com/gpu-specs/radeon-hd-6870.c256) (2010) | Performance = 100%
255mm² | 1GB VRAM | 239$

HD7850 (https://www.techpowerup.com/gpu-specs/radeon-hd-7850.c1055) (2012) | Performance = 120%
212mm² | 2GB VRAM | 249$


Jetzt zu unserer aktuellen Pseudo-Midrange Karten:
6600 (https://www.techpowerup.com/gpu-specs/radeon-rx-6600.c3696) (2021) | Performance = 500%
237mm² | 8GB VRAM :freak: | 299$

und der 6600XT (https://www.techpowerup.com/gpu-specs/radeon-rx-6600-xt.c3774) (2021) | Performance = 588%
237mm² | 8GB VRAM :freak: | 379$ :ufinger:

Die aktuellen "Midrange"-GPUs sind eine Farce sondergleichen.
8GB VRAM steckten bereits in Polaris vor FÜNF Jahren.
Während Polaris die VRAM-Menge gegenüber der HD6870 verachtfachte und gegenüber der HD7850 vervierfachte,
bietet Navi exakt genau so viel VRAM wie man bereits vor fünf Jahren serviert bekam.
Die 6600 ist gegenüber dem fünf Jahre alten Vorgänger Polaris mit Ach und Krach 1,7 mal schneller,
während Polaris 2,4 mal schneller als die vier Jahre ältere HD7850
und 2,9 mal schneller als die sechs Jahre ältere HD6870 ist.

Polaris war in jeder Hinsicht (Preis, VRAM-Ausstattung, Performancevorteil gegenüber den Vorgängern) besser als der überteuerte Witz, den wir hier momentan serviert bekommen.

Stimme ich dir absoult zu. Es ist ein Witz. Mit dem VRAM Geiz von NVidia und AMD, hält man die Entwicklung total auf. Ich mein was soll das? 8GB VRAM gab es das erste mal 2014/2015 mit Hawaii. :freak:

Bei der nächsten Gen muss damit dann aber endgültig schluss sein, das kann man doch nun wirklich keinen mehr vorsetzen, grade auch mit den PS5/Xbox Next Gen Titeln in der Prime, ab 2023. Direct Storage mal ausgeklammert, die meisten Gamer haben einfach keine NVME, und Windows 11 wird sich garantiert sehr schwer tun, marktanteile zu gewinnen, bei der HW Politik die MS grade betreibt.

Leonidas
2021-08-06, 03:36:58
Ein "e" zu viel...

Ein "d" zu wenig...

1. War so gedacht. Das angebliche bezieht sich auf die Assets, nicht auf den Vorgang. Niemand weiss, was die da übernommen haben.

2. Gefixt.




Letzer Absatz:

Gefixt.





Bezüglich der News zu 3gb / 24Gbit DDR5 Chips:

GDDR5X hatte IMO schon 1,5 GByte in der Spec stehen. Das ist keine Frage der Spezifizierung. Es ist eine Frage: Baut es irgendwann ein Speicherchip-Hersteller? Von alleine wahrscheinlich nicht, das passiert nur auf Zuruf/Druck seitens AMD/NV.

grandmasterw
2021-08-06, 08:14:43
Immer höher, schneller, weiter, und das möglichst mit 0 Preisänderung, gibts halt nur im Märchen.
Davon redet eh keiner. Aber eine gleich schnelle Karte zu einem vergleichbaren Preis+Inflation ist das Minimum, was ich kaufen würde.

Ja klar, Bitcoin und Covid und so. Aber dann kauf ich halt auch nix, weils eben unattraktiv ist. Das ist keine normale Preisentwicklung, sondern eine Bubble.

Gast
2021-08-06, 12:52:33
Die wollen die Kundschaft zwingen sich alle 1 1/2 - 3 Jahre eine neue APU für 200 - 400 € zu kaufen. Unterhalb von 200 € wird es dann nichts mehr geben, nur noch im Gebrauchtmarkt.

Wer möchte denn auch diese überteuerten und kaum schneller als last-gen Grafikkarten, rx 6600xt kaufen? Schon diese rx 6700xt ist 100 € zu teuer und der Kühler billig.

Schweinerei von den gierigen Pennern! Hier wird nur versucht die Produktmargen weiter hoch zu treiben. Genau in dem Preisbereich behalten die meisten Menschen gerne mal den Prozessor 5 Jahre und länger und rüsten die Grafikkarte vllt. alle 3 - 5 Jahre auf. Neueste A/AA/AAA-Titel werden von dieser Kundschaft nicht gespielt.

iamthebear
2021-08-06, 23:55:46
Setzen wir das Midrange-Ding doch mal in ein historisches Verhältnis.
Die Frage lautet: Was leistet die aktuelle Midrange im Vergleich zur Midrange vor fünf Jahren?
Vor fünf Jahren erschien Polaris.

RX480 (https://www.techpowerup.com/gpu-specs/radeon-rx-480.c2848) (2016) | Performance = 295%
232mm² | 8GB VRAM | 229$

Wie sah es fünf Jahre vor Polaris aus? Auswahlkriterien sind Chipgröße (~230mm²) & Preis (200-300$).
Für das Jahr 2011 habe ich kein Midrangeäquivalent gefunden, musste also auf 2010 und 2012 ausweichen.

HD6870 (https://www.techpowerup.com/gpu-specs/radeon-hd-6870.c256) (2010) | Performance = 100%
255mm² | 1GB VRAM | 239$

HD7850 (https://www.techpowerup.com/gpu-specs/radeon-hd-7850.c1055) (2012) | Performance = 120%
212mm² | 2GB VRAM | 249$


Jetzt zu unserer aktuellen Pseudo-Midrange Karten:
6600 (https://www.techpowerup.com/gpu-specs/radeon-rx-6600.c3696) (2021) | Performance = 500%
237mm² | 8GB VRAM :freak: | 299$

und der 6600XT (https://www.techpowerup.com/gpu-specs/radeon-rx-6600-xt.c3774) (2021) | Performance = 588%
237mm² | 8GB VRAM :freak: | 379$ :ufinger:

Die aktuellen "Midrange"-GPUs sind eine Farce sondergleichen.
8GB VRAM steckten bereits in Polaris vor FÜNF Jahren.
Während Polaris die VRAM-Menge gegenüber der HD6870 verachtfachte und gegenüber der HD7850 vervierfachte,
bietet Navi exakt genau so viel VRAM wie man bereits vor fünf Jahren serviert bekam.
Die 6600 ist gegenüber dem fünf Jahre alten Vorgänger Polaris mit Ach und Krach 1,7 mal schneller,
während Polaris 2,4 mal schneller als die vier Jahre ältere HD7850
und 2,9 mal schneller als die sechs Jahre ältere HD6870 ist.

Polaris war in jeder Hinsicht (Preis, VRAM-Ausstattung, Performancevorteil gegenüber den Vorgängern) besser als der überteuerte Witz, den wir hier momentan serviert bekommen.

AMD hat eine schöne Folie, die das Problem zu 100% beschreibt:

https://www.dvhardware.net/article71210.html