PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6500 XT Review-Thread


Seiten : [1] 2

Leonidas
2022-01-19, 14:45:42
Radeon RX 6500 XT

AMD Navi 24 XT
16 Shader-Cluster mit 1024 FP32-Einheiten
64 Bit Speicherinterface
16 MB Infinity Cache
4 GB GDDR6-Speicher
Listenpreis: $199 bzw. 209€

Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/launch-der-radeon-rx-6500-xt-die-launchreviews-gehen-online) & VideoCardz (https://videocardz.com/123122/amd-radeon-rx-6500xt-review-roundup).


PS:
AMD hat kurz vor Ultimo sein 2020er Blog-Posting "4GB VRAM is not enough for today’s games" entfernt.
https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-hides-2020-blogpost-claiming-4gb-vram-is-not-enough-for-todays-games/

PS2:
Ist wieder zurück:
https://community.amd.com/t5/gaming/game-beyond-4gb/ba-p/414776

Lowkey
2022-01-19, 15:01:24
https://www.golem.de/news/radeon-rx-6500-xt-im-test-die-flaschenhals-grafikkarte-2201-162435.html

Gerade bei älteren Prozessoren mit PCIe Gen3 macht sich der x4-Link negativ bemerkbar, da verglichen zu Gen4 die Bandbreite nur halb so hoch ausfällt.

Leistung von vor 7 Jahren ohne neue Video Decoder mit eingebauten Flaschenhals für alte CPUs.

dildo4u
2022-01-19, 15:08:54
M5_oM3Ow_CI

maximus_hertus
2022-01-19, 15:12:11
Für den gedachten Einsatzzweck - zusätzliche GPU in Notebook zur APU, ist sie ganz nett. Als dGPU eher "meh". In der aktuellen Situation natürlich immer noch brauchbar, sofern lieferbar und wirklich für rund 200-250 Euro kaufbar.

Danke an Marc, toller Test, alles drin, sogar PCIe 3 x4.

Allerdings => Vor der GTX 1650, hinter der GTX 1060 => Spannender wird es bei der Geforce GTX 1060, das laut Steam am weitesten verbreitetste Modell überhaupt: Der Nvidia-Pixelbeschleuniger setzt sich um rund 10 Prozent von der Radeon RX 6500 XT ab,

Irgendwie liegt die 6500XT in allen Benches (Bilder) VOR der 1060. Kann es sein, dass der Text nicht zu den Bildern passt und da ggf. falsche Werte drin stehen?

Raff
2022-01-19, 15:14:31
Moar here, thx 2 heavy night shifts: https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/3/#a14

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78114&d=1642601668

MfG
Raff

Ex3cut3r
2022-01-19, 15:17:43
Moar here, thx 2 heavy night shifts: https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/3/#a14
Raff

Danke. Stell dich nicht so an, du Waschlappen. :biggrin: :wink:

Zur Karte, meine kurze Meinung. Ziemliches ich muss es leider so sagen, schrott Produkt!

PCIe Bremse für alles vor Zen 2 und teuren X570. 4GB Krüppelspeicher Deluxe. Der Stand heute schon nicht ausreichend ist.

Weiterentwicklung im Vergleich zur RX 570/580/480 nicht da. Stattdessen weitere Encode und Decode Einschnitte, welches Karten von vor 6 Jahren besser gemacht haben.

Was zur Hölle hat AMD bei diesem Produkt nur geritten? Ich weiß es nicht. Ich weiß es wirklich nicht. Einzige Erklärung. Der Markt ist so durch bzw. ungesättigt bei Low Cost Gamern, dass man vermutlich, sogar so ein Scheiß Produkt abliefern kann, und es garantiert doch seine Käufer finden wird.

DrFreaK666
2022-01-19, 15:18:54
Huch, doch so scheiße. Was hat sich AMD dabei gedacht?
Da kann man zur 1650 greifen, die es ab ca. 250€ gibt

r3ptil3
2022-01-19, 15:20:25
Die Lücke zwischen einer RX 6500 XT und einer RX 6600 XT beträgt deutlich über 100%.

Irgendwas lief doch da nicht richtig bei AMD.
Die Grafikkarte müsste doch Radeon Radeon RX 6300 heissen.

Raff
2022-01-19, 15:22:13
Danke. Stell dich nicht so an, du Waschlappen. :biggrin: :wink:

Ich mache das ja freiwillig, aus unbezahlter Überzeugung. Es soll nur jemand sehen und geil finden. :biggrin:

MfG
Raff

dildo4u
2022-01-19, 15:22:17
Huch, doch so scheiße. Was hat sich AMD dabei gedacht?
Da kann man zur 1650 greifen, die es ab ca. 250€ gibt
Wenn Intel Arc im Low End was taugt bekommen sie die GPUs nicht für den Notebook Einsatz los.

Ex3cut3r
2022-01-19, 15:24:55
Ich mache das ja freiwillig, aus unbezahlter Überzeugung. Es soll nur jemand sehen und geil finden. :biggrin:

MfG
Raff

Ich finde deine Artikel immer geil. Aber das weißt du doch. :up:

Und ich lese sogar den Text komplett durch. :eek:

y33H@
2022-01-19, 15:27:45
Danke an Marc, toller Test, alles drin, sogar PCIe 3 x4.

Irgendwie liegt die 6500XT in allen Benches (Bilder) VOR der 1060. Kann es sein, dass der Text nicht zu den Bildern passt und da ggf. falsche Werte drin stehen?Danke - und ja, der Text war da iwie verdreht ... /fixed

y33H@
2022-01-19, 15:28:44
Es soll nur jemand sehen und geil finden.Gesehen und für geil befunden - also dich, Mausi :ulove: den Test übrigens auch =)

Shink
2022-01-19, 15:30:17
Wenn Intel Arc im Low End was taugt
muahaha

Naja, irgendwas von AMDs Rechnung ist nicht ausgegangen - das Teil hat laut den Unterschieden zur 6600XT im Datenblatt eigentlich mehr Potential. Schlechter als eine 5500XT war nicht abzusehen.

dildo4u
2022-01-19, 15:34:50
Intel braucht nur was auf 1060 Level wenn sie 6GB haben einfach die Benches angucken.

https://abload.de/img/unknownqak1c.png

https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/3/

Leonidas
2022-01-19, 15:41:38
Ich finde Intels krummes 96-Bit-Interface bei DG2-128 auf den zweiten Blick als feine Zwischenlösung. Damit kommt man eben fix auf 6 GB Speicher - und gut Speicherbandbreite gibt es auch für diese Leistungsklasse. Schade das AMD nicht denselben Gedanken hatte.

Shink
2022-01-19, 15:44:35
Ich dachte wirklich, dass RDNA2 damit umgehen kann. Das lässt jetzt meine Hoffnungen für die RDNA2-APUs auch etwas schwinden.

Kann man mit 6GB nicht schon minen? Dann wär's ja nachvollziehbar, dass AMD das nicht gemacht hat mit seinen Hintergedanken zur RX 6500 XT.

Ex3cut3r
2022-01-19, 15:50:10
Ich sehe bei gh.de 1 Angebot für satte 412€ für so ein Kack Produkt.

Es ist einfach verrückt.

https://geizhals.de/sapphire-pulse-radeon-rx-6500-xt-11314-01-20g-a2665642.html

150€ für den Prügel bitte, und das wäre IMO schon gut bezahlt.

Shink
2022-01-19, 15:53:34
Wenn ich das richtig seh, kann man bei Caseking zur UVP vorbestellen:
https://www.caseking.de/sapphire-pulse-radeon-rx-6500-xt-gaming-oc-4g-4096-mb-gddr6-gcsp-234.html

209€ sind zumindest nicht ganz frech.
€: Wobei kann man? Ich finde den Button irgendwie nicht.

aufkrawall
2022-01-19, 15:56:00
Moar here, thx 2 heavy night shifts: https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/3/#a14

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78114&d=1642601668

MfG
Raff
Würd mich übrigens nicht wundern, wenn SAM in manchen Fällen die Situation noch weiter verschlechtert, weil damit in manchen Spielen der VRAM-Verbrauch offenbar höher ist.

OpenVMSwartoll
2022-01-19, 15:56:05
Meine RX 570 hab ich damals OVP für 70€ geschossen... Ungeöffnet mit Restgarantie. Jetzt bekomme ich weniger Leistung für wesentlich mehr Kohle. Sehr attraktiv...

Ex3cut3r
2022-01-19, 15:56:15
Wenn ich das richtig seh, kann man bei Caseking zur UVP vorbestellen:
https://www.caseking.de/sapphire-pulse-radeon-rx-6500-xt-gaming-oc-4g-4096-mb-gddr6-gcsp-234.html

209€ sind zumindest nicht ganz frech.
€: Wobei kann man? Ich finde den Button irgendwie nicht.
Es leider nicht Möglich eine Bestellung damit aufzugeben.

Die realität sind dann doch anders aus. https://www.caseking.de/gigabyte-radeon-rx-6500-xt-eagle-4g-4096-mb-gddr6-gcgb-444.html

Für 337€ immerhin bestellbar. :biggrin:

Linmoum
2022-01-19, 15:57:18
Das Ding wäre unter normalen Marktgegebenheiten wahrscheinlich nur in Notebooks gewandert und nicht als dGPU erschienen. Völlig zurecht. Aber der Markt gibt das aktuell nun einmal her.

Shink
2022-01-19, 16:05:46
Meine RX 570 hab ich damals OVP für 70€ geschossen... Ungeöffnet mit Restgarantie. Jetzt bekomme ich weniger Leistung für wesentlich mehr Kohle. Sehr attraktiv...
Ich hab damals 100% fossiles Benzin für 86 Cent pro Liter gekauft. Jetzt bekomme ich weniger Leistung für viel mehr Geld.

r3ptil3
2022-01-19, 16:11:10
Wie überlegen fühlt man sich nun mit einer fast 6 Jahre alten Geforce GTX 1070?

Die hat zudem 2016 unter 400 Euro gekostet. :freak:

dildo4u
2022-01-19, 16:17:12
Die Karte war immer dazu verdammt nutzlos zu sein, die 1060 6GB hat den Standard vor 5 Jahren gesetzt alle AAA Entwickler setzen sich das Heute als Minium.
Und das auch nur weil es noch tonnen Cross-Gen Games gibt könnte Ende 2022 schon anderes aussehen.

WedgeAntilles
2022-01-19, 16:26:29
AMD machts einem echt leicht die nicht zu mögen :D

Wie hat es GamersNexus beim 11900K so schön ausgedrückt? "waste of sand"

Ressourcenverschwendung trifft es für die 6500XT perfekt, ein völlig nutzloses Ding, das einfach "Müll" ist.

Wer absolut keinen Anspruch hat ist mit ner integrierten Grafik besser bedient.
Wer wenig Ansprüche hat ist mit ner uralten 1060 noch besser bedient - oder eine RX570 oder ähnlichem.

Würde das Teil 70 Euro kosten meinetwegen, aber so?
Bevor man für so ein Teil Geld zahlt lieber Konsole kaufen, gar nix kaufen - oder richtig Geld in die Hand nehmen und was anständiges kaufen.
Mit dem Teil zahlt man viel Geld und hat trotzdem nur etwas, das "Müll" schon erschreckend Nahe kommt.

Linmoum
2022-01-19, 16:30:04
Der "Müll" wird aber trotzdem auch für deutlich über 200€ gekauft. Fakt. Egal wie man es dreht und wendet, die Leute bezahlen auch für eine solche Karte diese hohen Preise auf einem völlig durchgedrehten Markt.

AMD ist ein Unternehmen, das auf Umsatz und Gewinn aus ist. Und aus unternehmerischer Sicht machen sie auch mit einer solchen Karte alles richtig. Angebot und Nachfrage, egal wie gut oder schlecht irgendetwas ist.

L.ED
2022-01-19, 16:30:46
Was für eine dreiste Nummer :| .. der Müll ist maximal 50€ wert!

Ex3cut3r
2022-01-19, 16:32:42
Der "Müll" wird aber trotzdem auch für deutlich über 200€ gekauft. Fakt. Egal wie man es dreht und wendet, die Leute bezahlen auch für eine solche Karte diese hohen Preise auf einem völlig durchgedrehten Markt.

AMD ist ein Unternehmen, das auf Umsatz und Gewinn aus ist. Und aus unternehmerischer Sicht machen sie auch mit einer solchen Karte alles richtig. Angebot und Nachfrage, egal wie gut oder schlecht irgendetwas ist.

Ich bewerte als User aber nicht AMDs wirtschaftliche Gedanken. Sondern deren Produkte. Fakt ist nunmal, dass es Müll Produkt ist. Nvidia bietet besseres an, in dieser Klasse, muss man einfach sagen.

Es passt einfach ins Bild, was AMD momentan abzieht. Trotz AlderLake senken Sie die Preise für Zen 3 immer noch nicht, obwohl keiner mehr Zen 3 haben will. Dann jetzt dieses Produkt. AMD gibt sich momentan sehr viel Mühe ihr "gutes" Image weiter zu zerstören.

aceCrasher
2022-01-19, 16:33:24
Ein Arbeitskollege von mir hat sich gerade eine Powercolor 6500XT für ~280€ bei Mindfactory bestellt, kurz bevor sie ausverkauft waren ;D

Daredevil
2022-01-19, 16:38:15
AMD ist ein Unternehmen, das auf Umsatz und Gewinn aus ist. Und aus unternehmerischer Sicht machen sie auch mit einer solchen Karte alles richtig. Angebot und Nachfrage, egal wie gut oder schlecht irgendetwas ist.
Da gibt es aber auch Grenzen, nämlich das man sich den Ruf als "Billigheimer" verdient, den AMD so oder bei vielen noch inne hat.

Die RX480/580 Karten waren sensationell, die Vega56/64 Karten haben ebenso ein tolles Echo in der Community hinterlassen und viele von diesen "alten" Kunden haben oder werden zu einer Navi2 greifen, weil sie "Gut und Günstig" bei AMD erwarten.
Diese Karte ist aber teuer und wie gerade schon geschrieben wurde, "Waste of Sand".

Ich werde auch nie die FX5200 vergessen mit "zu viel" Ram.
Das hat Nvidia verkackt, da bin ich bestimmt nicht der einzige. ^^

Rancor
2022-01-19, 16:41:35
Ein Arbeitskollege von mir hat sich gerade eine Powercolor 6500XT für ~280€ bei Mindfactory bestellt, kurz bevor sie ausverkauft waren ;D

Hast du ihn verprügelt ? :biggrin: Also da kann man wirklich nur auf die RTX 3050 hoffen. Ich habe im Bekanntenkreis noch jemanden der seine GTX 960 ablösen will :D

Leonidas
2022-01-19, 16:45:27
Hast du ihn verprügelt ?

Der wird morgen stolz erzählen, dass er 60 Euro gespart hat - dieselbe Karte ist jetzt bei der MF ab 339 Euro wieder erhältlich.
https://twitter.com/3DCenter_org/status/1483821914108076035

ChaosTM
2022-01-19, 16:52:53
Für 720p Gaming ist die Karte optimal ! :D

Das war ein sehr dummer eher unkluger Zug von AMD.
Für die Shop-Preise können sie ja nichts.

DrFreaK666
2022-01-19, 17:10:34
Wenn man nicht unbedingt neue Spiele spielen will, dann reicht die Karte.
Ein Kollege von mir hat noch eine 270X, habe ihn geraten zu warten, weil die Preise zu hoch sind - das war Anfang 2020 :ugly:

mczak
2022-01-19, 17:11:28
Das Ding wäre unter normalen Marktgegebenheiten wahrscheinlich nur in Notebooks gewandert und nicht als dGPU erschienen. Völlig zurecht. Aber der Markt gibt das aktuell nun einmal her.
Naja also zumindest hat man vor ziemlich langer Zeit entschieden dass das Ding Display-Outputs und einen rudimentären Video-Decoder braucht - beides ist für einen Chip der ausschliesslich in Notebooks zum Einsatz kommt verschwendete Chipfläche (und sowohl nvidia wie auch amd haben in der Vergangenheit schon solche Chips ohne diesen "Ballast" produziert). Kann aber natürlich gut sein dass da nicht Desktop im Fokus war sondern irgendwelche embedded Sachen.
Für den Desktop-Einsatz sind die Einschränkungen aber schon unverständlich. Die 64bit/4GB finde ich zwar noch nachvollziehbar (Speicherinterface kostet ordentlich Fläche, und im Prinzip spricht auch nichts dagegen später Karten mit mehr Speicher anzubieten wenn gddr6 Chips mit doppelter Kapazität erhältlich sind ohne dass man das PCB-Layout ändern muss), aber das Fehlen des Video-Encoders wie auch der abgespeckte Video-Decoder macht die Karte nicht sonderlich attraktiv. Ganz abgesehen davon dass man gerade mit pcie 3.0 deutlich (nach den Tests zwischen 1-40% je nach Spiel) Performance verliert weil man bloss pcie x4 verbaut statt x8 für eine absolut minimale Chipflächenersparnis (ich würde mal grob geschätzt so auf 1mm^2 tippen).

Auch wenn das Ding mit der RX570 verglichen wird, ist das eigentlich ein Nachfolger der RX550 - und selbst deren Chip war nicht derart abgespeckt (8x pcie, full-featured Video Deocde/Encode, 3 (der Chip konnte vielleicht sogar mehr?) Display-Ausgänge. Und das war eine 80$ Karte (ok die 4GB Version kostete etwas mehr). Ich weiss übrigens gar nicht mehr wann AMD eine Karte hatte die bloss 2 Display-Ausgänge hatte - muss wohl vor den Eyefinity Zeiten (Evergreen, 2009) gewesen sein.

maximus_hertus
2022-01-19, 17:20:00
Danke - und ja, der Text war da iwie verdreht ... /fixed

Warum steht in der Zwischenüberschrift immer noch "hinter der GTX 1060"?

Und bei "Die Radeon RX 6500 XT N setzt sich um rund 10 Prozent vom Nvidia-Pixelbeschleuniger" ist das N wohl zu viel ;)

Sorry, ich will dich nicht nerven ;)


Auch an Raff wieder mal ein fettes Dankeschön. Wie immer liefert die PCGH ab :)

MSABK
2022-01-19, 17:20:01
Ich bewerte als User aber nicht AMDs wirtschaftliche Gedanken. Sondern deren Produkte. Fakt ist nunmal, dass es Müll Produkt ist. Nvidia bietet besseres an, in dieser Klasse, muss man einfach sagen.

Es passt einfach ins Bild, was AMD momentan abzieht. Trotz AlderLake senken Sie die Preise für Zen 3 immer noch nicht, obwohl keiner mehr Zen 3 haben will. Dann jetzt dieses Produkt. AMD gibt sich momentan sehr viel Mühe ihr "gutes" Image weiter zu zerstören.

Wo hast du das her, dass niemand Zen3 will? Wenn sie auf den Chips sitzen bleiben würden, dann hätten sie die Preise gesenkt.

maximus_hertus
2022-01-19, 17:41:06
Huch, doch so scheiße. Was hat sich AMD dabei gedacht?
Da kann man zur 1650 greifen, die es ab ca. 250€ gibt

Hö? Why?

Ich zitiere mal Marc / Golem:

"Die Geforce GTX 1650 ist keine Konkurrenz für AMDs neue Navi-24-Karte, die Radeon RX 6500 XT liegt über alle Messungen hinweg satte 50 Prozent in Front."

Warum ist eine Karte, die rund 280 Euro kostet / gekostet hat und rund 50% schneller ist, scheiße und die 250 Euro Karte, die massiv zurück liegt, ein besserer Kauf?



Zur Karte, meine kurze Meinung. Ziemliches ich muss es leider so sagen, schrott Produkt!

PCIe Bremse für alles vor Zen 2 und teuren X570. 4GB Krüppelspeicher Deluxe. Der Stand heute schon nicht ausreichend ist.

Weiterentwicklung im Vergleich zur RX 570/580/480 nicht da. Stattdessen weitere Encode und Decode Einschnitte, welches Karten von vor 6 Jahren besser gemacht haben.

Was zur Hölle hat AMD bei diesem Produkt nur geritten? Ich weiß es nicht. Ich weiß es wirklich nicht. Einzige Erklärung. Der Markt ist so durch bzw. ungesättigt bei Low Cost Gamern, dass man vermutlich, sogar so ein Scheiß Produkt abliefern kann, und es garantiert doch seine Käufer finden wird.

Bitte sei mir nicht Böse, aber diese Weinerei von vielen wird immer unerträglicher.

Navi 24 wurde nicht als Desktop-Gaming-Grafikkarte geplant.
Im Gegenteil, es ist quasi eine Mobile-only Lösung, die erst mit einer AMD APU ihre Stärken ausspielt.

Der Markt ist halt, wie er ist und deshalb ist es für alle Seiten sicherlich eine gute(!) Sache, wenn wir jetzt MEHR Desktop-dGPU-KArten bekommen.

Die 6500XT ist KEINE Weiterentwicklung von Polaris um diese 1:1 zu ersetzen.


Hätten wir einen Markt wie früher, würde das AMD Lineup so aussehen:
6900 XT, 999 UVP, Straßenpreis mittlerweile im Bereich 900 oder sogar drunter
6800 XT, 649 UVP, Straßenpreis ab 600
6800, 579 UVP, Straßenpreis ab 500
6700 XT, 429 UVP, Straßenpreis ab 350
6600 XT, 300-320 UVP, Straßenpreis ab 275
6600, 230-250 UVP, Straßenpreis ab 210

und fertig. Da würde man keine Gaming 6500 XT benötigen.


Die (PREIS)REALITÄT ist und wird auch in Zukunft komplett anders aussehen.

Wir werden auch in Zukunft die neuen Preise sehen.
Low End 1080p Gaming - RTX 50, RX "5" - ca. 200-250 Euro
Mainstream 1080p - RTX 60, RX "6" - ca. 400 Euro
Performance 1440p - RTX 70, RX "7" - ca. 650 Euro
High End 1440p/4K - RTX 80, RX "8" - ca. 900-1000 Euro
Enthusiast 4K+ - RTX 90, RX "9" - ca. 1500+ Euro

Dazu kommen aktuell noch die viel, viel, viel zu große Nachfrage, die die Preise weiter in die Höhe treibt.
Wenn dann Ende 2022 die neue Gen kommt, erwarte ich die oben genannten Preise als UVP.

Und mehr oder weniger werden diese Preise die neuen Preisklassen bilden. Ob uns das gefällt oder nicht.
Ich sehe einfach nciht, warum die PReise in den nächsten 2-3 Jahren (und eigentlich auch darüber hinaus) auf die "Vor-Covid-Preise" zurück gehen sollten?

Eldoran
2022-01-19, 17:43:08
Ich denke das Problem bei dem chip ist die durch 7nm verursachte relativ kleine Fläche. Mehr IO hätte relativ gesehen viel fläche gekostet, möglicherweise stellt da auch die Anzahl der microbumps den limitierenden Faktor dar.

etp_inxession
2022-01-19, 17:44:25
Unattraktiv die Karte.

Hätte AMD sich sparen können.

Hoffentlich belegt der Chip nicht sinnlos irgendwelche Kapazitäten.

@Ex3cut3r .. Also ich nehme tausend mal lieber Zen3 als die Baustelle ADL. AMD kann hier die Preise scheinbar nicht senken, da nicht genug Nachschub da ist. Wird sich zeigen, wenn die günstigen ADL Boards auch flächendeckend lieferbar sind.

Dann kommt der kleine Nachlass und/oder der 5600G mit deaktivierter GPU Einheit.

Lyka
2022-01-19, 17:46:50
eine 4 GB Karte ist ja wohl übel. Naja, für alte Spiele und Videosanschauen und wenn man keine APU nutzen kann ... :facepalm:

ChaosTM
2022-01-19, 17:51:26
Das Hauptproblem sind Speicher und der fehlender Hardware Codec, ja
Gegen die 1650er ist sie aber immer noch eine Rakete. :)

150€ Listenpreis und man könnte kaum meckern. 1080p Medium halt.

Sweepi
2022-01-19, 17:54:06
In einem Arbeitsrechner steckt ein 3900x, im anderen ein 5950x. Beide keine iGPU. Für etwas wäre eine 6500 (auch ohne XT) eine angemessene Lösung, würde ich heute neu kaufen. Andererseits würde ich heute wohl direkt zu ADL greifen, da spare ich mir die dGPU komplett.

y33H@
2022-01-19, 17:55:44
Warum steht in der Zwischenüberschrift immer noch "hinter der GTX 1060"?Weil ebenfalls mit heißer Nadel gestrickt ...

maximus_hertus
2022-01-19, 17:55:50
Ich bewerte als User aber nicht AMDs wirtschaftliche Gedanken. Sondern deren Produkte. Fakt ist nunmal, dass es Müll Produkt ist. Nvidia bietet besseres an, in dieser Klasse, muss man einfach sagen.


Warum ist eine 1650, die um 50%(!) geschlagen wird, das bessere Produkt?



Es passt einfach ins Bild, was AMD momentan abzieht. Trotz AlderLake senken Sie die Preise für Zen 3 immer noch nicht, obwohl keiner mehr Zen 3 haben will. Dann jetzt dieses Produkt. AMD gibt sich momentan sehr viel Mühe ihr "gutes" Image weiter zu zerstören.

Warum sollten sie trotz Alderlake die Zen 3 Preise senken? Gaming ist nicht alles ;) Und bisher gibt es quasi kein Alderlake. Im Enthusiastenbereich, i9 mit Z690, da ja. Aber der i5 ist doch aktuell noch ziemlich wehrlos. Erst wenn gute und günstige (unter 150 Euro) B660 Boards breit verfügbar sind, wird es was mit Alderlake. Wobei selbst das auch wieder irgendwie "meh" ist. Wenn Alderlake, dann direkt mit DDR5. Tjo, irgendwie sad. Gibt kein DDR5, nicht zu bezahlbaren Preisen, die zu einem i5 System passen.

LAst, but not least: Die Nachfrage nach CPUs ist so gigantisch, dass es fast egal ist, ob man etwas schneller oder langsamer ist. Am Ende wird ALLES verkauft. So oder so.

Wie bei GPUs gibt es eine neue MArktrealität. Das, was früher für Jahrzehnte galt, gilt nciht mehr (komplett).

iamthebear
2022-01-19, 17:56:05
Ich dachte wirklich, dass RDNA2 damit umgehen kann. Das lässt jetzt meine Hoffnungen für die RDNA2-APUs auch etwas schwinden.

Es wurde so ziemlich alles halbiert: Anzahl Shader, VRAM, PCIe Interface etc. Ist irgendwie klar, dass die Performance nur mehr die Hälfte ist.

[/quote]Kann man mit 6GB nicht schon minen? Dann wär's ja nachvollziehbar, dass AMD das nicht gemacht hat mit seinen Hintergedanken zur RX 6500 XT.[/QUOTE]

Und in wie fern ist das ein Nachteil für AMD? Das kann denen doch egal sein wer ihre Produkte kauft. Es ist sogar von Vorteil weil der Gamer, der keine Karte hat kauft auch 1 Jahr später noch. Die Miner muss man melken solange der Boom noch läuft.

Der Grund für die 4GB VRAM sind einfach der Preis. Klar 6GB wären nett aber dann ist das eben eine ganz andere Preiskategorie. Die 2GB VRAM kosten aktuell mehr als der ganze Navi24 Die.

Ex3cut3r
2022-01-19, 17:58:08
An die AMD Fanboys hier. War klar, dass Ihr alles verteidigt. Selbst so ein Schrott Produkt. Auf eine weitere Diskussion mit der Fan Boy Brille habe ich kein interesse. Viel Spaß noch.

Ich bin raus hier ;D

Unrockstar
2022-01-19, 18:00:39
Danke - und ja, der Text war da iwie verdreht ... /fixed

Danke für den Test
Das Fazit ist ernüchternd, Ebenso dass eher Influencer ne Karte bekommen haben als die Fachpresse... Gehe ich richtig in der Annahme Heise hatte auch keine?
Der Test ist extrem kurz.

ChaosTM
2022-01-19, 18:01:20
Ich seh hier niemanden, der die Karte wirklich verteidigt. Sie ist nur für die Leistung viel zu teuer. ;)

y33H@
2022-01-19, 18:04:29
Gehe ich richtig in der Annahme Heise hatte auch keine? Der Test ist extrem kurz.Hmmm, sind zwei Seiten inklusive Benchmarks ... allerdings keine echten Fotos der Karten, was Fragen aufwirft ^^

https://www.heise.de/tests/AMD-Grafikkarte-Radeon-RX-6500-XT-Zerspart-6331751.html?seite=all

Linmoum
2022-01-19, 18:09:04
Ich bewerte als User aber nicht AMDs wirtschaftliche Gedanken. Sondern deren Produkte. Fakt ist nunmal, dass es Müll Produkt ist. Nvidia bietet besseres an, in dieser Klasse, muss man einfach sagen.
Du darfst bewerten, was du willst. Aus rein unternehmerischer Sicht (und aus dieser handelt jede Firma, isso) ergibt es in diesem Marktumfeld schlicht Sinn für AMD, ein solches Produkt als dGPU zu launchen. Wie du (auch hier) siehst, werden die Karten ja trotzdem gekauft. Kann also so falsch nicht sein.


Es passt einfach ins Bild, was AMD momentan abzieht. Trotz AlderLake senken Sie die Preise für Zen 3 immer noch nicht, obwohl keiner mehr Zen 3 haben will. Dann jetzt dieses Produkt. AMD gibt sich momentan sehr viel Mühe ihr "gutes" Image weiter zu zerstören.
Deine Behauptung, dass Leute irgendwas nicht mehr haben wollen, ist durch nichts belegt. Im Übrigen heißt Preissenkung fast immer, dass du mehr liefern musst, weil die Nachfrage steigt. Wenn AMD eh nicht mehr liefern kann (oder alles in Server schiebt), erübrigt sich das sowieso. Preise senken um des Preise senken Willens ist dumm, wenn die Nachfrage nicht bedient werden kann. Denn Nachfrage, die nicht bedient werden kann, heißt wiederum steigende Preise. Also Nullsummenspiel.

gedi
2022-01-19, 18:16:54
Wundert mich, dass es einen Thread für so ein Produkt gibt. Es ist imo keiner Bedeutung/Beurteilung wert.

aufkrawall
2022-01-19, 18:21:20
Ich seh hier niemanden, der die Karte wirklich verteidigt. Sie ist nur für die Leistung viel zu teuer. ;)
Leider nicht mal AV1 Decoding-Support, was sicherlich bei winzigen Alder Lake-N SoCs dabei sein wird. Ist echt traurig, die GT 1030 konnte damals wenigstens VP9 (Jahre vor jeder AMD-Grafikkarte, obwohl es der billigste Krempel war).

ChaosTM
2022-01-19, 18:30:29
Das fehlt schmerzlich, ja. Hab ich weiter oben angemerkt.

marc-05
2022-01-19, 18:35:29
Habs befürchtet das es in die Hose geht.Beschnitten bis geht nicht mehr.Hätte man Polaris weiterlaufen lassen können ,gibts mehr Anschlüsse / Codecs.
Intel / Nvidia werden sich vor lachen krümmen.

maximus_hertus
2022-01-19, 18:35:43
An die AMD Fanboys hier. War klar, dass Ihr alles verteidigt. Selbst so ein Schrott Produkt. Auf eine weitere Diskussion mit der Fan Boy Brille habe ich kein interesse. Viel Spaß noch.

Ich bin raus hier ;D

Wow, da wird man, wenn man höfflich nachfragt, zum Fanboy abgestempelt.

Um es kurz zu machen: Mir gefällt die 6500 XT nicht. In 2022 ist aber, wie schon in 2021, alles anders.

Eine RX x800 oder RTX x080 wird es auf JAhre nicht mehr für unter 1000 Euro geben.

Es geht hier nicht ums verteidigen, sondern um das akzeptieren der neuen Realität. Das hat nichts mit AMD und Co zu tun.

Nicht jeder, der die neue (wobei so neu ist es nicht mal) Situation begriffen hat, ist ein Fanboy.


Also, neuer Versuch. Warum ist die 50% schnellere Karte Schrott?

Daredevil
2022-01-19, 18:41:43
Es ist ja nicht so, als wäre AMD gezwungen gewesen, sowas rauszubringen.
50€ mehr, PCIe 8x und 6/8 GB Ram und fertig ist der Käse, da hätte doch niemand gemeckert.
Ob die 199$ Karte dann 350€ kostet oder die 249$ Karte 400€ macht den Kohl dann auch nicht mehr Fett.

Somit "muss" man zu so einer Karte auf jeden Fall PCIe 4.0 haben, weil man sonst super viele Abstriche macht. Hat nicht jeder, muss auch nicht jeder haben. Ist doch meh. Einziger Wermutstropfen wäre echt, wenn AMD die winzigen Chips breitflächig verteilen kann, so das man wirklich eine "Alternative" RX570 4GB hat für wirklich um oder unter 200€.

Ansonsten mag Linmoum meinetwegen recht habe, das macht AMD aber nicht symphatischer.
Nicht alles was man kaufen kann, rechtfertigt sich damit, das jemand es kauft. :D
( Ähnlich wie die 3080, die auf der Preisskala auch hoch für WQHD+ Gamer positioniert war, das aber nicht durchgängig wuppen kann und auch einen Platz in der Failrangliste einnimmt )

Linmoum
2022-01-19, 19:14:31
Sympathien kann ja jeder haben, wie er mag. Alles gut. Aber man sollte trotzdem im Hinterkopf behalten, für was ein Unternehmen in erster Linie da ist und was das vordergründige Ziel eines solchen ist. Und dann ggf. noch mal überlegen, ob das jetzt so falsch ist. Gerade eben vor dem Hintergrund, dass der Markt völlig am Boden (im negativen Sinne) ist.

Übel nehme ich es Unternehmen eher, die ihre Kunden nachweislich bescheißen. Aber weil man ein... kaum beeindruckendes und an dem ein oder anderen Ende gespartes Produkt herausbringt? Naja, muss jeder selbst entscheiden.

Ich würde mit das Teil auch nicht kaufen, selbst wenn ich gerade keine GPU hätte aber zocken will. Sagt mir nicht zu (und würde es auch nicht zur UVP tun) und ist preislich auch völlig deplatziert. Aber den Preis bestimmen seit über einem Jahr sowieso nicht mehr die Hersteller selbst.

Daredevil
2022-01-19, 19:26:19
Es gibt Menschen, die wissen nicht, was sie dort für eine "kastrierte" Karte kaufen und die werden herbe enttäuscht sein. Das ist nichts, was einem "Unternehmen" langfristig hilft. Das schadet dem Vertrauen der Kunden und lässt AMD auch völlig zurecht ( wie vermutlich Nvidia bei der 3090ti zurecht ) einen Shitstorm erfahren.

AMD hat aber bereits ein "Sparbrot" Image im GPU Sektor und ob man das befeuern möchte nach so wunderbaren Karten im HighEnd, ist halt sehr sehr schade. Ich lass AMD ja ihr Geld verdienen, die Frage ist was Kunden in 3-5 Jahren kaufen, nachdem sie eine 4GB Karte für 300€ gekauft haben.

Es gibt auch Firmen, die schließen rigoros aus, dass sie "schlechte Produkte" unter den Mann bringen. Tesla macht keine langsamen Autos, Apples SoCs sind immer Top Notch und auch wenn Arctic Cooling ein Unternehmen ist, was sehr günstig anbietet, sind die Produkte nie billig oder der Support schlecht. ( Arctic z.B. hat sehr treue Kunden, seit Jahrzehnten )
Es geht auch andersrum, man kann sich auch einfach darauf fokussieren, gute Produkte zu entwickeln, das ist langfristig vielleicht sinnvoller.
Aber wenn das AMDs Strategie ist, akzeptiert man das halt. Die Aktie freut sich, das Image nicht.

( In 2-3 Monaten redet eh niemand mehr über diese GPU )

fondness
2022-01-19, 19:34:34
Ein absolutes Lowend Teil, das man sich aufgrund der Marktgegebenheiten vergolden lassen kann. Im Vergleich zur 1650 sogar ein guter Deal

gedi
2022-01-19, 19:55:24
Es gibt Menschen, die wissen nicht, was sie dort für eine "kastrierte" Karte kaufen und die werden herbe enttäuscht sein. Das ist nichts, was einem "Unternehmen" langfristig hilft. Das schadet dem Vertrauen der Kunden und lässt AMD auch völlig zurecht ( wie vermutlich Nvidia bei der 3090ti zurecht ) einen Shitstorm erfahren.

AMD hat aber bereits ein "Sparbrot" Image im GPU Sektor und ob man das befeuern möchte nach so wunderbaren Karten im HighEnd, ist halt sehr sehr schade. Ich lass AMD ja ihr Geld verdienen, die Frage ist was Kunden in 3-5 Jahren kaufen, nachdem sie eine 4GB Karte für 300€ gekauft haben.

Es gibt auch Firmen, die schließen rigoros aus, dass sie "schlechte Produkte" unter den Mann bringen. Tesla macht keine langsamen Autos, Apples SoCs sind immer Top Notch und auch wenn Arctic Cooling ein Unternehmen ist, was sehr günstig anbietet, sind die Produkte nie billig oder der Support schlecht. ( Arctic z.B. hat sehr treue Kunden, seit Jahrzehnten )
Es geht auch andersrum, man kann sich auch einfach darauf fokussieren, gute Produkte zu entwickeln, das ist langfristig vielleicht sinnvoller.
Aber wenn das AMDs Strategie ist, akzeptiert man das halt. Die Aktie freut sich, das Image nicht.

( In 2-3 Monaten redet eh niemand mehr über diese GPU )

AMD hat sehr gute und in meinem Fall gar exzellente Produkte. Aber von Sparbrot merke ich hier nix! Mir hat bereits der Preispoint dieser Karte Kopfzerbrechen bereitet. 199$ zusätzlich, nur weil man im Desktop noch keine RDNA2-iGPU anbieten kann? Heftig, leider

maximus_hertus
2022-01-19, 20:25:21
Es ist ja nicht so, als wäre AMD gezwungen gewesen, sowas rauszubringen.
50€ mehr, PCIe 8x und 6/8 GB Ram und fertig ist der Käse

Eben nicht. Der Chip war nie für Gaming-dGPU Zwecke gedacht, sondern fürs Mobile Gaming. Erst die aktuelle Situation sorgte für ein Release als Desktop Gaming Karte.

Das sieht man schon an den diversen "Einsparungen", die im Mobilebereich kein Problem sind (Videocodecs laufen z.B. über die APU). x4 ist auch eine normale Anbindung im Notebook.

Man kann die Karte mies finden, aber sie könnte (je nachdem, wie in Zukunft Lieferbarkeit und Preis sein werden) ein Segen sein.

Lieber eine 6500 XT als eine 750 Ti oder älter, wenn man keine 1000 Euro für eine GPU ausgeben möchte oder kann.


Was eine Polaris und Co Karte damals, im kalten Krieg, zu welchem Preis auch immer geleistet haben, ist nunmal irrelevant. Man kann diese KArten heute nicht zu dem damaligen Preis (neu) kaufen. Bitter? Jo. Aber nicht zu ändern.

Wer jetzt einen neuen Rechner kauft, z.B. mit B550 und Ryzen 5 oder Ryzen 7 und eine Eisnteiger GPU braucht, weil man z.B. nur wenig zockt oder nur ältere / Esport Titel oder schlicht, wie bereits geschribeen, keine 1000 Euro jetzt über hat / haben möchte (für eine dicke GPU), für den ist eine 6500 XT doch ein immer noch nicht tolles, aber passables Angebot. Überschaubarer Preis, in Relation überschaubarer Wertverlust und man kann später immer noch auf eine neue GPU aufrüsten.

In rund 9 Monaten sollen ja RTX 4000 und RX 7000 kommen, da könnte man versucht sein, die Zeit mit einer 6500 XT zu überbrücken (macht natürlich nicht für jeden Sinn).


Wenn jemand eine gute 300 Euro KArte erwartet, mit der man alles aktuelle in Ultra Details, 1440p etc. bestens zocken kann, der kann vielleicht in 2024 wieder kommen. Wahrscheinlich eher 2025 oder gar noch viel später.

Die Zeiten sind bis auf weiteres vorbei. Es wird ein sehr, sehr langer Weg, bis NAchfrage und Lieferfähigkeit sich einigermaßen treffen. So lange dieses krasse Ungleichgewicht anhält, so lange gibt es auch solche Launches wie heute.

Es geht mir nicht darum, AMD zu "beschützen", am Ende ist es NOCH frustrierender, wenn AMD die 6500 XT für z.B. 150 Euro vorstellt und die KArten dann trotzdem so viel kosten wie jetzt (also 280+ Euro).
Oder wenn AMD die 6500 XT gar nicht gebracht hätte und man nur die GTX 1650 für 250 Euro kaufen könnte. Das wäre wohl sicherlich viel(!) schlimmer als die aktuelle 6500 XT.

Daredevil
2022-01-19, 20:33:17
Auch im Mobile Gaming möchte man Texturen darstellen, da schon lange keine 720p Screens mehr verbaut werden. ^^
Ich sehe da keinen Unterschied.

AMD sagt, sie verbauen keine 8Gig, weil sie dann fürs Mining unattraktiv sind. Freut man sich nun als Gamer? ^^

maximus_hertus
2022-01-19, 20:33:44
Es gibt Menschen, die wissen nicht, was sie dort für eine "kastrierte" Karte kaufen und die werden herbe enttäuscht sein. Das ist nichts, was einem "Unternehmen" langfristig hilft. Das schadet dem Vertrauen der Kunden und lässt AMD auch völlig zurecht ( wie vermutlich Nvidia bei der 3090ti zurecht ) einen Shitstorm erfahren.

AMD hat aber bereits ein "Sparbrot" Image im GPU Sektor und ob man das befeuern möchte nach so wunderbaren Karten im HighEnd, ist halt sehr sehr schade. Ich lass AMD ja ihr Geld verdienen, die Frage ist was Kunden in 3-5 Jahren kaufen, nachdem sie eine 4GB Karte für 300€ gekauft haben.


In 4 Jahren gibt es dann die nVidia Highend RTX 4050 GPU mit 6GB Speicher. ODer so ähnlich.

Wenn Kunden die 1650 für 250 - 300 Euro kaufen (die auch nur 4GB hat), werden diese nicht viel, viel, viel enttäuscher sein? Obwohl weniger kastriert ist sie monumental viel langsamer als die 6500 XT. Aber irgendwie schadet diese KArte nVidia nicht.

Die GTX 1660 mit 6GB geht für 500+ Euro über die Ladentheke. Das tut imo noch viel mehr weh. Kein RTX, 6GB sind auch kaum besser als 4 und dann teils über 500 Euro. Schadet nV auch nicht.

Der GPU Markt ist so krass kaputt, da werden wir noch sehr viele Jahre mit zu kämpfen haben. Logik, Vergleiche mit der Vergangenheit etc. helfen da auch nicht.

Nicht schön, aber leider nicht zu ändern.


Edit: Mit einer nV MX GPU oder AMD 6500er ist man im Einsteigersegment. Fifa in 1080p mit Medium Details? Läuft. CS? Läuft. Rainbow Six? Läuft. Fortnite? Läuft. Etc.
Wer AAA Games in max Details zocken will, muss sich per se im höheren Segment umgucken. Das war auch früher so.
Eine GTX x50 war z.B. noch nie gut genug, um alle AAA Games perfekt mit 60+ fps zu rendern (Ultra Details).

Erst die 60er bzw. eben AMDs 6600er sind dafür gedacht (als kleinste Lösung). Wobei man auch hier (besonders bei den Laptop-Varianten) ggf. Kompromisse eingehen muss. (Wie schon fast immer)

RoughNeck
2022-01-19, 20:35:49
Die Karte ist doch Ideal für fertig PC ala MM / Saturn.
Gamer PC mit der Karte und 1400 bis 1700€ ab dafür, wird sicher genügend Käufer finden. AMD liefert in den Bereich ein Produkt was sich ganz leicht verkaufen lässt.

robbitop
2022-01-19, 20:38:46
Ich verstehe die Kritik nicht so 100%. Es ist eine Einsteigerkarte. Da dann zu kritisieren, dass maximale Texturdetails nicht flüssig sind. Wer stellt bei so einer Karte macimale Details ein? Es gibt ein Grund für Schieberegler und die darf man bei Einstiegshardwsre auch benutzen. Unter medium Details wird es mit den 4 GB wenig Probleme geben und dann muss auch der vram nicht über den pcie.

maximus_hertus
2022-01-19, 20:44:18
https://www.computerbase.de/2022-01/gpu-kauf-wird-zum-gluecksspiel-radeon-und-geforce-auf-amazon-aus-der-lootbox/

Lootbox => 110 Euro, mit 2% Wahrscheinlichkeit ist eine KArte aus der aktuellen Gen drin, mit 70(!)% Wahrscheinlichkeit eine KArte, die ÄLTER(!!) als die GF 900 / Radeon 300 Serie ist, also Kepler (GTX 700/600) oder GCN1 (Radeon 7000) oder noch(!) älter.

Trotzdem ausverkauft.

Das ist doch komplett kaputt. Da sind die 210 Euro UVP für die 6500 XT doch ein MEga Schnäppchen.....

DrFreaK666
2022-01-19, 20:52:03
Hö? Why?

...Warum ist eine Karte, die rund 280 Euro kostet / gekostet hat und rund 50% schneller ist, scheiße und die 250 Euro Karte, die massiv zurück liegt, ein besserer Kauf?...

Die 6500XT ist laut Techspot mit PCI 3.0 genauso schnell wie eine 1650. Da mein Mainboard alt ist und es die 1650 ab 260€ gibt, wäre sie für mich die bessere Wahl.
Mit PCI 4.0 sieht die Sache natürlich anders aus

https://static.techspot.com/articles-info/2398/bench/Average.png

gedi
2022-01-19, 20:58:04
Ich verstehe die Kritik nicht so 100%. Es ist eine Einsteigerkarte. Da dann zu kritisieren, dass maximale Texturdetails nicht flüssig sind. Wer stellt bei so einer Karte macimale Details ein? Es gibt ein Grund für Schieberegler und die darf man bei Einstiegshardwsre auch benutzen. Unter medium Details wird es mit den 4 GB wenig Probleme geben und dann muss auch der vram nicht über den pcie.

Das Ding ist per se viel zu teuer, von den Marktpreisen abgesehen! UVP 99$, ein paar MHz-chen weniger an Takt und beinahe passiv, da gehört diese Karte hin! Ich denke die OEM-Dinger mit 75W werden interessanter.

maximus_hertus
2022-01-19, 21:01:27
Das Ding ist per se viel zu teuer, von den Marktpreisen abgesehen! UVP 99$, ein paar MHz-chen weniger an Takt und beinahe passiv, da gehört diese Karte hin! Ich denke die OEM-Dinger mit 75W werden interessanter.

Was hat man von einer UVP von 99 Euro? Das würde doch gar nichts ändern?

Die Preise liegen doch ab Day 1 über der (zu hohen) UVP. Von daher verstehe ich nicht, warum man sich über eine UVP aufregt, die eh nur auf dem Papier existiert?

Shink
2022-01-19, 21:08:11
Ich denke die OEM-Dinger mit 75W werden interessanter.
Da die Karte offenbar ein massives Bottleneck hat, bin ich auch der Meinung. In der 6400 könnte der Chip mehr Sinn machen und die OEMs könnten (theoretisch) so klug sein und sie nur in Systeme mit PCIE 4 verbauen.

robbitop
2022-01-19, 21:08:58
Das Ding ist per se viel zu teuer, von den Marktpreisen abgesehen! UVP 99$, ein paar MHz-chen weniger an Takt und beinahe passiv, da gehört diese Karte hin! Ich denke die OEM-Dinger mit 75W werden interessanter.

Man darf nicht vergessen in welchem Marktumfeld wir uns befinden. Da spielt niemand den Heiligen. Der Test einer 4 gb Einstiegskarte mit max Details ist jedenfalls praxisfern.
Speichermangel mit dem PCIe zu kompensieren ist selbst bei 16 lanes nicht sinnvoll da viel langsamer als vram. Details anpassen Problem gelöst

Ggf wird die GPU im Notebook Umfeld besser aufgehoben sein.

maximus_hertus
2022-01-19, 21:10:09
Die 6500XT ist laut Techspot mit PCI 3.0 genauso schnell wie eine 1650. Da mein Mainboard alt ist und es die 1650 ab 260€ gibt, wäre sie für mich die bessere Wahl.
Mit PCI 4.0 sieht die Sache natürlich anders aus



Klar,

1. Mit PCIe 3 verliert die 6500 ordentlich, je nach Spiel / Parcours
2. PCIe 5 ist bald Standard, PCIe 4 nun bald 3 JAhre da. Klar, die mesiten haben ein PCIe 3 System, aber für einen Neukäufer spielt PCIe 3 eher keine Rolle.
3. Im Bestcase ist eine 1650 gleich oder gar leicht vorne (alter Rechner, maximale Details, die man aber eher selten zockt), umgekehrt gibt es mehr fps Potential für die 6500, gerade wenn man sich mittelfristig eine PCIe 4/5 Plattform kauft / aufrüstet. Dann bekommt die GPU direkt einen ordentlichen LEistungsschub. Die 1650 hingegen bleibt wo sie ist.

Mit Medium Details würde der PCIe 3 Verlust wohl deutlich niedriger ausfallen würde ich jetzt vermuten.

Egal ob 1650 oder 6500, das sind keine AAA Gaming-KArten.

iamthebear
2022-01-19, 21:39:39
Man darf nicht vergessen in welchem Marktumfeld wir uns befinden. Da spielt niemand den Heiligen. Der Test einer 4 gb Einstiegskarte mit max Details ist jedenfalls praxisfern.
Speichermangel mit dem PCIe zu kompensieren ist selbst bei 16 lanes nicht sinnvoll da viel langsamer als vram. Details anpassen Problem gelöst

Ggf wird die GPU im Notebook Umfeld besser aufgehoben sein.

Grundsätzlich hast du hier Recht. Allerdings ist die Framerate in vielen der leichtgewichtigeren Spielen ja durchaus ausreichend selbst für höhere Qualitätsstufen.

Das mit dem VRAM lässt sich ohne drastische Erhöhung des Verkaufspreises ja nicht lösen. Beim PCIe Interface verstehe ich das allerdings noch nicht so ganz. Bei 3.0 waren ja selbst x16 bei den Low Cost Karten nie ein Problem.

gedi
2022-01-19, 21:48:26
Da die Karte offenbar ein massives Bottleneck hat, bin ich auch der Meinung. In der 6400 könnte der Chip mehr Sinn machen und die OEMs könnten (theoretisch) so klug sein und sie nur in Systeme mit PCIE 4 verbauen.

Eigentlich ist doch selbst eine 6500xt keine Karte, wo man sich über die Anbindung Sorgen machen müsste, da viel zu langsam. Eigentlich ist es ein sehr gutes Äquivalent zur NV 1030! Mehr isses nicht und ob das Ding sich jetzt 100 oder 75W nimmt-egal.

Die GPU@75W, einen 5600x(!-bestcase), a320-Brett und et voila hast du deinen 499€ PC mit dGPU!

robbitop
2022-01-19, 21:53:52
Tja Interfaces kosten eben Die space (was mit jedem shrink schlimmer wird da ein guter Teil (der Analogteil) so gut wie gar nicht mit den shrinks skaliert - der Rest des Chips schon und je kleiner die GPU Version je größer der relative Anteil an Interfaces desto größer der Anteil den man sinnvoll sparen kann) und waferfläche ist knapp.

VooDoo7mx
2022-01-19, 22:01:58
Also ich will mal eins klar stellen, ich bin kein AMD Fanboy, meine letzte AMD Grafikkarte war eine Radeon 4850. Hießen die da nicht noch ATi? :ugly:

Für mich ist so eine Karte eh nichts, ich kauf nur High End.

Aber ich finde das Kärtchen ganz gut für den 1080p Einstieg.
Ich hab hab mir mal Benchmarks und Gameplay angesehen und die Karte läuft doch echt gut, wenn man nicht über 1080p geht.

God of War High Preset 1080p: über 60fps
Forza Horizon 5 High Preset 1080p: über 100fps
RDR2 Ultra 1080p: 60fps
E-Sports Titel 1080p: je nach Setting 100-200fps

4GiB VRAM reicht auch locker für 1080p und wenn es eben mal einen Titel gibt wo das nicht der Fall ist, stellt man eben die Texturen von Ultra auf High.

Was stimmt mit euch nicht?
Was erwartet ihr denn von einer Einstiegskarte?

Mir kommt es echt so vor als ob hier nur noch irgendwelche Youtube Heinis nachgeblökt werden. Einfach nur noch stupides nachplappern.

Ich kann mich noch an Zeiten erinnern wo es sowas wie ne GeForce 2MX gab wo man aktuelle Titel in 1024x768 in unter 30fps gespielt hat.
Kann sich noch jemand an eine Radeon 9000VE oder Geforce FX5200 erinnern? :ugly:

Man darf auch nicht vergessen das AMD pro TSMC Wafer mehr als doppelt so viele 6500XT als 6600XT Grafikkarten machen kann.
Und gerade auch im Ausland gibt es einen enormen Bedarf an Low End GPUs.

Der Bedarf für solche Grafikkarten ist auch auf jeden Fall da, man sieht ja auch wieder wie schnell die schon wieder weggekauft werden. An Hand von dieser Tatsache sieht man auch, dass die ganzen Hater hier im Forum einfach nur dummes Zeug reden und nicht fähig sind auch nur einen Millimeter über ihren extrem Begrenzten Horizont zu schauen.

So lange wie AMD und Intel auch keine vernünftige IGP anbieten, gibt es immer Bedarf an solchen Einstiegslösungen. 6500XT ist z.B. mindestens 3mal so schnell wie die IGP des Ryzen 5700G.

mczak
2022-01-19, 22:06:43
Beim PCIe Interface verstehe ich das allerdings noch nicht so ganz. Bei 3.0 waren ja selbst x16 bei den Low Cost Karten nie ein Problem.
Das ist so nicht ganz korrekt. Sowohl Polaris 11 wie auch Polaris 12 (und die entsprechenden 20er Varianten) hatten bloss x8 pcie lanes. Polaris 10 hatte natürlich x16, aber das war ja nicht wirklich low cost, auch wenn die Karten da am Ende weniger kosteten als jetzt die RX 6500 XT.
Selbst x4 ist nicht neu, Nvidia's GP108 hatte auch bloss 4 pcie lanes (wurde allerdings kaum je in Reviews erwähnt). Und es gibt weitere Parallelen, der Video Encoder fehlte da auch. Allerdings war gp108 nochmal deutlich kleiner (74mm^2) und die msrp der GT1030 lag bei 80$ (die bandbreitenlosen ddr3 Varianten der gt1030 (war ja auch bloss 64bit Interface) waren noch deutlich billiger zu haben).

y33H@
2022-01-19, 22:23:43
Die GT 1030 hatte VP9, die RX 6500 XT leider kein AV1.

Robot
2022-01-19, 23:00:46
Mhh steinigt mich aber ich find die Karte angesichts der aktuellen Situation gar nicht so doof. Klar das ist nix tolles aber sie sollte ja günstig und damit in besseren Stückzahlen zu fertigen sein. Man wird sehen.

Das der anvisierte Preis von 200 € mal wieder vorne und hinten nicht hin haut, kann man AMD nicht unbedingt anlasten. Das trifft ja auf alle Karten aktuell zu. Es wird einfach alles gekauft, egal was.

Und beim Thema Vergleich mit der RX 580/8G, die oft als die bessere Karte dargestellt wird.
Klar stimmt, aber deswegen geht sie auch bei ebay gebraucht für 350 bis 400 oder mehr Euro weg ohne Garantie/Rechnung und alles. Preise sind gerade sogar etwas runter, die waren auch schon mal bei 500 fast.

Wenn man so eine 6500XT für 200 - 250 bekommen hat ist doch eigentlich im Moment nicht so schlecht.

BlacKi
2022-01-19, 23:10:03
der name 6400xt wäre vl noch passend gewesen. aber der name 6500xt ist halt der tiefschlag. die karte ist average langsamer als die 5500xt. das geht einfach nicht... und mit pcie3.0 ist die karte bei den frametimes 30-40% schlechter als die 5500xt.

dann hat noch amd alte sprüche entfernt mit denen man früher nv ärgern wollte, um jetzt genau das zu machen, wozu man sich vor wenigen jahren über nv lustig gemacht hatte.

beim msrp preis muss ich amd in schutz nehmen. es gibt schlichtweg keinen grund warum man die marge den verkäufern oder scalpern überlassen sollte. 200 ist eigentlich noch zu wenig. aber am geschicktesten wäre es gewesen einfach keinen preis zu nennen um sich da nicht angreifbar zu machen. insofern haben sie es schon irgendwie verkackt.

Platos
2022-01-19, 23:25:47
Also etwa 1060 Leistung 5 Jahre später :D Dazu noch alles Krüppelhaft, was nur sein kann. Speichermangel, PCI-E Flaschenhals...

Linmoum
2022-01-19, 23:31:56
Die Leute zahlen Preise weit jenseits der 300€ für uralte und gebrauchte Polaris-Schinken.

Ich lehne mich mal stark aus dem Fenster und behaupte, dass wenn AMD hier in ein paar Wochen ganz ordentlich würde liefern können (wer weiß bei lächerlichen 107mm2), dann verkaufen die sich an der Karte dumm und dämlich. Und zwar so richtig.

blaidd
2022-01-20, 00:07:55
Mhh steinigt mich aber ich find die Karte angesichts der aktuellen Situation gar nicht so doof. Klar das ist nix tolles aber sie sollte ja günstig und damit in besseren Stückzahlen zu fertigen sein. Man wird sehen.

Das der anvisierte Preis von 200 € mal wieder vorne und hinten nicht hin haut, kann man AMD nicht unbedingt anlasten. Das trifft ja auf alle Karten aktuell zu. Es wird einfach alles gekauft, egal was.

Und beim Thema Vergleich mit der RX 580/8G, die oft als die bessere Karte dargestellt wird.
Klar stimmt, aber deswegen geht sie auch bei ebay gebraucht für 350 bis 400 oder mehr Euro weg ohne Garantie/Rechnung und alles. Preise sind gerade sogar etwas runter, die waren auch schon mal bei 500 fast.

Wenn man so eine 6500XT für 200 - 250 bekommen hat ist doch eigentlich im Moment nicht so schlecht.

Ich hab für Print einige Spiele mit der RX 6500 XT quasi kompromissbereit getestet, also die Einstellungen so angepasst, dass man ganz gut spielen kann. Die Positionierung durch die von AMD geäußerte Leistungskategorie (Full HD, hohe bis mittlere Settings) passt ganz gut. Die meisten (auch aktuellen) Spiele laufen so ordentlich (except Cyperpunk^^). Mit Medium (in manchen Spielen geht auch tendenziell hoch) sind die für die Optik wichtigsten Effekte zumeist aktiv, das Gesamtbild ist in vielen Fällen ganz okay (zumindest, wenn man auch bei der Optik gewissermaßen kompromissbereit da ran geht und keine Wunder erwartet). Aber es ist halt schon ein ziemlicher Kompromiss und der Speicher und dessen Anbindung machen einem recht oft einen Strich durch die Rechnung. Forza Horizon 5 würde z.B. tendenziell sogar mit "hoch" saubere Bildraten über 60 Fps liefern, aber selbst "mittel" reicht nicht aus, um sämtliche speicherbedingte Stocker zu vermeiden (das Spiel bombardiert einen außerdem weiterhin mit Speicherwarnhinweisen). Aber zumindest gibt es keine groben Aussetzer und man kann ganz gut spielen. Das LoD ist ein bisschen crap und mit nur 2x MSAA flimmert's ganz schön, aber im Prinzip sieht das Spiel immer noch ganz eindrücklich aus, die Landschaft und die Interaktion von Licht und Materialien holt viel raus...

Eine ganze Reihe anderer Spiele gehen auch ganz gut - aber eine RX 570/4G, die vor dem ganzen Wahnsinn mal für knapp 130 Euro weggegangen sind, ist eben auch kaum langsamer (und ist jetzt auch nicht massiv versoffener). Die RX 6500 XT in diesem Zusammenhang schmackhaft zu machen, ist nicht gerade leicht - nicht für 209 Euro. Und schon gar nicht für € 340+. Zahlen die ich bisher so gelistet gesehen hab...

Eine Xbox Series S kostet 270 Euro ffs. Die hat eine ähnliche Leistung, 6(!) GiByte mehr GDDR6-Speicher (8 davon können Spiele nutzen, 2 sind für's OS). Da ist noch eine flotte 512 GiByte SSD und ein Controller mit dabei... Und ein Achtkern-Zen-2-Prozessor! 200 Euro für die RX 6500 XT wären unter normalen Umständen schon zuviel (mit 6 GB von mir aus, aber selbst da wäre ich ein bisschen unwillig). 340 Euro sind selbst bei aktueller Marktlage eine Frechheit...

Wenn es wirklich nötig ist, und es die einzige Karte ist, die man zu halbwegs erträglichen Preisen bekommt - ja mei. Dann muss es halt sein. Aber da würde ich ja eher zu einer gebrauchten GTX 1060 oder RX 580/8G raten (mit Bauchschmerzen, das sind schließlich schon Hardware-Greise und wurden seit ihrer fernen Jugend vielleicht schon ordentlich durchgeritten)... Die RX 6500 XT hat mit 4 GiByte und einem Preis von 200+ € wirklich nur eine Existenzberechtigung, weil der Grafikkarten-Markt komplett im Arsch ist.

vinacis_vivids
2022-01-20, 00:22:22
4GB und nur 107mm² - Für AMD absoluter Cashcow, weil sehr sehr günstig und in hoher Stückzahl herzustellen. Dazu noch sehr sparsam.
In diesem Preisbereich von 200-350€ gibs die schnelle Verbreitung auf dem Markt und große Gewinne in diskreten Desktop-GPU Bereich.
Das ist sozusagen Ersatz für die sehr sehr erfolgreiche Polaris uArch.

256bit -> 64bit - das ist fantastisch für die Sparsamkeit und Laufkosten auf längerer Sicht.
Das Board braucht nur 4+1 Phasen Stromversorgung.

Die 6500XT garantiert Marktanteilgewinne im signifikanten Bereich.
Endlich Erntezeit für AMD bei der GPU-Sparte, TOP.

Raff
2022-01-20, 00:23:53
Du bist offenbar Großaktionär - endlich ergeben deine teils verwirrenden Postings auf der Meta-Ebene Sinn. ;)

MfG
Raff

maximus_hertus
2022-01-20, 00:32:27
Die 6500XT garantiert Marktanteilgewinne im signifikanten Bereich.


Wie kommst du auf diese Idee?

Marktanteile interessieren a) aktuell niemanden und b) wird nVidia auch frische Karten auf den Markt werfen.

AMD wird jetzt nicht Millionen von Grafikkarten jeden Monat auf den Markt werfen können.

Signifikant wird gar nichts passieren ;)

Wie auch? AMD wird eher versucht sein, Wafer für CPUs abzuzwacken. Da gibt es deutlich mehr Euro pro Chipfläche ;)

Linmoum
2022-01-20, 00:33:10
Selbst dann ist das immer viel zu rosarot. :D Er schreibt das immer aus purer Überzeugung. Auch wenn mir nicht klar ist, warum man das tun sollte.

Die Karte hier taugt nur was, weil der Markt völlig kaputt ist. In diesem Kontext zu UVP-nahen Preisen ist sie aktuell sogar okay. Aber in einem normalen Marktumfeld würde das Ding unter 150€ gehören. Wobei ich meine Zweifel habe, dass AMD N24 überhaupt als dGPU verwurstet hätte. Wäre wahrscheinlich alles in Notebooks und in OEM-Kisten gewandert.

ryan
2022-01-20, 01:13:56
So schlecht hätte ich das nicht erwartet, die GTX 1650 Super liegt gleichauf.


Mit 6GB statt 4GB wären die 4 PCIe lanes nicht so schwerwiegend gewesen, dazu noch eine intakte Mediaeinheit. Das wäre eine angemessene lowend Karte im Desktop gewesen.

Loeschzwerg
2022-01-20, 07:23:46
Die Codec Geschichte hätte echt nichts an DIE Size gekostet und dann wäre N24 in sämtliche SKUs einfach eine rundere Geschichte (Radeon Pro!!!). Die x4 Anbindung leuchtet mir sogar ein, gerade hinsichtlich Einsatzgebiet im Notebook.
Für eine Desktop Karte hätten der RX 6500 XT einfach 8GB als Option zur Seite gestellt gehört, gerade bei den hohen Taktfrequenzen. Alternativ etwas weniger Takt und ohne extra 6-Pin Anschluss, dann wäre wenigstens die Effizienz nicht ganz kaputt und man hätte einen positiven Punkt zum hervorheben.

Und Gigabyte bringt bei der Karte auch noch ein Triple Fan Design :freak:

sw0rdfish
2022-01-20, 07:50:57
Schon spannend, bei den online Shops wurden tatsächlich 6500XTs verkauft und das nicht zum UVP..
Wenn man sich die Tests dazu anschaut, dann fragt man sich echt... Also dann doch lieber einfach ne PS4 oder so.

robbitop
2022-01-20, 08:34:06
Also etwa 1060 Leistung 5 Jahre später :D Dazu noch alles Krüppelhaft, was nur sein kann. Speichermangel, PCI-E Flaschenhals...
Naja aber 2 Segmente tiefer. Einstiegssegment ist immer langsam wie sonst was. 107 mm² ist weniger als GP107 mit der 1030. Das dauert natürlich bis man mit einer Einsteiger GPU mal eine Midrange GPU holt.

Es ist das Pricing und der Name was verwirrt - weil anscheinend alle als Referenz das Pricing außerhalb der Chipkrise nehmen. 6400 hätte besser gepasst IMO.

Was das Ding aber aus 107 mm², 64 bit Speicherinterface und nur 1024 ALUs herausholt ist nicht ungewöhnlich sondern eher erstaunlich.

Corny
2022-01-20, 08:40:09
Tja Interfaces kosten eben Die space (was mit jedem shrink schlimmer wird da ein guter Teil (der Analogteil) so gut wie gar nicht mit den shrinks skaliert - der Rest des Chips schon und je kleiner die GPU Version je größer der relative Anteil an Interfaces desto größer der Anteil den man sinnvoll sparen kann) und waferfläche ist knapp.


Ich hab eine alte Radeon R5 230 herumfliegen, Caicos-Chip, mit 67mm² bei 40nm wesentlich kleiner als der Chip der RX 6500XT. Die Karte hat aber dennoch 16x PCIe2 und drei Displayausgänge.

Die Begründung mit der Chipfläche will daher nicht so recht in meinen Kopf.

YeahBuoy!
2022-01-20, 08:40:21
@Gedi: Ich würde die 1030 nicht als Vergleich heranziehen wollen. Die hat mMn eher die Aufgabe olle Office Kisten aufzurüsten damit man damit noch einen zweiten Bildschirm anstöpseln oder Youtube gucken kann. Die habe ich für die Kollegin in der Anmeldung für 85 € neu als passiv Modell gekauft.

Zur Karte; Das Äquivalent zum mit Sägemehl gestrecktem Brot in der großen GPU Depression. Die UVP finde ich abenteuerlich (130 € hätte ich in der aktuellen Marktlage und für die beschnittenen Features als ok erachtet), was die Händler draus machen lohnt die Diskussion nicht, da vollkommen von unserem Realitätszweig entkoppelt.

robbitop
2022-01-20, 08:46:10
Ich hab eine alte Radeon R5 230 herumfliegen, Caicos-Chip, mit 67mm² bei 40nm wesentlich kleiner als der Chip der RX 6500XT. Die Karte hat aber dennoch 16x PCIe2 und drei Displayausgänge.

Die Begründung mit der Chipfläche will daher nicht so recht in meinen Kopf.
1. das war PCIe 2.0. Navi24 hat PCIe 4.0 - bei 2.0 sind die Interfaces deutlich inkomplexer
2. Ob 40 nm oder 7 nm die Interfaces selbst schrumpfen kaum weil Analoglogik eben kaum schrumpft. Logiktransistoren (CUs, Rasterizer, ROPs) sind um Faktor 10 hingegen geschrumpft. Das heißt die Oportunität pro mm² Chip wird immer krasser. Insbesondere wenn man bedenkt, dass ein 7 nm Wafer inflationsnormiert sicherlich um sehr sehr viel teurer ist als es ein 40 nm Wafer damals war (auch außerhalb der Chipkrise - die wir ja heute nunmal haben).

@Gedi: Ich würde die 1030 nicht als Vergleich heranziehen wollen. Die hat mMn eher die Aufgabe olle Office Kisten aufzurüsten damit man damit noch einen zweiten Bildschirm anstöpseln oder Youtube gucken kann. Die habe ich für die Kollegin in der Anmeldung für 85 € neu als passiv Modell gekauft.

Zur Karte; Das Äquivalent zum mit Sägemehl gestrecktem Brot in der großen GPU Depression. Die UVP finde ich abenteuerlich (130 € hätte ich in der aktuellen Marktlage und für die beschnittenen Features als ok erachtet), was die Händler draus machen lohnt die Diskussion nicht, da vollkommen von unserem Realitätszweig entkoppelt.
Aber den Vergleich müsste man auf technischer Ebene schon ziehen. Die Die Size ist sogar noch kleiner bei Navi 24 und die Interfacebreite ist gleich. Das sind zumindest technische Limitierungen zur Einordnung in die jeweilige Klasse. Der Name und der Preis passen (wenn man außerhalb der Chipkrise denkt) nicht zum gelieferten. Dank der Nachfrage der Chipkrise kann man solche Produkte nun (wie alle anderen) deutlich teurer verkaufen.

DrFreaK666
2022-01-20, 08:49:32
K...
Egal ob 1650 oder 6500, das sind keine AAA Gaming-KArten.

Natürlich nicht. Niemand kauft eine günstige Grafikkarte mit der Erwartung in 4k mit maximalen Details zu spielen.
Die Karte hätte man mit alten Grafikkarten testen sollen, nicht nur mit topaktuellen bis hinauf zur 3090 :ugly:

Und wenn jemand eine solche Grafikkarte kauft, dann weil nicht in Geld schwimmt.
Mittelfristig wird der PC sicherlich nicht aufgerüstet.

Was die aktuellen Preise angeht: eine 1660 mit 6GB für 60€ mehr ist deutlich sinnvoller, aber auch zu teuer.

Der ganze Grafikkarten-Markt ist kaputt

robbitop
2022-01-20, 08:50:44
Für 1080p medium Details ist es brauchbar sicherlich. Ist halt eine Einsteigerkarte.

Corny
2022-01-20, 08:54:27
1. das war PCIe 2.0. Navi24 hat PCIe 4.0 - bei 2.0 sind die Interfaces deutlich inkomplexer
2. Ob 40 nm oder 7 nm die Interfaces selbst schrumpfen kaum weil Analoglogik eben kaum schrumpft. Logiktransistoren (CUs, Rasterizer, ROPs) sind um Faktor 10 hingegen geschrumpft. Das heißt die Oportunität pro mm² Chip wird immer krasser. Insbesondere wenn man bedenkt, dass ein 7 nm Wafer inflationsnormiert sicherlich um sehr sehr viel teurer ist als es ein 40 nm Wafer damals war (auch außerhalb der Chipkrise - die wir ja heute nunmal haben).


Okay, das ergibt Sinn. Vor allem die kaum schrumpfende Analoglogik.
Dachte, was vor 10 Jahren ging muss doch heute auch möglich sein, vor allem wenn man von 40nm auf 7nm geht.

Tarkin
2022-01-20, 08:59:58
Boah ich kriegs Kotzen. Das Gemeckere und MIMIMI von Leuten, die sich sowieso NIE im Leben so eine Karte kaufen würden, finde ich krank.

Es gibt kein schlechtes Produkt, nur schlechte Preise. Und der Preis wird genau DA festgemacht, was der Markt aktuell hergibt. Und Unternehmen sind keine Wohltätigkeitsvereine. ... da hilft das ganze Gejammere nicht. Wärs bessere gewesen, AMD hätte den MSRP auf 149 oder 99 USD festgemacht? PFFFT. Das hätte genau NULL gebracht. Die Karten würde so oder so für 300+ verkauft werden, da vergleichbare nVidia Produkte teilweise NOCH TEURER sind. SUPRISE!

Und irgendwelche Karten von 2013 mit heute zu vergleichen (Radeon 7X irgendwas hatte für 79 USD Video Encoding) - LOOL und? Ich game seit 25 Jahren und habe diese Feature noch KEIN EINZIGES MAL benutzt. Und ich bin mir ziemlich sicher 90% aller anderen auch nicht. Als ob das plötzlich das wichtigste Feature wäre... vor allem in der Performance Klasse ROFL!

Und Steve von HWUB (sowie gewisse andere Youtuber) ist/sind sowieso die größte Dramaqueen(s) von allen. Drama bringt halt Klicks/Aufrufzahlen... ein Schelm wer Böses dabei denkt. Aufrufzahlen und Werbeeinnahmen sind bei vielen Tech-Kanälen stark eingebrochen in 2021… da kommt das „Drama“ um die 6500 XT gerade recht. Kann man wieder bissl Aufmerksamkeit generieren. UH.. Alarm, Alarm… AMD BÖSE, die Welt geht unter.

Ich hab News für Steve…, wir leben nicht mehr in 2013, sondern in 2022. Wir haben MEGAinflation ÜBERALL und die Frachtkosten sind um Größenordnungen höher als vor 10 Jahren. Zusätzlich haben wir Chip Shortage UND Crypto-Mining... das alles gabs 2013 in diesem Ausmaß nicht. Die Leute blättern auch 3000,- für High End Karten hin.. warun sollte dann eine low end karte für 300 plötzlich ein Problem sein???

Ein Sturm im Wasserglas… unglaublich. Aber wie bei allen Shit-Storms… wird in ein paar Tagen vergessen sein und die nächste Sau wird durchs Dorf getrieben.

Aber AMD hat natürlich auch selbst dazu beigetragen die Entrüstung zu verstärken. AMD Marketing ... auch nichts neues. Da gehört definitiv mal wieder ein paar Leuten ein fester Arschtritt.

robbitop
2022-01-20, 09:04:12
Ich fand es ein wenig albern, dass wirklich gefühlt jeder Test mit maximalen Details war - was wirklich praxisfremd für eine Einstiegskarte ist. Und die Thumbnails und Titel dazu alle - wirklich albern.
Aus Sicht einer Midrange GPU ist eine Einstiegs GPU natürlich eher schlecht. Aber wenn man sie als solche bewertet, die sie ist, fällt sie jetzt nicht so extrem aus dem Rahmen.

Die genannten Schwächen sind schon da (gerade PCIe 4.0 und 4 GB fallen aber massiv weniger in's Gewicht wenn man mit praxisnahen Einstellungen testet) und das kann man auch kritisieren und wahrscheinlich hat AMD die Einordnung nicht ganz ideal gemacht - 6400 hätte besser gepasst.

nagus
2022-01-20, 09:05:27
exakt. Außerdem ist vor ein paar Jahren eine mega Cryptoblase geplatz und hat die Preise somit zusätzlich auch auf Tahlfahrt geschickt. Die Preise von vor 5 Jahren und jetzt zu vergleichen ist ziemlich idiotisch. Äpfel mit Birnen Vergleich

Corny
2022-01-20, 09:06:42
Es wäre ja eine schöne Karte für eine Workstation mit dicker CPU ohne iGPU für jemanden der keine 3D-Leistung benötigt. Da hätten halt drei Displayausgänge gut getan.

r3ptil3
2022-01-20, 09:11:41
Preis, Chipmangel, wie getestet wurde... spielt alles keine Rolle.


Fakt ist, AMD bringt nach Jahren einen Nachfolger für die RX 5500 XT, welcher jedoch langsamer ist und teilweise sogar massiv. Das geht nicht, Punkt.

Tarkin
2022-01-20, 09:19:01
Preis, Chipmangel, wie getestet wurde... spielt alles keine Rolle.


Fakt ist, AMD bringt nach Jahren einen Nachfolger für die RX 5500 XT, welcher jedoch langsamer ist und teilweise sogar massiv. Das geht nicht, Punkt.

doch das geht, weils der Markt hergibt. Alles andere wäre naiv zu glauben.

RX 5500 XT kam VOR der Pandemie, vor Inflation, vor Mining-Boom vor all dem ganzen Shice.

robbitop
2022-01-20, 09:20:36
Wie gesagt: unschlau von AMD Navi 24 den Namen 6500 XT zu geben. Die Vermarktung wird der Karte nicht gerecht. Und das kann man auch kritisieren. 6400 wäre wohl angebrachter.
Chipfläche und CU Anzahl sind deutlich geringer als bei der 5500 XT. Das sind IMO zwei verschiedene Klassen.

Loeschzwerg
2022-01-20, 09:20:54
@bardh: Womit wir wieder beim Namen wären ;)

6400 hätte besser gepasst.

Stimmt schon, halbwegs stimmig wäre die SKU (völlig unabhängig vom Preis) aber auch dann nur mit geringerer TBP.
Boardpartner hätten meinetwegen gerne ihre OC Modelle bringen können, aber das reguläre Modell gehört auf ~75W beschränkt.

RX6400 -> TBP ~53W
RX6400 XT -> TBP ~75W
RX6500 XT -> mit 8GB und TBP bis ~120W

So hätte ich mir das vorstellen können.

Shink
2022-01-20, 09:23:25
Also etwa 1060 Leistung 5 Jahre später :D Dazu noch alles Krüppelhaft, was nur sein kann. Speichermangel, PCI-E Flaschenhals...
Ist doch normal bei einem Wechsel von Mittelklasse auf Einsteiger.
5 Jahre alte Handy-Prozessoren ala Snapdragon 8* sind teilweise auch schneller wie manche neue Snapdron 7*

Und wenn jemand eine solche Grafikkarte kauft, dann weil nicht in Geld schwimmt.
Oder Platz oder Strom.

Schon spannend, bei den online Shops wurden tatsächlich 6500XTs verkauft und das nicht zum UVP..
Wenn man sich die Tests dazu anschaut, dann fragt man sich echt... Also dann doch lieber einfach ne PS4 oder so.
Ich kann nur von mir sprechen. Seit Homeschooling steht jetzt bei jedem meiner Teenager ein PC im Zimmer. Ein bisschen Grafikleistung für eine D2R oder AOE4-Session gemeinsam wär schon nett.
Zur UVP hätte ich die 6500XT gekauft.

Tarkin
2022-01-20, 09:29:44
Wie gesagt: unschlau von AMD Navi 24 den Namen 6500 XT zu geben. Die Vermarktung wird der Karte nicht gerecht. Und das kann man auch kritisieren. 6400 wäre wohl angebrachter.
Chipfläche und CU Anzahl sind deutlich geringer als bei der 5500 XT. Das sind IMO zwei verschiedene Klassen.

jup, da bin ich deiner Meinung. Hätte AMD einiges an Zirkus erspart ... vielleicht :wink:

Legendenkiller
2022-01-20, 09:31:33
Boah ich kriegs Kotzen. Das Gemeckere und MIMIMI von Leuten, die sich sowieso NIE im Leben so eine Karte kaufen würden, finde ich krank.

Es gibt kein schlechtes Produkt, nur schlechte Preise. Und der Preis wird genau DA festgemacht, was der Markt aktuell hergibt. Und Unternehmen sind keine Wohltätigkeitsvereine. ... da hilft das ganze Gejammere nicht. Wärs bessere gewesen, AMD hätte den MSRP auf 149 oder 99 USD festgemacht? PFFFT. Das hätte genau NULL gebracht. Die Karten würde so oder so für 300+ verkauft werden, da vergleichbare nVidia Produkte teilweise NOCH TEURER sind. SUPRISE!

Und irgendwelche Karten von 2013 mit heute zu vergleichen (Radeon 7X irgendwas hatte für 79 USD Video Encoding) - LOOL und? Ich game seit 25 Jahren und habe diese Feature noch KEIN EINZIGES MAL benutzt. Und ich bin mir ziemlich sicher 90% aller anderen auch nicht. Als ob das plötzlich das wichtigste Feature wäre... vor allem in der Performance Klasse ROFL!

Und Steve von HWUB (sowie gewisse andere Youtuber) ist/sind sowieso die größte Dramaqueen(s) von allen. Drama bringt halt Klicks/Aufrufzahlen... ein Schelm wer Böses dabei denkt. Aufrufzahlen und Werbeeinnahmen sind bei vielen Tech-Kanälen stark eingebrochen in 2021… da kommt das „Drama“ um die 6500 XT gerade recht. Kann man wieder bissl Aufmerksamkeit generieren. UH.. Alarm, Alarm… AMD BÖSE, die Welt geht unter.

Ich hab News für Steve…, wir leben nicht mehr in 2013, sondern in 2022. Wir haben MEGAinflation ÜBERALL und die Frachtkosten sind um Größenordnungen höher als vor 10 Jahren. Zusätzlich haben wir Chip Shortage UND Crypto-Mining... das alles gabs 2013 in diesem Ausmaß nicht. Die Leute blättern auch 3000,- für High End Karten hin.. warun sollte dann eine low end karte für 300 plötzlich ein Problem sein???

Ein Sturm im Wasserglas… unglaublich. Aber wie bei allen Shit-Storms… wird in ein paar Tagen vergessen sein und die nächste Sau wird durchs Dorf getrieben.

Aber AMD hat natürlich auch selbst dazu beigetragen die Entrüstung zu verstärken. AMD Marketing ... auch nichts neues. Da gehört definitiv mal wieder ein paar Leuten ein fester Arschtritt.

++

PS: "don't blame the seller, blame the buyer"

fondness
2022-01-20, 09:40:25
Wie gesagt: unschlau von AMD Navi 24 den Namen 6500 XT zu geben. Die Vermarktung wird der Karte nicht gerecht. Und das kann man auch kritisieren. 6400 wäre wohl angebrachter.
Chipfläche und CU Anzahl sind deutlich geringer als bei der 5500 XT. Das sind IMO zwei verschiedene Klassen.

Eine 6400 gibts eh auch mit dem selben Chip. Low-profile & mit nur 53W TDP:
https://www.amd.com/de/products/graphics/amd-radeon-rx-6400

Troyan
2022-01-20, 09:52:19
Es gibt kein schlechtes Produkt, nur schlechte Preise.

https://tpucdn.com/review/asus-radeon-rx-6500-xt-tuf-gaming/images/f1-2021-rt-1920-1080.png

https://tpucdn.com/review/asus-radeon-rx-6500-xt-tuf-gaming/images/doom-eternal-rt-1920-1080.png
https://www.techpowerup.com/review/asus-radeon-rx-6500-xt-tuf-gaming/33.html

Doch, es gibt schlechte Produkte. Die 6500XT ist sogar der Beweis, dass es richtig grottige Produkte gibt. Aber lass mich raten: Du hattest bestimmt auch eine FX5200 gehabt, stimmts? ;D

Raff
2022-01-20, 10:08:52
Eine 6400 gibts eh auch mit dem selben Chip. Low-profile & mit nur 53W TDP:
https://www.amd.com/de/products/graphics/amd-radeon-rx-6400

Netzteil-Empfehlung: 350 Watt ;D :up:

Da kommen Erinnerungen an meinen ersten PC hoch. Wirkt heutzutage wie aus der Zeit gefallen. 350 Watt ... also das, was eine einzelne GA102-Grafikkarte benötigt (Spikes ausgenommen). :ulol:

Du hattest bestimmt auch eine FX5200 gehabt, stimmts? ;D

Das war ein ganz fantastisches Produkt. Es trug erheblich zur Verbreitung des Shader Model 2.0 bei. Sicher, nutzbar war das auf einer intrinsisch und extern verkrüppelten FX 5200 nie, aber Wegbereiter und so. Diesen Job kann Navi 24 sicher auch machen. Man wird sehen, wie erfolgreich. ;)

MfG
Raff

fondness
2022-01-20, 10:21:11
https://tpucdn.com/review/asus-radeon-rx-6500-xt-tuf-gaming/images/f1-2021-rt-1920-1080.png

https://tpucdn.com/review/asus-radeon-rx-6500-xt-tuf-gaming/images/doom-eternal-rt-1920-1080.png
https://www.techpowerup.com/review/asus-radeon-rx-6500-xt-tuf-gaming/33.html

Doch, es gibt schlechte Produkte. Die 6500XT ist sogar der Beweis, dass es richtig grottige Produkte gibt. Aber lass mich raten: Du hattest bestimmt auch eine FX5200 gehabt, stimmts? ;D

Das mit RayTracing der VRAM ausgeht ist wohl das geringste Problem. Zumal die Konkurrenz in der Klasse nicht mal Raytracing kann.

BlacKi
2022-01-20, 10:26:22
Ich fand es ein wenig albern, dass wirklich gefühlt jeder Test mit maximalen Details war - was wirklich praxisfremd für eine Einstiegskarte ist. Und die Thumbnails und Titel dazu alle - wirklich albern.
Aus Sicht einer Midrange GPU ist eine Einstiegs GPU natürlich eher schlecht. Aber wenn man sie als solche bewertet, die sie ist, fällt sie jetzt nicht so extrem aus dem Rahmen.

Die genannten Schwächen sind schon da (gerade PCIe 4.0 und 4 GB fallen aber massiv weniger in's Gewicht wenn man mit praxisnahen Einstellungen testet) und das kann man auch kritisieren und wahrscheinlich hat AMD die Einordnung nicht ganz ideal gemacht - 6400 hätte besser gepasst.
naja, hwub hat schon mit medium aber mit max texturen getestet. machen die regelmäßig. sagen eben auch gleich, das die texturen mit 8gb keine leistung kosten würden. gleichzeitig hat der vorgänger ja auch nur 4gb, aber eine andere pcie anbindung. weils ein chip ist, der eben eigentlich eine klasse tiefer gehört. und das hat damit nichtmal was mit einem chipmangel zu tun.

der punkt ist hier einfach der: jemand der eine 5500xt hat, verkauft seine karte an einen kumpel für 100€ und kauft das mutmaßlich schnellere modell 6500xt für 200€ und wird tief enttäuscht.

du darfst den kunden nicht so hart verarschen. selbst nv macht so ne scheiße nicht.

Troyan
2022-01-20, 10:34:40
Das mit RayTracing der VRAM ausgeht ist wohl das geringste Problem. Zumal die Konkurrenz in der Klasse nicht mal Raytracing kann.

Das die Karte trotz genug Rohleistung selbst in der Minimalauflösung unspielbar oder sogar unnutzbar ist, würde die 4GB zum geringsten Problem machen...

Eine 6600 kostet aktuell 540€ und ist in 1080p nutzbar. Der Unterschied zwischen "Absturz" und "60FPS" ist die 200€ Aufpreis wert.

y33H@
2022-01-20, 10:35:24
Ich fand es ein wenig albern, dass wirklich gefühlt jeder Test mit maximalen Details war - was wirklich praxisfremd für eine Einstiegskarte ist. Ich habe ganz bewusst den Parcours mit mittleren/hohen Details neu angelegt und dann noch Ultra nachgeschoben - mit den zu erwartenden Resultaten:

https://scr3.golem.de/screenshots/2201/RX-6500-XT-Benches/thumb620/04-god-of-war,-lake-of-light-(1080p,-original-preset,-d3d11)-chart.png

https://scr3.golem.de/screenshots/2201/RX-6500-XT-Benches-PCIe-v2/thumb620/02-god-of-war,-lake-of-light-(1080p,-high-preset,-ultra-textures,-d3d11)-chart.png

jemand der eine 5500xt hat, verkauft seine karte an einen kumpel für 100€ und kauft das mutmaßlich schnellere modell 6500xt für 200€ und wird tief enttäuscht.Pro-Tipp: vorher Google nutzen, my 2 cents.

fondness
2022-01-20, 10:36:28
Das die Karte trotz genug Rohleistung selbst in der Minimalauflösung unspielbar oder sogar unnutzbar ist, würde die 4GB zum geringsten Problem machen...

Eine 6600 kostet aktuell 540€ und ist in 1080p nutzbar. Der Unterschied zwischen "Absturz" und "60FPS" ist die 200€ Aufpreis wert.

Du tust so, als ob man ohne Raytracing nicht spielen könnte.

Lyka
2022-01-20, 10:37:59
Ich frage mich, welche RT Spiele man denn mit der 6500 spielen kann. Also mit einer Auflösung von mehr als 720 :O Das ist wie ein Trabant mit zuschaltbarem Allradantrieb. Schafft 40km/h. Immerhin.

BlacKi
2022-01-20, 10:40:24
Pro-Tipp: vorher Google nutzen, my 2 cents.

musst du nicht mir sagen, sondern denen die im mediamarkt grafikkarten einkaufen^^

Raff
2022-01-20, 10:40:44
Ich frage mich, welche RT Spiele man denn mit der 6500 spielen kann. Also mit einer Auflösung von mehr als 720 :O Das ist wie ein Trabant mit zuschaltbarem Allradantrieb. Schafft 40km/h. Immerhin.

Alles, was billige Schatten hat. WoW beispielsweise, evtl. auch Dörte 5.

MfG
Raff

aceCrasher
2022-01-20, 10:44:08
Ich empfinde die Reaktionen auf die 6500XT hier ehrlich gesagt als etwas unangebracht. Ist die Karte im Vergleich zu vergangenen Produkten lächerlich überteuert? Natürlich. Aber was bringt mir das wenn man diese alten Produkte nicht mehr zu diesen Preisen kaufbar sind? Diese Zeit ist nunmal vorbei.

Ich weigere mich doch auch nich heutzutage zu tanken nur weil der Sprit mal <1€/Liter gekostet hat. :confused:

Wenn man wie 95% dieses Forums bereits mit älteren und trotzdem schnelleren Karten eingedeckt ist, erscheint die 6500XT selbstverständlich absurd. Aber der PC Markt besteht nicht nur aus Enthusiastenforen.

Diese Karte hat einen berechtigten Markt, und zwar Leute die JETZT eine Grafikkarte zum PC spielen wollen, kein Geld für eine teurere Karte haben und auch keine gute bestehende Karte.

Ich hab hier gestern meinen Kollegen erwähnt der sich um 15:00 für 280€ eine 6500XT gekauft hat. Denkt ihr ernsthaft den interessiert dass die Karte keinen Encoder hat? Was bitte er will er damit? Nicht jeder streamt oder ist Youtuber, auch wenn das gerne mal so dargestellt wird von den Herstellern. Der Junge weiß auch nicht was zur Hölle AV1 ist, und es könnte ihn auch nicht weniger interessieren.

Er will einfach nur JETZT mit mir auf seinem neuen 1080p 144Hz Monitor Valorant, LoL, CS GO und ähnliche Spiele spielen und ab und zu mal nebenbei RDR2 in 1080p Medium oder Crusader Kings 3 in 1080p high - diese Spiele schafft die 6500XT mit >60fps in den genannten Settings. Die eSports Spiele selbstverständlich mit locked 144Hz.

Denkt ihr wirklich er findet gar nicht spielen geiler als die Texturen auf Medium zu reduzieren? Was soll er mit einer Xbox Series S wenn er am PC mit Maus und Tastatur spielen will??

sw0rdfish
2022-01-20, 10:47:04
der punkt ist hier einfach der: jemand der eine 5500xt hat, verkauft seine karte an einen kumpel für 100€ und kauft das mutmaßlich schnellere modell 6500xt für 200€ und wird tief enttäuscht.

du darfst den kunden nicht so hart verarschen. selbst nv macht so ne scheiße nicht.

Naja, ein bisschen muss man sich schon selber informieren. :freak: Aber immerhin kann deine Geschichte so nicht klappen, weil man die 6500XT nicht für 200€ kaufen kann. ;D

Ich kann nur von mir sprechen. Seit Homeschooling steht jetzt bei jedem meiner Teenager ein PC im Zimmer. Ein bisschen Grafikleistung für eine D2R oder AOE4-Session gemeinsam wär schon nett.
Zur UVP hätte ich die 6500XT gekauft.
Hier: https://www.youtube.com/watch?v=f76qQFjjHQ0&ab_channel=LinusTechTips
Falls du ne potente GPUs hast bzw. ihr wenigstens eine habt...

BlacKi
2022-01-20, 10:49:50
Naja, ein bisschen muss man sich schon selber informieren. :freak: Aber immerhin kann deine Geschichte so nicht klappen, weil man die 6500XT nicht für 200€ kaufen kann. ;D

musste man vorher eigentlich nicht. thanks amd.

y33H@
2022-01-20, 10:57:54
Ich frage mich, welche RT Spiele man denn mit der 6500 spielen kann.Sowas wie Dirt 5, Riftbreaker und WoW tut ganz gut ... aber halt klar die Ausnahmen.

Raff
2022-01-20, 11:21:40
Stimmt, der Rissbrecher sollte auch flutschig laufen. Das lässt sich sogar mit Software-Tracing auf einer GTX 1060/6G ertragen (zur Not mit FSR). :D

MfG
Raff

Aroas
2022-01-20, 11:42:59
Zu aktuellen Preisen ab 350€ ist diese Karte eine absolute Frechheit!
Was denkt sich AMD dabei, sowas heute noch zu veröffentlichen und mit 199$ UVP zu versehen?

Wenn die Preislage normal wäre, wäre wohl kaum jemand bereit, für diesen Krüppel auch nur 100€ zu zahlen.

maximus_hertus
2022-01-20, 11:48:30
Zu aktuellen Preisen ab 350€ ist diese Karte eine absolute Frechheit!
Was denkt sich AMD dabei, sowas heute noch zu veröffentlichen und mit 199$ UVP zu versehen?

Wenn die Preislage normal wäre, wäre wohl kaum jemand bereit, für diesen Krüppel auch nur 100€ zu zahlen.

Also sollten AMD und nV gar keine Grafikkarten mehr ausliefern, da diese preislich nicht zu UVP Preisen lieferbar sind?

Loeschzwerg
2022-01-20, 11:53:01
Diese Karte hat einen berechtigten Markt, und zwar Leute die JETZT eine Grafikkarte zum PC spielen wollen, kein Geld für eine teurere Karte haben und auch keine gute bestehende Karte.

Ich hab hier gestern meinen Kollegen erwähnt der sich um 15:00 für 280€ eine 6500XT gekauft hat. Denkt ihr ernsthaft den interessiert dass die Karte keinen Encoder hat? Was bitte er will er damit? Nicht jeder streamt oder ist Youtuber, auch wenn das gerne mal so dargestellt wird von den Herstellern. Der Junge weiß auch nicht was zur Hölle AV1 ist, und es könnte ihn auch nicht weniger interessieren.

Er will einfach nur JETZT mit mir auf seinem neuen 1080p 144Hz Monitor Valorant, LoL, CS GO und ähnliche Spiele spielen und ab und zu mal nebenbei RDR2 in 1080p Medium oder Crusader Kings 3 in 1080p high - diese Spiele schafft die 6500XT mit >60fps in den genannten Settings. Die eSports Spiele selbstverständlich mit locked 144Hz.


Für 280€ ist das sogar nicht halbwegs vertretbar, wenn man nicht gebraucht kaufen möchte.
Alternativ kann man auch einen Blick auf Quadro T400 (2GB; neu ~125€) oder T600 (4GB; neu ~230€) werfen, die reichen für ESport auch und bieten Encoder für Streaming (falls es das braucht).

Linmoum
2022-01-20, 12:07:20
Zu aktuellen Preisen ab 350€ ist diese Karte eine absolute Frechheit!
Was denkt sich AMD dabei, sowas heute noch zu veröffentlichen und mit 199$ UVP zu versehen?

Wenn die Preislage normal wäre, wäre wohl kaum jemand bereit, für diesen Krüppel auch nur 100€ zu zahlen.Sie ist aber nicht normal. Deal with it. Und dafür können NV und AMD rein gar nichts, dass die Händler Mondpreise verlangen und die Leute absurde Preise bereit sind zu zahlen. Selbst für gebrauchte GPUs.

Gebrechlichkeit
2022-01-20, 12:11:29
AMD Removes ‘4GB VRAM is not enough for games’ Marketing Hours Before Radeon RX 6500 XT 4 GB Launch
AMD once claimed that 4 GB VRAM was not enough for gamers to tackle NVIDIA's entry-level lineup but they are backing up from that marketing statement hours before the Radeon RX 6500 XT hits retail shelves.


https://wccftech.com/amd-removes-4gb-vram-is-not-enough-for-games-marketing-hours-before-radeon-rx-6500-xt-4-gb-launch/

Rancor
2022-01-20, 12:17:33
Wieviel % schneller als eine GTX 960 ist die Karte? :D

DrFreaK666
2022-01-20, 12:25:19
Ungefähr doppelt so schnell.
https://www.gpucheck.com/de-eur/compare/nvidia-geforce-gtx-960-vs-nvidia-geforce-gtx-1650-super/intel-core-i7-4790k-4-00ghz-vs-intel-core-i7-8700k-3-70ghz/

6500XT (PCI 4.0) in etwa auf 1650 Super Niveau

Raff
2022-01-20, 12:26:16
Wenn die GTX 960 nur 2 GiB hat, ist die 6500 XT sogar eine ganze Dimension schneller.

AMD Removes ‘4GB VRAM is not enough for games’ Marketing Hours Before Radeon RX 6500 XT 4 GB Launch

https://wccftech.com/amd-removes-4gb-vram-is-not-enough-for-games-marketing-hours-before-radeon-rx-6500-xt-4-gb-launch/

Das ist nicht mehr ganz aktuell: Radeon RX 6500 XT und die Aussage "4GB VRAM is not enough for games" in 3 Akten (https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/News/und-die-Aussage-4GB-VRAM-is-not-enough-for-games-1387548/) :D

MfG
Raff

Pirx
2022-01-20, 13:02:06
und die Karte kann definitiv "nur" PCIe 4.0?

nVIDIA
2022-01-20, 13:02:30
Gibt es irgendwo vergleiche zwischen 6500XT und aktuellen Onboard Grafik Lösungen von AMD? Das würde mich interessieren wie viel Unterschied dazwischen ist. Gibt es einen Test wo SAM aktiv ist? Würde das etwas mehr Performance aus der noch raus kitzeln? Erstanulich, meine RX 580 4GB in meinem Laptop ist genauso schnell wie eine 6500XT!

WedgeAntilles
2022-01-20, 13:07:41
Das ist nicht mehr ganz aktuell: Radeon RX 6500 XT und die Aussage "4GB VRAM is not enough for games" in 3 Akten (https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/News/und-die-Aussage-4GB-VRAM-is-not-enough-for-games-1387548/) :D

MfG
Raff

Nette Zusammenfassung, danke :)

basix
2022-01-20, 13:19:09
Hatten wir das schon?
https://www.techpowerup.com/review/amd-radeon-rx-6500-xt-pci-express-scaling/

PCIe 2.0 Ergebnisse included ;) Wäre allenfalls auch was für den Startpost, für alle mit älteren Systemen à la Sandy Bridge und Co.

Damit wissen wir auch implizit, was für einen PCIe 2.0 Nutzer eine gute Karte ist:
- PCIe x16
- 6-8 GByte Speicher

4 GByte ist nur knapp brauchbar mit PCIe 2.0. Damit wäre etwas im Format einer gebrauchten GTX1060 oder RX 570 deutlich geeigneter.

Edit:
Ich habe mir gerade gedacht, dass AMD den ganzen Launch mit einer einzigen und simplen Massnahme deutlich besser hätte gestalten können: Eine 8GByte Version der 6500XT für ~229$ zu bringen. Das hätte die ärgsten Probleme hinsichtlich PCIe gelöst und User mit PCIe 3.0 hätten dann eine entsprechend brauchbare Option gehabt. Und PCIe 4.0 Nutzer hätten dann selbst entscheiden können, ob lieber 4GByte und günstiger oder dann doch lieber die 8GByte Version.

Besser wäre natürlich zusätzlich HW-En-/Decoding, AV1, PCIe x8 sowie 96bit Speicherinterface gewesen (Chip dann ~130mm2 gross) aber ja...
Gegenspieler ist der immer noch sehr grosse GA106 in der RTX 3050, der ist mit 276mm2 viel grösser. Selbst GA107 wird vermutlich >200mm2 gross sein.

][immy
2022-01-20, 13:59:40
Gibt es eigentlich irgendeine Begründung für das 4x PCIe Interface? Immerhin ist es ja als 16x physisch ausgeführt.
Wenn die Karte nun wenigstens beim physischen interface ebenfalls gekürzt wäre, würde ich das ja noch verstehen.

Oder hat der chip (dank Mobiler Abstammung) einfach nicht mehr Leitungen nach außen?
Dann hätte allerdings ein PCIe chip der daraus ein PCIe 8x Gen3 interface gemacht hätte gut getan. Bei dem Preis wäre das sicherlich auch möglich gewesen. Dann würde man zumindest nicht so extrem verlieren wenn man auf ein <=B470 Board stößt bzw. ein entsprechendes Intel board mit nur <PCIe 4.0.

Beschnitten ist die Karte ja schon durch das Speicherinterface, da ergibt dieser künstliche Beschränkung doch echt keinen Sinn mehr.

Das man es aber nicht mal schafft am RX470/RX570 eindeutig vorbei zu kommen .... bei dem Chip ... ist mir echt ein Rätsel, wie AMD hier so eine schlechte Leistung abliefern konnte. Sogar die maximale TDP liegt ja auf höhe der RX470/570.
So wie die Leistung aktuell aussieht, wäre das maximal was für den <100€ Bereich gewesen, wenn es da nicht die allgemeine GPU Knappheit gäbe.

ryan
2022-01-20, 14:17:16
Die GIGABYTE RX 6500 XT Gaming OC ist aktuell noch verfügbar für 364€ :freak:

Leonidas
2022-01-20, 14:36:37
https://twitter.com/3DCenter_org/status/1484146189054341124
https://pbs.twimg.com/media/FJi8GnDacAAiRSy?format=png

Gebrechlichkeit
2022-01-20, 14:57:53
Ist doch voll normal.
$200 fuer die, die noch mit gen3 unterwegs sind, und €400 fuer die gen4 ...

/$

aufkrawall
2022-01-20, 15:00:45
Man sollte PCIe 4.0 auch nicht überschätzen. Das kann in Benchmarks helfen, Einbrüche abzufedern. Nach längerer Spielzeit können trotzdem hässliche Ruckler oder Streaming-Probleme auftreten. Würd mich nicht wundern, wenn so etwas wie Warzone auch mit niedrigsten Details nach zehn Minuten nur noch wie völliger Mist läuft.

y33H@
2022-01-20, 15:12:08
Gibt es irgendwo vergleiche zwischen 6500XT und aktuellen Onboard Grafik Lösungen von AMD? Das würde mich interessieren wie viel Unterschied dazwischen ist. Gibt es einen Test wo SAM aktiv ist?Ja, bei mir ist SAM bzw rBAR an - aber Vergleich zu iGPU hab ich nicht, weil da Welten zwischen liegen ... bei Rembrandt für AM5 dann ^^

https://www.golem.de/news/radeon-rx-6500-xt-im-test-die-flaschenhals-grafikkarte-2201-162435.html

[immy;12900589']Gibt es eigentlich irgendeine Begründung für das 4x PCIe Interface? Die-Size und Mobile-Fokus ... das Ding existiert, damit OEMs auf Desktops (hier als RX 6400) und Laptops "hat dedizierte Grafik, daher super!!!" drauf schreiben können.

Man sollte PCIe 4.0 auch nicht überschätzen. Das kann in Benchmarks helfen, Einbrüche abzufedern. Nach längerer Spielzeit können trotzdem hässliche Ruckler oder Streaming-Probleme auftreten. Würd mich nicht wundern, wenn so etwas wie Warzone auch mit niedrigsten Details nach zehn Minuten nur noch wie völliger Mist läuft.Kein Warzone, aber aktuelles CoD:

https://scr3.golem.de/screenshots/2201/RX-6500-XT-Benches-PCIe-v2/thumb620/01-cod-vanguard,-hamburg-train-(1080p,-ultra-preset,-d3d12)-chart.png

Timbaloo
2022-01-20, 15:24:39
Ist das Ding ein Witz? ;D

OpenVMSwartoll
2022-01-20, 15:31:43
https://twitter.com/3DCenter_org/status/1484146189054341124
https://pbs.twimg.com/media/FJi8GnDacAAiRSy?format=png

Salzfass für die Wunde...

aufkrawall
2022-01-20, 15:32:51
Tja, anders als bei einer Konsole, ist mit einer 4GB-Karte (4x Lanes :freak: ) bei aktuellen Titeln ein gewisses Mindestmaß an Spielbarkeit nicht mehr zu 100% gewährleistet. Da kann man nur jedem raten, stattdessen eine Konsole zu kaufen. Selbst die SS-Box ist da besser...

Monsta
2022-01-20, 15:36:59
https://twitter.com/3DCenter_org/status/1484146189054341124
https://pbs.twimg.com/media/FJi8GnDacAAiRSy?format=png


Das nennt sich Inflation, die Rennräder meiner Hausmarke sind auch von 10k auf 14k gestiegen. Warum sollte das bei PC Hardware ansers sein.
Sogar billiger Modellbaukram aus China ist deutlich gestiegen.

aufkrawall
2022-01-20, 15:41:07
Vorsicht mit hinkenden Vergleichen. Die Preise für viele Hardware-Kategorien sind kaum gestiegen bzw. bekommt man etwa bei Intel-CPUs in jedem der letzten drei Jahre immer mehr Leistung/€. Auch Dinge wie Monitore (außer 4k 120Hz Abmelk-Produkte) etc. sind nicht teurer geworden.

robbitop
2022-01-20, 16:21:12
[immy;12900589']Gibt es eigentlich irgendeine Begründung für das 4x PCIe Interface? Immerhin ist es ja als 16x physisch ausgeführt.
Wenn die Karte nun wenigstens beim physischen interface ebenfalls gekürzt wäre, würde ich das ja noch verstehen.

Oder hat der chip (dank Mobiler Abstammung) einfach nicht mehr Leitungen nach außen?
Dann hätte allerdings ein PCIe chip der daraus ein PCIe 8x Gen3 interface gemacht hätte gut getan. Bei dem Preis wäre das sicherlich auch möglich gewesen. Dann würde man zumindest nicht so extrem verlieren wenn man auf ein <=B470 Board stößt bzw. ein entsprechendes Intel board mit nur <PCIe 4.0.

Beschnitten ist die Karte ja schon durch das Speicherinterface, da ergibt dieser künstliche Beschränkung doch echt keinen Sinn mehr.

Das man es aber nicht mal schafft am RX470/RX570 eindeutig vorbei zu kommen .... bei dem Chip ... ist mir echt ein Rätsel, wie AMD hier so eine schlechte Leistung abliefern konnte. Sogar die maximale TDP liegt ja auf höhe der RX470/570.
So wie die Leistung aktuell aussieht, wäre das maximal was für den <100€ Bereich gewesen, wenn es da nicht die allgemeine GPU Knappheit gäbe.

Das Interface wurde Chipintern nur mit 4x Links ausgeführt. Das spart Chipfläche und nicht zu knapp. Die mechanische/Elektrische Ausführung in 4x fände ich auch versatiler - würde aber ggf. zu viele Kunden verwirren.

Monsta
2022-01-20, 16:32:17
Vorsicht mit hinkenden Vergleichen. Die Preise für viele Hardware-Kategorien sind kaum gestiegen bzw. bekommt man etwa bei Intel-CPUs in jedem der letzten drei Jahre immer mehr Leistung/€. Auch Dinge wie Monitore (außer 4k 120Hz Abmelk-Produkte) etc. sind nicht teurer geworden.

Ja schneller sind sie geworden das ist richtig, aber Top Dog Haswell i7 hatte 300€ gekostet. Jetzt kostet der Top Dog mehr, glücklicherweise sind sie auch schneller und gleich nicht schnell wie das Teilweise bei Gpus ist. Hatten nicht Intel Z Boards auch mal 100€ gekostet?

VooDoo7mx
2022-01-20, 16:45:34
Preis, Chipmangel, wie getestet wurde... spielt alles keine Rolle.


Fakt ist, AMD bringt nach Jahren einen Nachfolger für die RX 5500 XT, welcher jedoch langsamer ist und teilweise sogar massiv. Das geht nicht, Punkt.

Eben nicht, der Nachfolger der 5500XT ist die 6600XT.

Die 6500XT hat keinen direkten Vorgänger, da AMD schon länger nicht mehr solch kleine Chips anbietet. Am ehesten fällt mir da sowas wie der GCN Oland Chip ein oder eben der nVidia GP108 aka GT1030 MX250. Das ist auch der Bereich in dem wir uns hier bewegen. Eine absolute Einstiegslösung.

Die Namensgebung ist aber auf jeden Fall sehr ungünstig von AMD.
6400 hätte definitiv besser gepasst und die 5500 hätte auch 5600 heißen können.
Aber AMD verkauft ja auch eine runtergetaktete 6600XT im Notebook als "6800S"
Ja, bei mir ist SAM bzw rBAR an - aber Vergleich zu iGPU hab ich nicht, weil da Welten zwischen liegen ... bei Rembrandt für AM5 dann ^^

https://www.golem.de/news/radeon-rx-6500-xt-im-test-die-flaschenhals-grafikkarte-2201-162435.html

Die-Size und Mobile-Fokus ... das Ding existiert, damit OEMs auf Desktops (hier als RX 6400) und Laptops "hat dedizierte Grafik, daher super!!!" drauf schreiben können.

Kein Warzone, aber aktuelles CoD:

https://scr3.golem.de/screenshots/2201/RX-6500-XT-Benches-PCIe-v2/thumb620/01-cod-vanguard,-hamburg-train-(1080p,-ultra-preset,-d3d12)-chart.png

Ultra Details :facepalm: :facepalm: :facepalm:

fondness
2022-01-20, 16:47:26
Das Interface ist auch völlig ausreichend für eine Karte dieser Leistungsklasse. PCIe4.0 x4 entspricht schließlich PCI3.0 x8. Problem hat man halt nur, wenn man kein PCIe4.0 Board hat. Und klar, der VRAM sollte nicht übergehen, aber das gilt unabhängig vom Interface, dafür ist PCIe viel zu langsam. Also wenn dann sind die 4GB das Problem, aber sicher nicht das Interface.

Ex3cut3r
2022-01-20, 16:50:23
Dafür ist PCIe viel zu langsam. Also wenn dann sind die 4GB das Problem, aber sicher nicht das Interface.

Ist denn tatsälich bei der 6500XT der Fall?

Warum ist dann PCIe 4.0 meistens doppelt so schnell @ Ultra Details mit vermutlichen VRAM Überlauf?

Beim VRAM Überlauf, müssen die Daten, vom PCIe Interface zum System RAM und wieder zurück. PCIe 4.0 ist anscheinend schnell genug um diesen Engpass einigermaßen zu kompensieren, die FPS sind doppelt so hoch wie bei einem PCIe 3.0 System.

Oder habe ich hier einen Denkfehler?

Die 16MB Cache gepaart mit der "Krüppel" Bandwith spielen natürlich auch eine Rolle. Es ist schon arg erbärmlich wenn die Vorgänger Gen mit dem Namen 5500XT schneller ist.

y33H@
2022-01-20, 16:51:09
Ultra Details :facepalm: :facepalm: :facepalm:Schön Facepalm ohne den Test samt Kontext gelesen zu haben, hmmm? Leute wie dich liebe ich ja :rolleyes:

Raff
2022-01-20, 16:52:00
Es gibt nun mal Spiele, die viel über den PEG schieben. Das ist aber eigentlich "schlechter Stil". Insgesamt ist es richtig, dass das Interface nur sekundär problematisch ist – was der Karte das Genick bricht, ist die Kombination mit dem "Das Jahr 2013 hat angerufen!"-Speicher. Mit 8 GiB wäre die Kiste wohl ziemlich flott.

MfG
Raff

VooDoo7mx
2022-01-20, 17:09:30
Schön Facepalm ohne den Test samt Kontext gelesen zu haben, hmmm? Leute wie dich liebe ich ja :rolleyes:
Mir ist der Kontext entgangen, du kannst mich auch gerne erleuchten.
Hast du auch nen paar 4K Tests mit Ultra gefahren?
Tja, anders als bei einer Konsole, ist mit einer 4GB-Karte (4x Lanes :freak: ) bei aktuellen Titeln ein gewisses Mindestmaß an Spielbarkeit nicht mehr zu 100% gewährleistet. Da kann man nur jedem raten, stattdessen eine Konsole zu kaufen. Selbst die SS-Box ist da besser...

Konsolen Versionen laufen mit Ultra Details?
Ich glaube nicht, Tim. :facepalm:

Tatsächlich ist die Performance deutlich höher als bei der X Box Series S die auch meist mit 1080p Medium läuft. Es gibt auch schon Spiele die in 900p auf der Series S laufen.
4 PCIe Landes und 4GiB VRAM sind für solche Settings auch absolut ausreichend.

robbitop
2022-01-20, 17:11:32
Ich hab mal Untersuchungen mit meiner externen Thunderbolt Grafikkarte gemacht. Je nach Sichtweite hat Doom und auch The Witcher 3 da dann schon limitiert. Thunderbolt ist aber auch nur PCIe 3.0 und von den 4 Lanes bekommt die Grafikkarte laut Cuda-Z lediglich 2,5 Lanes. Gerade Doom hat da richtig drunter gelitten. Je mehr (gerade dynamische) Geometrie übertragen wird, desto relevanter wird es.
4x PCIe 4.0 Lanes sollten für die Karte reichen - sofern eine 4.0 Plattform eingesetzt wird und die 4 GiB eingehalten werden (was sicherlich meistens bei medium Texturdetails der Fall sein sollte in 1080p).

aufkrawall
2022-01-20, 17:13:39
Konsolen Versionen laufen mit Ultra Details?
Ich glaube nicht, Tim. :facepalm:

Tatsächlich ist die Performance deutlich höher als bei der X Box Series S die auch meist mit 1080p Medium läuft. Es gibt auch schon Spiele die in 900p auf der Series S laufen.
4 PCIe Landes und 4GiB VRAM sind für solche Settings auch absolut ausreichend.
Was du glaubst, ist irrelevant. Zig Spiele haben beschissenes VRAM-Management und der AMD-Treiber sowieso. Je länger man spielt, desto kritischer wird es oft. Und was willst du mit deinen Ultra-Details? Weder hat man dafür mit der 6500 XT genug Leistung, noch genug VRAM. Man kann alles auf Minimum runterdrehen, dann geht es vielleicht so gerade. Trotzdem dürften dann zig Spiele durch VRAM Pressure zusätzlich zu den ohnehin schon gering aufgelösten Texturen nur noch Matsche streamen, ggf. deutlich unter SS-Niveau...

vinacis_vivids
2022-01-20, 17:26:58
Was du glaubst, ist irrelevant. Zig Spiele haben beschissenes VRAM-Management und der AMD-Treiber sowieso. Je länger man spielt, desto kritischer wird es oft. Und was willst du mit deinen Ultra-Details? Weder hat man dafür mit der 6500 XT genug Leistung, noch genug VRAM. Man kann alles auf Minimum runterdrehen, dann geht es vielleicht so gerade. Trotzdem dürften dann zig Spiele durch VRAM Pressure zusätzlich zu den ohnehin schon gering aufgelösten Texturen nur noch Matsche streamen, ggf. deutlich unter SS-Niveau...


Dein Müll zu wiederholen wird nicht besser.

Schau dir mal ordentlich programmierte Engines wie Frostbite an.

https://abload.de/img/battlefield-5-1920-10ppjw3.png

aufkrawall
2022-01-20, 17:30:11
Wie üblich, machst du dich mit Cherry Picking und Ignorieren des Kontexts lächerlich. Das Abschneiden in BFV bringt gar nichts in anderen Spielen. Btw. kostet bei dem Spiel der D3D12-Renderpfad auf Radeons ordentlich Leistung im GPU-Limit, hat generell Shader Compile Ruckler aus der Hölle und D3D11 läuft unsauber vs. Nvidia. So viel zu deinem "ordentlich programmiert"-Geschwafel. ;D

mczak
2022-01-20, 17:37:11
Das Interface wurde Chipintern nur mit 4x Links ausgeführt. Das spart Chipfläche und nicht zu knapp.
Naja also so extrem sollte das auch wieder nicht sein. Klar 16 Lanes wären definitiv zu teuer, aber so nach Die-Shots zu urteilen müssten 4 Lanes so im Bereich von 1mm^2 sein. Nicht unerheblich bezogen auf den kleinen Chip, aber wenn man berücksichtigt wieviel Performance da verloren geht (wenn man bloss pcie 3.0 nutzt) kann man sich schon fragen ob da zu sparen wirklich clever war. Ein zusätzlicher 32bit gddr6 phy würde demgegenüber wohl etwa 4x so viel Fläche kosten.

Ist eigentlich ja interessant, kann mich gar nicht erinnern wann AMD das letzte Mal eine vollständige Produktfamilie hatte (war wohl bei Southern Islands) - rdna2 mit 4 Chips deckt ja eigentlich alles ab. Und Navi 24 ist halt auf jeden Fall Mobil-Nutzung zuerst, und ist eigentlich ein legitimer Nachfolger von Polaris 11/12. Also im Desktop-Bereich eine Karte für Office-PCs mit gelegentlicher Spiele-Nutzung, da wären dann die Einschränkungen besser zu verschmerzen (rx460/550/560 gab's übrigens auch noch mit bloss 2GB). Dass man das jetzt wegen der Nichtverfügbarkeit (bzw. bloss zu stratosphärischen Preisen) der teureren Produkte als echte Gaming-Karte vermarktet (mit entsprechendem Preis) führt halt dazu dass die Kritiken harsch ausfallen, das ist nun mal ein Anspruch an dem die 6500XT krachend scheitert, dafür war der Chip aber auch nie gedacht (das ist weder ein Nachfolger für Polaris 10 noch Navi 14).

sChRaNzA
2022-01-20, 17:38:02
Ich weiß gar nicht, warum ihr euch ständig an diesen Ultra-Details so gegenseitig aufschaukelt. Diese Einstellung kann man für Benchmarks nehmen um einen gemeinsamen Nenner zu haben - okay. Häufig sieht man zwischen ''Hoch'' und ''Ultra'' aber höchsten einen Unterschied in der Performance, jedoch nicht im Bild. Das ''Ultra''-Settings häufig keinerlei nennenswerte (Bild-)Verbesserungen, dafür teils massiv Leistung kosten, ist doch nun kein Geheimnis.

(Auf diesen Radeon 6500XT-Thread bezogen)

robbitop
2022-01-20, 18:11:53
mczak
Das mit dem 1 mm2 klingt sehr wenig. Kannst du dazu mal eine Quelle bringen oder auf dem die shot markieren?

vinacis_vivids
2022-01-20, 18:42:05
Wie üblich, machst du dich mit Cherry Picking und Ignorieren des Kontexts lächerlich. Das Abschneiden in BFV bringt gar nichts in anderen Spielen. Btw. kostet bei dem Spiel der D3D12-Renderpfad auf Radeons ordentlich Leistung im GPU-Limit, hat generell Shader Compile Ruckler aus der Hölle und D3D11 läuft unsauber vs. Nvidia. So viel zu deinem "ordentlich programmiert"-Geschwafel. ;D

Schon wieder Müll was du da laberst, weil du nicht in der Lage bist mit AMD`s Hardware umzugehen.

DX12 mit Frostbite läuft sehr sehr sauber und smooth auf Radeons. Und das schon seit Jahren. Der DX12 Pfad bei Bf5 wurde nach anfänglichen Entwicklungsrückstand komplett optimiert.

Bei NV läuft es mit DX12 dagegen sehr schrottig ggü. DX11, weil gewisse Speicherkompresionstricks im Treiber, insbesondere Farbkompression, nicht mehr funktionieren.

aufkrawall
2022-01-20, 19:31:27
Schon wieder Müll was du da laberst, weil du nicht in der Lage bist mit AMD`s Hardware umzugehen.

Doch, funktionierte unter Linux hier ziemlich gut. Etwa, weil mir da häufig Entwickler auf Reports geantwortet haben und ich Patches für die Sources (Kernel, Mesa...) testen und Feedback geben konnte. Dürfte wohl zu mehr Fixes beigetragen haben als du in deinem ganzen Leben jemals tun wirst (der Counter dürfte wohl bei 0 sein...). ;)
Leider war das Booten von Windows, was man ja leider für diverses Zeug immer noch braucht, dann mit den tollen AMD-Windowstreibern jedes Mal wieder ein größerer PitA, als es eigentlich sein müsste. Schien erstmal ganz ok zu sein, aber es wurde dann leider nicht besser und einfach immer nur noch nerviger. Der Typ im AMD Vanguard-Programm, der sich für mich einen bei Bug Reports abgestrampelt hat, hat sich mittlerweile auch eine RTX-Karte geholt. AMD Windows-Support 404, not found. Aber klar. Wenn ich unter Linux Sources patchen kann, wird mich das Rumklicken in Windows natürlich überfordern. Die Alternative wäre ja sonst, dass du nur Stuss erzählst, und das kann natürlich überhaupt nicht sein...

Btw. alles falsch, was du bez. BFV erzählst. Wann lagst du das letzte Mal eigentlich bei irgendetwas richtig? Und der ist in so einer "Beraterfirma", wo er dafür Geld nimmt, den Leuten seinen Müll zu erzählen. Was für Opfer. :freak:

blaidd
2022-01-20, 19:44:21
Nachdem ich mich jetzt realtiv ausführlich mit der RX 6500 XT und Spielen mit mittleren Settings (und natürlich Full HD) beschäftigt habe, ist mein Eindruck vielleicht ein wenig positiver. Der Speicher und die Anbindung (inkl. PCI) sind definitiv ein lästiger Flaschenhals, aber wenn man den mit Einstellungen umschifft, ist das Ding tatsächlich sogar halbwegs flott.

Das ist God of War, ich hab insgesamt 9 relativ unterschiedliche (und aktuelle) Spiele so getestet. In gar nicht mal so wenigen wird immerhin die RX 570 relativ deutlich geschlagen (wenn bei beiden der Speicher limitiert, gewinnt dagegen tendenziell die RX 570) und wenn der Speicher nicht limitiert, ist sie sogar hier und dort schneller als eine GTX 1060. Das ist irgendwie immer noch Crap (erst recht zu den aufgerufenen Straßenpreisen), aber man kann durchaus damit zocken, wenn man bereit ist, einige Kompromisse einzugehen.

Mit 6 GB wäre das Teil vielleicht sogar ganz okay gewesen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78137&stc=1&d=1642704251

And just for shits and giggles (can it maybe even beat a Vega 56?!)

Forza Horizon 5:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78138&stc=1&d=1642717623

mczak
2022-01-20, 19:45:54
mczak
Das mit dem 1 mm2 klingt sehr wenig. Kannst du dazu mal eine Quelle bringen oder auf dem die shot markieren?
z.B. bei dem Navi 10 die-shot hier:
https://www.reddit.com/r/Amd/comments/er9gkx/navi_10_ir_die_shot_from_fritzchen_fritz_link/
Die pcie x4 Blöcke sind unten links. Habe da aber jetzt nicht exakt die Pixel gezählt, es können schon ein paar Prozent mehr sein, aber die Grössenordnung sollte hinkommen.

Raff
2022-01-20, 22:48:05
Nachdem ich mich jetzt realtiv ausführlich mit der RX 6500 XT und Spielen mit mittleren Settings (und natürlich Full HD) beschäftigt habe, ist mein Eindruck vielleicht ein wenig positiver. Der Speicher und die Anbindung (inkl. PCI) sind definitiv ein lästiger Flaschenhals, aber wenn man den mit Einstellungen umschifft, ist das Ding tatsächlich sogar halbwegs flott.

Das ist God of War, ich hab insgesamt 9 relativ unterschiedliche (und aktuelle) Spiele so getestet. In gar nicht mal so wenigen wird immerhin die RX 570 relativ deutlich geschlagen (wenn bei beiden der Speicher limitiert, gewinnt dagegen tendenziell die RX 570) und wenn der Speicher nicht limitiert, ist sie sogar hier und dort schneller als eine GTX 1060. Das ist irgendwie immer noch Crap (erst recht zu den aufgerufenen Straßenpreisen), aber man kann durchaus damit zocken, wenn man bereit ist, einige Kompromisse einzugehen.

Mit 6 GB wäre das Teil vielleicht sogar ganz okay gewesen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78137&stc=1&d=1642704251

Dienstag dann auch auf der PCGH-Website, anders aufbereitet, gelle. :D

MfG
Raff

y33H@
2022-01-20, 23:25:02
Ich weiß, warum ich extra einen 1080p-Low-End-Parcours gebaut hab ^^ die RTX 3050 dankt es ...

blaidd
2022-01-20, 23:30:46
Dienstag dann auch auf der PCGH-Website, anders aufbereitet, gelle. :D

MfG
Raff

Was, das alles für umsonst? (Spoiler: Nicht ganz. Und die Arbeit war es ja ganz offensichtlicht nicht, selbst wenn sich nur mein Eindruck wegen verbesserter Datenlage um vielleicht 4,3 % verbessert hat... ;) )
Aber ja - zumindest im Großen und Ganzen.

y33H@
2022-01-21, 00:10:35
Ist am Dienstag was Besonderes? :ulol:

Raff
2022-01-21, 00:13:52
Mmmh, nein, Oder doch: Es ist der wohl letzte Tag, wo noch jemand nach der 6500 XT kräht. ;)

MfG
Raff

DrFreaK666
2022-01-21, 08:30:23
Die 3060 gibt es ab 675€.
Für 500€ ist auch die 3050 zu teuer

dildo4u
2022-01-21, 08:50:30
Der 3050 Launch könnte interresant werden.
Ethereum bricht grad ein es gibt Tonnen GPU bei Mindfactroy ist halt die Frage wie lange sie die Karten im Lager haben wollen.
Lustigerwise ist das Heute so teuer wie nie da sie selbst auf Low End Karten absurde Kühler verbauen (Gigabyte hat Tripple Fan 6500XT) und die Katrons immer größer werden.

robbitop
2022-01-21, 09:23:09
Bei den Spezifikationen muss sie deutlich besser sein (aber auch größer) als die 6500XT.
2560 Cuda Cores und 8 GB RAM. 128 bit Interface. PCIe 8x.
Aber AMD ist natürlich selbst Schuld mit der Eingruppierung und dem Pricing, dass man jetzt in einer Kategorie landet mit einem Produkt welches technisch einfach eine Gruppe drüber ist.

RoughNeck
2022-01-21, 09:39:26
Versteh wer will warum AMD mit so einer Krüppelkarte um die Ecke kommt.
Wenn ich mir anschaue wo die 6600 steht, ist die 6500XT ein Fail.

dildo4u
2022-01-21, 09:51:22
Das sind Notebook Chips die sie nicht loswerden, die neuen AMD Mobile APU haben grad erst PCIE 4.0 bekommen.Daher entfällt dieser Flaschenhals und eine 6500 ist immer noch um den Faktor 2 besser als die neue IGP.

basix
2022-01-21, 10:04:29
Naja also so extrem sollte das auch wieder nicht sein. Klar 16 Lanes wären definitiv zu teuer, aber so nach Die-Shots zu urteilen müssten 4 Lanes so im Bereich von 1mm^2 sein. Nicht unerheblich bezogen auf den kleinen Chip, aber wenn man berücksichtigt wieviel Performance da verloren geht (wenn man bloss pcie 3.0 nutzt) kann man sich schon fragen ob da zu sparen wirklich clever war. Ein zusätzlicher 32bit gddr6 phy würde demgegenüber wohl etwa 4x so viel Fläche kosten.

PCIe Lanes sind effektiv nicht so extrem teuer. Aber 1mm2 erscheint mir als etwas zu gering, evtl. sind es 3mm2? Anyways, sehr viel wäre es nicht gewesen. Und wieso es nun 4-Lanes hat:
- Kosten (Chipgrösse, geringere PCB Komplexität)
- Mobile Ausrichtung (Stromverbrauch)

Was hier bei der Auslegung vermutlich wichtiger war: Mobile. PCIe 4.0 braucht halt etwas Saft. Andererseits wenn ich mir das überlege, wird PCIe ja down-clocked wenn nicht belastet. Und in einem Rembrandt Notebook würde typ. die iGPU laufen und die dGPU wäre komplett abeschaltet, ausser man spielt gerade... :confused:

Zum Thema N24 als Mobile-Chip:
Die 16 CU von N24 sind jetzt nicht so viel mehr als z.B. 12 CU bei den grösseren Rembrandts und auch die Speicherbandbreite ist nicht wesentlich höher (abzüglich Infinity Cache). Kann man beide GPUs in einem Crossfire Modus laufen? Ansonsten wäre die Kombi 12-CU Rembrandt + 12...16-CU N24 etwas sinnfrei. Klar man hat etwas mehr Performance, der Sprung ist aber je nach TDP nicht sehr gross. Bei den 6-CU Rembrandts ist N24 eher sinnvoll, allerdings ist APU + dGPU + GDDR sicher teurer als einfach die dickere APU zu nehmen oder bei der APU die TDP zu erhöhen. Ergo: Ohne Crossfire macht Rembrandt + N24 nicht sehr viel Sinn :freak:

y33H@
2022-01-21, 10:11:27
Ergo: Ohne Crossfire macht Rembrandt + N24 nicht sehr viel SinnIch habe da immer das Mediamarkt-Argument vor Augen: "Mit dedizierter Raytracing-Grafikkarte!" :uclap:

dargo
2022-01-21, 10:35:15
Versteh wer will warum AMD mit so einer Krüppelkarte um die Ecke kommt.

Weil der Markt verhungert und eh alles gekauft wird. Warum sollte AMD auf die zusätzlichen Einnahmen verzichten? Ich finde die Karte auch Grütze, aber da das eh nicht mein Segment ist... wayne.

Edit:
Das Schlimmste an der Grafikkarte ist imho der viel zu große Abstand zum Navi23. Navi24 hätte wirklich mit 96Bit SI und 6GB Vram kommen müssen. Zudem paar Shadereinheiten mehr. So ein Abstand von ca. 50% würde deutlich besser ins Portfolio passen.

basix
2022-01-21, 11:22:09
N23 ist mMn eher der Outlier, da sehr nahe an N22. Bezüglich Performance/mm2 ist N23 einfach extrem gut. Dennoch, N24 wäre optimal geworden mit 96bit, 8 PCIe-Lanes und 20 CUs. HW-Encoding/Decoding für Multimedia Codecs noch als Schmankerl obendrauf. Das wäre dann halt ~140mm2 gross geworden, hätte man aber für 229-249$ MSRP anbieten können und wäre eine wirklich gute Karte geworden.

vinacis_vivids
2022-01-21, 12:04:48
N22 XL/XT -> 36/40CUs - 12GB
N23 XL/XT -> 28/32CUs - 8GB
N24 XL/XT -> 12/16CUs - 4GB

Das Portfolio nach unten ist doch super. Jeder Wunsch nach einem N24, 96bit, 6GB, 8PCIe-Lanes ist bereits mit 237mm² N23 XL = RX 6600 8GB perfekt gelöst.

Bei N24 liegt der Fokus auf eine extrem hohe Stückzahl und das klappt hervorragend mit nur 107mm².

dargo
2022-01-21, 12:18:20
N22 XL/XT -> 36/40CUs - 12GB
N23 XL/XT -> 28/32CUs - 8GB
N24 XL/XT -> 12/16CUs - 4GB

Das Portfolio nach unten ist doch super.
N22 hat 25% mehr CUs als N23 während N23 100% mehr CUs hat als N24. Leg mal deine Fanboybrille bitte ab. N21 hat zwar auch 100% mehr CUs als N22, beim N21 hat AMD aber zwei Salvages aufgelegt damit eben der Abstand zwischen RX 6700XT und RX 6800XT/6900XT nicht zu groß ausfällt.

vinacis_vivids
2022-01-21, 12:31:25
N24 ist low cost mit 107mm² und da gehts um den Preis.
Wie viele Leute haben rumgeschrien, dass Grafikkarten zu teuer sind? Das waren hier schon einige.
Jetzt legt AMD ne gute Lösung vor, die für jeden Schüler/Studenten bezahlbar ist, und es wird weiter gemeckert.
Kann ich so nicht nachvollziehen, weil man für mehr Geld bereits die sehr üppige N23 mit 8GB bekommt.

Bei N21 hat AMD zwei salvages aufgelegt um die größte Ausbeute bzw. weniger Abfall bei dem extrem dicken Chip zu bekommen.

Shink
2022-01-21, 12:34:25
https://www.notebookcheck.com/Grafikkarten-Engpass-Nicht-mal-Scalper-bekommen-ihre-Finger-an-eine-AMD-Radeon-RX-6500-XT.594170.0.html

Hmm vielleicht sollte AMD noch einen N25 nachschießen als Konkurrenz zur neuen Nvidia GT 1010

dargo
2022-01-21, 12:36:15
N24 ist low cost mit 107mm² und da gehts um den Preis.
Wie viele Leute haben rumgeschrien, dass Grafikkarten zu teuer sind? Das waren hier schon einige.

Aha... du meinst also die abgerufenen 350€ sind günstig für diese Grafikarte? :freak: Das Ding ist schon mit den ganzen Beschneidungen + nur 4GB bereits öfter mit 1080p bei vielen Spielen überfordert.

btw.
Bei N24 dürfen manche Käufer nicht mal auf eine UVP hoffen da es keine Referenz Karten gibt die direkt von AMD angeboten werden könnten. Das Ding wird in vielen Reviews zerrissen... zurecht!

dildo4u
2022-01-21, 12:41:23
Die Frage ist ob der Chip auch in Zukunft nutzlos ist was passiert z.b wenn Modelle mit 8GB kommen ist das Interface zu sehr beschnitten?
Polaris war so erflogreich weil man sie Problemlos auch 3 Jahre nach Launch noch empfehlen konnte, die 6500XT könnte wenns Blöd läuft schon Ende 2022 komplett überflüssig sein. (Z.b wenn sich GPU Mining nicht mher lohnt)

fondness
2022-01-21, 12:43:47
Ich finde es beeindruckend, was hier für die meisten unbrauchbar ist. :ugly: Ich spiele zurzeit auf einer 512SP Vega iGPU mit 2GB shared RAM und es geht besser als man glaubt in 720p bis 1080p. Dagegen ist die Karte eine Rakete. ;D

Was ich sagen will: Die Karte hat schon ihre Existenzberechtigung, gerade wenn sich der Markt stabilisiert und das Ding ins Lowend-Segment abrutscht. Dafür ist sie mit nur 107mm² und 64 bit SI auch konzipiert, bzw für Notebooks im 25-40W Bereich.

dargo
2022-01-21, 12:44:11
Die Frage ist ob der Chip auch in Zukunft nutzlos ist was passiert z.b wenn Modelle mit 8GB kommen ist das Interface zu sehr beschnitten?

Afaik ist jedes Speichermodul mit 32Bit angebunden. Ergo kann man sich hier 8GB Modelle abschmieren.

Ich finde es beeindruckend, was hier für die meisten unbrauchbar ist. :ugly: Ich spiele zurzeit auf einer 512SP Vega iGPU mit 2GB shared RAM und es geht besser als man glaubt in 720p bis 1080p. Dagegen ist die Karte eine Rakete. ;D
Dann spielst du höchstens irgendwelche alten Schinken. Zudem 720p? Ich bitte dich. Auf einem Monitor ist 1080p das Mindestmaß imho. 720p könnte ich mir höchstens noch auf irgendeinem älteren TV vorstellen.


Was ich sagen will: Die Karte hat schon ihre Existenzberechtigung, gerade wenn sich der Markt stabilisiert und das Ding ins Lowend-Segment abrutscht. Dafür ist sie mit nur 107mm² und 64 bit SI auch konzipiert.
Ich sags mal so... im Bereich von 150€ wäre die Karte in Ordnung. Davon sind wir aber sehr weit entfernt. Und der Preis ändert nichts daran, dass zwischen N24 und N23 was fehlt. Der Abstand ist einfach viel zu groß.

fondness
2022-01-21, 12:48:34
Afaik ist jedes Speichermodul mit 32Bit angebunden. Ergo kann man sich hier 8GB Modelle abschmieren.


Würde schon gehen im Clamshell Mode.

WedgeAntilles
2022-01-21, 13:06:21
Vinacis, du redest von günstigen Preisen, extrem hoher Stückzahl und was weiß ich.
Falls das nur trolling ist ok.
Aber falls du das wirklich ernst meinst: Such dir Hilfe. Bitte.

dildo4u
2022-01-21, 13:18:50
Nutzlos für Gamer und Miner wenn das Ding bald nicht verfügbar ist stimmt was nicht, es gibt Tonnen RDNA2 auf Lager für hunderte € weniger als das NV Gegenstück.

basix
2022-01-21, 13:58:39
Ich habe da immer das Mediamarkt-Argument vor Augen: "Mit dedizierter Raytracing-Grafikkarte!" :uclap:
Der war gut :D Zumindest wenn ich die ganzen "RT nicht möglich weil zu wenig Speicher" Screenshots aus den Reviews sehe. Neben dem Fakt, dass wohl in 1080p zu schwach inkl. RT.

Dieses Argument wäre also vor allem eines: Kundenverarsche. Ich weiss und du hast recht, wird wohl auch so angepriesen. Ist die Marketing-Welt. Gutheissen kann ich das aber nicht.

Ich finde es beeindruckend, was hier für die meisten unbrauchbar ist. :ugly: Ich spiele zurzeit auf einer 512SP Vega iGPU mit 2GB shared RAM und es geht besser als man glaubt in 720p bis 1080p. Dagegen ist die Karte eine Rakete. ;D

Was ich sagen will: Die Karte hat schon ihre Existenzberechtigung, gerade wenn sich der Markt stabilisiert und das Ding ins Lowend-Segment abrutscht. Dafür ist sie mit nur 107mm² und 64 bit SI auch konzipiert, bzw für Notebooks im 25-40W Bereich.

Das Problem ist, dass mit der momentanen Konfiguration die Halbwertszeit vermutlich sehr begrenzt ist. Zumindest wenn man aktuelle Spiele spielen will. Wenn ich NEU eine Karte kaufe, dann sollte die mindestens 2 Jahre unter ähnlichen Bedingungen brauchbar sein (ja steigende Anforderungen reduzieren die FPS über diese Zeit). Und gerade das bezweifle ich hier. Hier kann es wortwörtlich plötzlich kippen (je nach Spiel) und man erhält im schlimmsten Fall nicht mal mehr die Hälfte der theoretisch erreichbaren Performance. Je nach Spiel rangiert das zwischen "Läuft gut" und "Totalausfall". Ein bisschen zu viel Lotterie für doch ordentlich was an Geldmenge. Das Ding ist ja nicht 100$ sondern 200$+. Und wenn ich schon auf den Geldbeutel schauen muss, wäre mir der Werterhalt besonders viel wert. Nicht dass ich nach kurzer Zeit wieder mit "nichts" dastehe und neu kaufen muss, falls ich weiterhin entsprechend spielen will. Und mir der Abschreiber / die Entwertung der HW dann empfindlich weh tut im Geldbeutel.

Bei einer iGPU weiss ich vermutlich schon vorher, dass man mit limitierter Performance leben muss. Bei einer dGPU entsteht eben auch eine gewisse Erwartungshaltung. Irgendwie erinnere ich mich gerade an meine erste Grafikkarte zurück. Eine Radeon 9000 Pro. Hört sich gut an im Vergleich zu den grösseren Geschwistern, ist aber überproportional langsam gewesen. Kaum schneller oder sogar langsamer als einige der Vorgänger: https://www.computerbase.de/2018-09/ati-radeon-9000-vergleich-rueckblick/

Benutzername
2022-01-21, 15:17:29
Wenn Intel Arc im Low End was taugt bekommen sie die GPUs nicht für den Notebook Einsatz los.


Wenn denn die ARC Grakas tun wie versprochen sehe Ich die kleine SOC2 basierten KArten durchaus als brauchbare Aufrüstoption für ältere Rechner. Besonders weil volle Videodekodierung drin ist auch für AV1. Dann kann man selbst auf einem ollen Skylake oder Bulldozer 4K YT gucken oder Netflix disney+ etc pp ohne Probleme. Solche Rechner werden ja oft weitergeben in die Verwandschaft als Büro und Webbrowser PCs. Tja und genau das kann der rx6500xt nicht. Wie schon von anderen angemerkt müsste die wohl eher 6300xt heißen um die Leistung abzubilden. Echt keine Ahnung was AMD bei dieser Auslegung geritten hat. :confused: Aber in der derzeitigen Situation geht wohl alles über den Ladentisch.

mczak
2022-01-21, 16:13:31
Würde schon gehen im Clamshell Mode.
Irgendwann kommen wohl auch noch 32gb gddr6 Chips, spezifiziert waren die jedenfalls schon von Anfang an. Sind allerdings noch nirgends angekündigt, dauert also sicher noch etwas (und der Chip müsste auch noch damit umgehen können).

mczak
2022-01-21, 16:22:52
PCIe Lanes sind effektiv nicht so extrem teuer. Aber 1mm2 erscheint mir als etwas zu gering, evtl. sind es 3mm2?

Siehe auch mein Post mit dem verlinkten Die-Shot. Genau habe ich das nicht gemessen, aber mehr als 1.5mm^2 für einen x4 Block sind das nie.

Anyways, sehr viel wäre es nicht gewesen. Und wieso es nun 4-Lanes hat:
- Kosten (Chipgrösse, geringere PCB Komplexität)
- Mobile Ausrichtung (Stromverbrauch)

Naja also wenn das punkto Verbrauch nicht ideal sein sollte im Notebook braucht man da die zusätzlichen Lanes ja nicht zu nutzen, dann verbrauchen die auch nichts (und wie du erwähnst ist es eh egal wenn die dGPU gerade nicht in Gebrauch ist). Klar die Chipfläche wäre dann im Hauptanwendungsgebiet verschwendet, aber dasselbe gilt ja auch für Display-Outputs und Video-Decoder.

X-Bow
2022-01-21, 16:24:44
Lustigerwise ist das Heute so teuer wie nie da sie selbst auf Low End Karten absurde Kühler verbauen (Gigabyte hat Tripple Fan 6500XT) und die Katrons immer größer werden.

Das die so teuer sind liegt aber nicht an dem Kühler. Mit einem extra dafür entwickelt und produzierten kleinerem Kühler würde der sogar mehr kosten da man mit ziemlicher Sicherheit nicht die riesen Stückzahlen bei der Karte erwartet. :wink: Man bestellt einfach mehr von dem bestehenden Kühler und zahlt dann ggf. sogar insgesamt für alle Kühler weniger.

Benutzername
2022-01-21, 16:47:47
Das die so teuer sind liegt aber nicht an dem Kühler. Mit einem extra dafür entwickelt und produzierten kleinerem Kühler würde der sogar mehr kosten da man mit ziemlicher Sicherheit nicht die riesen Stückzahlen bei der Karte erwartet. :wink: Man bestellt einfach mehr von dem bestehenden Kühler und zahlt dann ggf. sogar insgesamt für alle Kühler weniger.


Triple Fan ist halt für die Leute, die sich früher ein Ferrari Bodykit an den Manta geschraubt haben. Fette Karte fürs Gehäuse mit Glasfenster. :wink:

Ex3cut3r
2022-01-21, 17:01:31
Ich finde es beeindruckend, was hier für die meisten unbrauchbar ist. :ugly: Ich spiele zurzeit auf einer 512SP Vega iGPU mit 2GB shared RAM und es geht besser als man glaubt in 720p bis 1080p. Dagegen ist die Karte eine Rakete. ;D


Warum zockst du so?

Hattest du vor ein paar Jahren nicht eine Vega 64?

Verkauft für viel Geld an einen Miner?

Robot
2022-01-22, 02:21:58
Am Dienstag ist ja Launch der 3050, ich bin echt gespannt wie das enden wird, vor allem preislich dann.

EKs für die 3050 liegen bei 300 bis 350 €, die werden also sicherlich auch mindesten 399 kosten+ Scalper-Aufschlag. Nicht unwahrscheinlich dass sie bei 499 landen.

Mal schauen wie sich die 6500 dann im Preis hält.

MSABK
2022-01-22, 09:01:21
Am Dienstag ist ja Launch der 3050, ich bin echt gespannt wie das enden wird, vor allem preislich dann.

EKs für die 3050 liegen bei 300 bis 350 €, die werden also sicherlich auch mindesten 399 kosten+ Scalper-Aufschlag. Nicht unwahrscheinlich dass sie bei 499 landen.

Mal schauen wie sich die 6500 dann im Preis hält.

Die 3050 sehe ich auch eher bei 450-499€.

r3ptil3
2022-01-22, 11:09:18
Wo reiht sich die RTX 3050 nochmals ein performancemässig?

dildo4u
2022-01-22, 12:12:39
Laut Nvidia 90% über der 1650 was bei einer 1070/1660 Super rauskommt.

https://abload.de/img/borderlando9jpo.png

Shink
2022-01-22, 12:37:44
Wo reiht sich die RTX 3050 nochmals ein performancemässig?
Performance und Preis dürften sich an der RX 6600 orientieren aber das ist natürlich geraten. Tests und Marktpreise gibt es dann nächste Woche.

dildo4u
2022-01-22, 12:41:49
6600 und 3060 sind auf einem Level daher haben sie auch den selbe Fantasie Preisempfehlung.


https://youtu.be/M5_oM3Ow_CI?t=1055

konkretor
2022-01-22, 12:42:02
https://twitter.com/IanCutress/status/1484658589562200071?s=20



RX 6500 XT, built on TSMC N6, 107mm2, can make ~500/wafer, 4 GB DRAM, $200 MSRP.

RX 480, built on GF 14nm, 232mm2, can make ~200/wafer, 4 GB DRAM, $200 MSRP.

Smaller die, but more expensive process, other components cost more, shipping is 3x-10x, and insatiable demand.

mczak
2022-01-22, 16:03:32
6600 und 3060 sind auf einem Level daher haben sie auch den selbe Fantasie Preisempfehlung.

Wobei die 6600 in der Praxis doch für deutlich weniger Geld erhältlich ist. Wenn man Pech hat könnte die RTX 3050 dann wohl durchaus praktisch dasselbe Preisniveau erreichen wie die RX 6600. Immerhin sollte sie wohl auch gut 2/3 der Performance einer RTX 3060 erreichen (und damit weit vor einer RX 6500 XT landen) und keine der Einschränkungen der RX 6500 XT haben.

dildo4u
2022-01-22, 16:08:55
Mit 8GB sollten Preise nicht explodieren, die 3060 hat eine Dumme Speicherkonfig zu wenig mit 6GB zuviel mit 12GB.
Alles über 8GB ist absurd überteurt egal ob AMD oder Nvidia.

Laut dem musste 2 Jahre warten damit sich eine 3050 um 350$ fürs Mining bezahlt macht.

https://videocardz.com/newz/nvidia-geforce-rtx-3050-is-not-good-for-ethereum-mining

aufkrawall
2022-01-22, 16:23:31
Woher glaubst du ständig zu wissen, dass der VRAM so teuer wäre? Es zählen nicht irgendwelche öffentlichen Weltmarktpreise, sondern Großabnehmerpreise in geheimen, mitunter langfristigen Verträgen. Wenn die Karte günstiger wäre, würde die ETH-Netzwerk-Hashrate auch einfach weiter ansteigen. Dann müsste der Gamer-Kunde immer noch absurd viel zahlen, bekommt aber einen VRAM-Krüppel. Ganz tolle Idee...

dildo4u
2022-01-22, 16:36:57
Ist die 3060 Ti nicht über 30% schneller kostet aber nur 20% mher als die 3060?

Ex3cut3r
2022-01-22, 16:44:15
Das liegt aber nicht am VRAM, sondern z.B. an der größe des Chips. GA104 vs GA106.

392 mm² vs 276 mm²

256 bit vs 192 bit

usw.

4 vs 8GB VRAM allein machen keine 30% mehr im Preis zustande.

dildo4u
2022-01-22, 16:47:08
Hä ebend die 3060 sollte bessere oder zumindest gleiche Preis Leistung haben da der Chip kleiner ist kann es nur am Vram liegen.
Die Karten kosten um 700€ absolut Absurd.

aufkrawall
2022-01-22, 16:59:26
Hä ebend die 3060 sollte bessere oder zumindest gleiche Preis Leistung haben da der Chip kleiner ist kann es nur am Vram liegen.

Mensch, und ich dachte schon, der Markt wär hinüber und die Karten würden sich auch für die Preise verkaufen.
Komisch, dass Nvidia jüngst die MSRPs erhöht hat. Für alle Ampere-Karten außer der 3060...

y33H@
2022-01-22, 22:05:56
Von der RTX 3060 gibt's halt auch keine FE ...

aufkrawall
2022-01-23, 05:38:59
Die 6600 XT ist für kleineren Chip, kleineres Interface und 4GB weniger VRAM kaum günstiger. Hat natürlich keine Mining-Bremse, aber die war ja schon mal effektiver...

aufkrawall
2022-01-24, 00:39:28
Selbst in CS:GO mit PCIe 4.0 versagt dieser Kothaufen gegen Polaris: https://youtu.be/KYp6pEDm4E8
Oder auch in F1 2021 mit High details 1080p (Polaris 10 > 100fps). Wirklich erschreckend dreiste Geldgier, die sind wohl auf den Stoff gekommen...

Linmoum
2022-01-24, 01:46:35
N24 ist primär ein Mobile-Chip zur Paarung mit Rembrandt. Hat Bridgman (AMD Staff) bei Phoronix auch so geschrieben. Wenig überraschend.

Dass dieser Chip trotzdem als dGPU erschienen ist liegt einzig am Markt. Und der Bedarf dafür existiert nachweislich, die Leute kaufen auch hier weit über UVP.

Ex3cut3r
2022-01-24, 01:50:12
Selbst in CS:GO mit PCIe 4.0 versagt dieser Kothaufen gegen Polaris: https://youtu.be/KYp6pEDm4E8
Oder auch in F1 2021 mit High details 1080p (Polaris 10 > 100fps). Wirklich erschreckend dreiste Geldgier, die sind wohl auf den Stoff gekommen...
Es ist ein absoultes Schrott Produkt, oder sollte eigenlich RX 6300 LE heißen. Es versagt sogar gegen den Vorgänger in jeder Hinsicht (RX 5500 XT)

Wenn möglich die RTX 3050 kaufen, scheint mit 8GB und DLSS Option, sowieso die bessere Wahl zu sein. Allerdings sollte man schnell sein. Bereits nach ein paar Stunden, werden die Dinger teurer sein.

Denniss
2022-01-24, 02:47:44
Immer die gleichen Krähen die hier und in anderen Foren rumheulen obwohl sie eine Karte vom unteren Ende des Angebotsspektrums nichtmal mit ner Kneifzange anfassen würden

RoughNeck
2022-01-24, 03:43:47
Objektiv betrachtet haben diese Krähen recht.
Die Karte ist Müll.

basix
2022-01-24, 08:57:36
Beim Mobile-Einsatz ist N24 definitiv deutlich besser aufgehoben:
- APU integrierte Video En-/Decoder (AMD und Intel CPUs)
- Garantiert PCIe 4.0 (AMD und Intel CPUs)
- Reduzierte TDP und somit geringerer Takt (PCIe Limitierung nimmt ab)
- Niedriger taktende CPUs limitieren die FPS in vor allem CPU bound Spielen (PCIe Limitierung nimmt ab)

Für diesen Bereich ist N24 eigentlich "optimal" ausgelegt und halt effektiv jedes letzte Quäntchen Die Size rausgetscht. Dadurch wird die GPU als auch das PCB maximal kostenoptimiert. Die zusätzliche Die Space für Video En-/Decoder hat AMD in der APU spendiert.
N24 = Wenn OEMs mit minimalen Kosten eine Mobile dGPU verbauen wollen.

Bessere Variante als Desktop GPU, wäre dann halt ~140mm2 gross geworden:
- 20 CU
- 6 GByte (96bit @ 14-16 Gbps)
- 8 PCie
- Video En-/Decoder

+20% Performance, genug Speicher, PCIe 3.0 reicht noch und Video-Beschleunigung. Damit hätte man sich in 1080p im besten Fall auf Höhe der 5600 XT bugsiert. Dort tummeln sich auch noch RTX 2060, GTX 1080, Vega 64. Das wäre ein richtig gutes Ding geworden und AMD hätte auch 249$ verlangen können.
Mehr als zwei Display Anschlüsse sind mir ehrlich gesagt egal. Mehr als zwei Bildschirme sind auch im Arbeitsumfeld eher selten.

HOT
2022-01-24, 09:19:58
Na ja, das Speicherproblem ließe sich ja eigentlich leicht lösen und damit auch die PCIe-Problematik. Nur die Videoeinheit ist echt kacke. Aber volle Zustimmung.

dildo4u
2022-01-24, 09:28:17
Das absurde ist man kann das PCI-E Problem nicht mal sinvoll mit einem AMD Produkt lösen, zur Zeit musste da zu Intel greifen.
Der neue Alderlake Quad sieht hier ideal aus.

https://www.computerbase.de/2022-01/intel-core-i3-12100f-b660-test/2/#abschnitt_die_leistung_in_spielen_ist_ueberraschend_gut

Kein Plan wie lange es dauert bis AMD überhaupt mal neue 150€ CPU haben wird, der i3 ist sogar noch billiger.

https://www.alternate.de/Intel/Core-i3-12100F-Prozessor/html/product/1778330?partner=DeGeizhals&campaign=Sockel+1700/Intel%C2%AE/1778330

Nightspider
2022-01-24, 11:33:48
Boah ich kriegs Kotzen. Das Gemeckere und MIMIMI von Leuten, die sich sowieso NIE im Leben so eine Karte kaufen würden, finde ich krank.

Es gibt kein schlechtes Produkt, nur schlechte Preise. Und der Preis wird genau DA festgemacht, was der Markt aktuell hergibt. Und Unternehmen sind keine Wohltätigkeitsvereine. ... da hilft das ganze Gejammere nicht. Wärs bessere gewesen, AMD hätte den MSRP auf 149 oder 99 USD festgemacht? PFFFT. Das hätte genau NULL gebracht. Die Karten würde so oder so für 300+ verkauft werden, da vergleichbare nVidia Produkte teilweise NOCH TEURER sind. SUPRISE!

Und irgendwelche Karten von 2013 mit heute zu vergleichen (Radeon 7X irgendwas hatte für 79 USD Video Encoding) - LOOL und? Ich game seit 25 Jahren und habe diese Feature noch KEIN EINZIGES MAL benutzt. Und ich bin mir ziemlich sicher 90% aller anderen auch nicht. Als ob das plötzlich das wichtigste Feature wäre... vor allem in der Performance Klasse ROFL!

Und Steve von HWUB (sowie gewisse andere Youtuber) ist/sind sowieso die größte Dramaqueen(s) von allen. Drama bringt halt Klicks/Aufrufzahlen... ein Schelm wer Böses dabei denkt. Aufrufzahlen und Werbeeinnahmen sind bei vielen Tech-Kanälen stark eingebrochen in 2021… da kommt das „Drama“ um die 6500 XT gerade recht. Kann man wieder bissl Aufmerksamkeit generieren. UH.. Alarm, Alarm… AMD BÖSE, die Welt geht unter.

Ich hab News für Steve…, wir leben nicht mehr in 2013, sondern in 2022. Wir haben MEGAinflation ÜBERALL und die Frachtkosten sind um Größenordnungen höher als vor 10 Jahren. Zusätzlich haben wir Chip Shortage UND Crypto-Mining... das alles gabs 2013 in diesem Ausmaß nicht. Die Leute blättern auch 3000,- für High End Karten hin.. warun sollte dann eine low end karte für 300 plötzlich ein Problem sein???

Ein Sturm im Wasserglas… unglaublich. Aber wie bei allen Shit-Storms… wird in ein paar Tagen vergessen sein und die nächste Sau wird durchs Dorf getrieben.

Aber AMD hat natürlich auch selbst dazu beigetragen die Entrüstung zu verstärken. AMD Marketing ... auch nichts neues. Da gehört definitiv mal wieder ein paar Leuten ein fester Arschtritt.

Bis auf die Sache das ein AV1 Decoder beim stromsparen helfen sollte (auch wenn jetzt in einer Diskussion rauskam das die CPUs das auch schon relativ effizient handlen) stimme ich dir vollkommen zu.

Für die Preise der oberen Marktsegmente ist es vielleicht gar nicht so schlecht den Markt von unten ""günstig"" mit großen Stückzahlen abzudecken.
Das zieht die Preise des mittleren Marktfeldes auf jeden Fall runter wenn Mining schwächelt.

Nightspider
2022-01-24, 12:11:49
del

basix
2022-01-24, 12:32:43
Ein Punkt der noch nicht erwähnt wurde ist auch die deutlich (doppelte?) höhere Speicherbandbreite von LPDDR5 in Rembrandt Laptops ggü beispielsweise aktuellen DDR 4 Testsystemen.
Das könnte den Flaschenhals ebenfalls entlasten.

Eventuell könnte man das mit ADL+ high CLk DDR5 Vs. DDR4 schon testen könnte.

Wie stellst du dir das vor oder wie soll die CPU Speicherbandbreite die schmale PCIe Bandbreite entlasten? PCIe 4.0 x4 sind gerade mal 7-8 GByte/s. Das schafft man sicher bereits locker mit DDR4 (40-50 GByte/s in typischen Systemen)

Raff
2022-01-24, 12:49:32
Es ist ein absoultes Schrott Produkt, oder sollte eigenlich RX 6300 LE heißen. Es versagt sogar gegen den Vorgänger in jeder Hinsicht (RX 5500 XT)

Das "XT" ist eigentlich sehr passend, immerhin handelt es sich um einen hochtaktenden Vollausbau plus schnellen Speicher. "LE" steht bzw. stand eigentlich immer für doppelt bis dreifach verkrüppelte Chips (und zwar nicht "by design", sondern nachträglich). Ich weiß, auf was du hinaus willst, mir war aber gerade nach Haarespalten. :biggrin:

Ansonsten find ich's amüsant, wer die Karte in Schutz nimmt bzw. schönredet. Mindestens drei Kandidaten hier im Forum würden das Ding und seine Erschaffer hemmungslos in die Hölle fluchen, wenn es vom anderen Verein wäre. ;) #kennedeinepappenheimer

MfG
Raff

Nightspider
2022-01-24, 12:56:47
Wie stellst du dir das vor oder wie soll die CPU Speicherbandbreite die schmale PCIe Bandbreite entlasten? PCIe 4.0 x4 sind gerade mal 7-8 GByte/s.

Echt so wenig? Okay das hätte ich vorher mal checken sollen.

Dann war das natürlich Unsinn was ich geschrieben habe.

Raff
2022-01-24, 12:57:47
Praktisch sind es, je nach I/O-Hub und befragtem Test, sogar nur rund 6,5 GByte/s.
(https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/galerie/3585112/)
MfG
Raff

maximus_hertus
2022-01-24, 12:59:19
Keine Ahnung, wer jetzt gemeint ist, jedoch würde ich da 4 Lager ausmachen:

1 - Verteidiger AMDs bis zum letzten Blut (6500XT ist die Erlösung)
2 - Verteidiger nVidias (6500XT ist der größte Beschiss der Menscheitsgeschichte)
3 - Enttäuschte (Enthusiasten), die die 6500 XT ein wenig als "Vehikel" missbrauchen.
4 - Realisten, die das Produkt verstehen und einordnen können. Kritik, wo Kritik sinnvoll ist, aber auch die aktuelle Realität einfliessen lassen.

3 ist die größte Gruppe, 4 die gefühlt kleinste....

Raff
2022-01-24, 13:01:32
Hmm, vermutlich fühlen sich jetzt nur die Falschen angesprochen - sorry. Hardcore-Fans sind nicht bekannt dafür, die besten Selbstreflexionseigenschaften zu haben.

MfG
Raff

P. S: Dich meine ich z. B. nicht. Nightspider auch nicht. :)

Nightspider
2022-01-24, 13:01:49
@maximus_hertus & Raff So siehts aus. ^^

Die Frage ist vielleicht auch ob AMD damals, bei der Entwicklung des Chipdesigns schon geplant hat Navi24 überhaupt als Desktop Karte zu releasen.

Vielleicht hätte man damals (vor 2 Jahren?) dann die 3mm² doch in ein 8x Interface investiert.

Falls man bei so kleinen Chips überhaupt 2 Jahre benötigt von der Planung bis zum Release.
Kann mir vorstellen das man das auch in 12 bis 18 Monaten locker hinkriegt.

pilzsammler2002
2022-01-24, 14:05:01
@maximus_hertus & Raff So siehts aus. ^^

Die Frage ist vielleicht auch ob AMD damals, bei der Entwicklung des Chipdesigns schon geplant hat Navi24 überhaupt als Desktop Karte zu releasen.

Vielleicht hätte man damals (vor 2 Jahren?) dann die 3mm² doch in ein 8x Interface investiert.

Habe die Tage im Reddit ein Link zum Phoronix Forum gesehen wo es genau darum ging...
ALso dass der Chip nie für Dediziert geplant war und deshalb so komische "Eigenschaften" (4x PCI, no AV1 etc.) hat :freak:

Linmoum
2022-01-24, 15:36:32
Das war wahrscheinlich der Beitrag von bridgman, von dem ich oben schon sprach.

Er schrieb eben, dass Einsatzzweck für N24 primär Laptops in Kombination mit Rembrandt sein wird. Ergibt auch Sinn, wenn man sich anschaut, wo N24 beschnitten ist.

N24 als dGPU ist schlicht ein Abfallprodukt, das so für sich nie angedacht gewesen sein wird. Aber die aktuelle Marktsituation erlaubt es AMD sowohl, den Chip auch als dGPU zu verwursten und andererseits verlangt der Markt alles an Grafikkarten, was er haben kann. Ja, auch solche, die beschnitten und im Prinzip zweckentfremdet sind.

aceCrasher
2022-01-24, 15:50:25
Ich mein, kann man AMD wirklich verübeln dieses Produkt in dieser Form anzubieten? Ich persönlich nicht. Die letzten Tage haben ja bewisesen dass es mehr als genug willige Käufiger gibt, selbst 50% über UVP. Der Gaming Markt ist mittlerweile so verzweifelt dass sowieso alles gekauft wird, frei nach dem Motto: Lieber widerlich als wieder nicht :redface:

AMDs Pflicht gilt ihren Aktionären, nicht Gamern - so traurig das auch ist.

Denniss
2022-01-24, 19:43:37
Die Verfügbarkeit scheint langsam zuzunehmen, die Preise beginnen aber immer noch bei abgehobenen 340€

basix
2022-01-25, 07:26:26
Praktisch sind es, je nach I/O-Hub und befragtem Test, sogar nur rund 6,5 GByte/s.
(https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Tests/UVP-Preis-kaufen-Review-Benchmarks-Hashrate-vs-RTX-3050-1387328/galerie/3585112/)
MfG
Raff

Ach, sogar so wenig? Danke fürs verlinken, habe ich beim lesen des Tests überlesen.

Dieser Ratio real/max. scheint allerdings normal zu sein. Zumindest beim AIDA Test. Kommen GPUs wegen Treiber usw. nicht so nahe ans Maximum? Siehe nvme SSDs, welche fast +1 GByte/s mehr schaffen

Edit:
Auf was ich mich in Zukunft freue, sind Full-Chiplet GPUs. Evtl. ab RDNA4? Da könnte ich mir vorstellen, das die Shader-Engines auf ein Chiplet wandern (GCD), Memory PHY / Controller + Infinity Cache auf eines (MCD) und separat noch ein Chiplet für PCIe, Video und Display (IOCD). Dann hätte sich dieses Problem bezüglich PCIe, Video und Display grundsätzlich erledigt. Das IOCD wäre in 6nm ~40mm2 gross und mit Salvaging von PCIe und allenfalls Display kann man den Yield vollends maximieren.

Ebenso sollte Time to Market von allen SKUs deutlich näher beieinander liegen, da sie ja die selben Chips verwenden.

Beispiel Portfolio:
- N41 = 6x GCD, 4x MCD, 1x IOCD
- N42 = 4x GCD, 3x MCD, 1x IOCD
- N43 = 3x GCD, 2x MCD, 1x IOCD
- N44 = 2x GCD, 2x MCD, 1x IOCD (reduziert auf PCIe x8)
- N45 = 1x GCD, 1x MCD, 1x IOCD (reduziert auf PCIe x8, 3 anstatt 4 Display Anschlüsse)

blaidd
2022-01-25, 10:58:33
Hier sind noch ein paar Benchmarks mit angepassten Settings.
https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Specials/Low-Quality-Gaming-RX-6500-XT-1387811/
(https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Specials/Low-Quality-Gaming-RX-6500-XT-1387811/)

robbitop
2022-01-25, 11:04:56
Warum habt ihr es "low quality gaming" genannt? Soweit ich beim Überflogen gesehen habe, sind keine niedrigen Details genutzt worden für die gebenchmarkten Spiele sondern ein Mischmasch aus Medium und High Details.

Das Fazit verstehe ich nicht 100%ig. Insbesondere diesen Satz: "Selbst mit an die reine Leistung angepassten Details fordern aktuelle Spiele nach mehr."
Und bis auf AoE4 schafft die Karte doch überall 60 fps +. Ich finde der Artikel klingt irgendwie negativer als die Ergebnisse, die der Artikel zeigt.

y33H@
2022-01-25, 11:13:46
Zumal Low Quality auch auf schlechte Spielerfahrung bzw nicht vorhandenen Spaß hinweisen kann ^^

blaidd
2022-01-25, 11:19:58
Warum habt ihr es "low quality gaming" genannt? Soweit ich beim Überflogen gesehen habe, sind keine niedrigen Details genutzt worden für die gebenchmarkten Spiele sondern ein Mischmasch aus Medium und High Details.

Das Fazit verstehe ich nicht 100%ig. Insbesondere diesen Satz: "Selbst mit an die reine Leistung angepassten Details fordern aktuelle Spiele nach mehr."
Und bis auf AoE4 schafft die Karte doch überall 60 fps +. Ich finde der Artikel klingt irgendwie negativer als die Ergebnisse, die der Artikel zeigt.

Naja, es ist eben schon alles Full HD und dann noch reduzierte Settings. Das ist schon recht Low-Quality (verglichen auch mit den aktuellen Konsolen etc. Das ist alles schon ein bisschen Yesteryear). Das zeigt sich aber vielleicht erst so richtig, wenn da ein Konkurrenzprodukt dagegen gestellt werden würde (bei dem das vielleicht nicht so drastisch nötig wäre). Aber eigentlich (und ehrlicherweise) heißt der Artikel hauptsächlich so, weil er in der frühen Konzeptphase des Print-Artikels schon so hieß und mir nichts besseres eingefallen ist.

Das mit der Leistung bezieht sich darauf, dass mit der RX 6500 XT Settings trotz prinzipiell ausreichender Grafikleistung noch weiter reduziert werden müssen, weil zwar die Leistung reicht, nicht aber der Speicher.

robbitop
2022-01-25, 11:27:33
Also spielt die breite Masse in Low Quality? 1080p ist die weit verbreitetste Monitorauflösung bis heute. Und Medium Details sind sicherlich nichts Ungewöhnliches für viele. Bis vor Kurzem waren das Konsolensettings - allerdings bekam man dort bis vor Kurzem nur 30 fps. Jetzt gibt es mit der Series S häufig auf 60 fps. Die Series X und PS5 haben im High End Bereich das Ganze natürlich geändert.

Um sicher zu gehen, dass ich dich korrekt verstehe bzgl des letzten Satzes: bei 1080p und Medium Details ist der Speicher immer noch das Nadelöhr? Bedeutet man bekäme mehr als die 60 fps wenn man mehr Speicher hätte?
Relativ zur 570 und zur 1060 ordnet sich die Karte in Medium Details in etwa da ein, wo man sie anhand der Rohleistung verorten würde IMO - deshalb die Frage.

blaidd
2022-01-25, 11:38:00
Du könnest mit der RX 6500 XT prinzipiell etwas höhere Settings nutzen, als jene in den Benchmarks (zum Beispiel in Forza, da ginge tendenziell auch das Grafikpreset "hoch" gut). Wenn der knappe Speicher nicht wäre. Und z.B. in Far Cry kommt es mit Medium immer noch zum Speicherüberlauf (dann bricht auch die Leistung drastisch ein, selbst bei Medium auf ~30 Fps und darunter). Der Speicher ist im Prinzip eine zusätzliche, nochmals stärkere Limitierung als die eigentliche Leistung. Letztere ist eigentlich gar nicht so übel, wenn man (wie in den Benchmarks) die Details entsprechend anpasst... dann ordnet sich die Karte verglichen mit GTX 1060 und RX 570 tatsächlich in etwa ein, wo man sie anhand der Rohleistung (PI mal Daumen Xbox Series S oder PS4-Pro-Level - die können im Gegensatz zur RX 6500 XT aber auch höhere Auflösungen) einordnen würde.

Und ja, das ist tendenziell Low Quality. Es ist prinzipiell das unterste Einstiegslevel (betrachtend SOWOHL PC und Konsole) für aktuelle Gamer. Weniger (und trotzdem "Next-Gen") geht im Grunde nicht.

robbitop
2022-01-25, 11:46:49
OK - also reichen Medium Texturdetails fast immer, damit der VRAM nicht limitiert.

Also sind moderne IGPs und Geräte wie Steamdeck (und sämtliche Geräte diese Klasse) oder die extrem beliebte Nintendo Switch dann was für ein Quality Level? Sub Low Quality?
Ich will dir nicht zu nahe (ich mag deine Artikel sonst immer) treten aber ich finde die Ansicht (bezogen auf diesen speziellen Artikel) aus Sicht eines Enthusiasten nachvollziehbar aber aus Sicht des breiten Marktes der Spieler ein wenig abgehoben. Zumal das eine sehr subjektive Einordnung ist. Objektiv ist der Titel meiner Meinung "low quality gaming" nach jedenfalls nicht.

Um sicher zu gehen, dass mich niemand falsch versteht: Ich finde es gerechtfertigt, dass das Fazit zu der Karte im breiten Schnitt aller Reviews negativ ist. Denn sie ist für das Gebotene zu hoch eingeordnet im SKU Stack.

blaidd
2022-01-25, 11:56:29
OK - also reichen Medium Texturdetails fast immer, damit der VRAM nicht limitiert.

Also sind moderne IGPs und Geräte wie Steamdeck (und sämtliche Geräte diese Klasse) und die Nintendo Switch dann was für ein Quality Level? Sub Low Quality?
Ich will dir nicht zu nahe (ich mag deine Artikel sonst immer) treten aber ich finde die Ansicht (bezogen auf diesen speziellen Artikel) aus Sicht eines Enthusiasten nachvollziehbar aber aus Sicht des breiten Marktes der Spieler ein wenig abgehoben. Zumal das eine sehr subjektive Einordnung ist. Objektiv ist der Titel meiner Meinung "low quality gaming" nach jedenfalls meiner Meinung nach nicht.

Um sicher zu gehen, dass mich niemand falsch versteht: Ich finde es gerechtfertigt, dass das Fazit zu der Karte im breiten Schnitt aller Reviews negativ ist. Denn sie ist für das Gebotene zu hoch eingeordnet im SKU Stack.

Schon okay, ich finde dein Feedback btw. tatsächlich gut. Die Perspektive ist sicherlich ein strittiger Punkt. Aber ich schreibe ja im Grunde auch aus der Perspektive eines Enthusiasten - zumindest so ein bisschen. Eines kompromissbereiten Enthusiasten, vielleicht. Der Kompromiss besteht darin, dass ich die Karte mit angepassten Settings und ohne Raytracing und Co getestet habe.

Die Karte saugt halt trotzdem noch ein bisschen und bei den aufgerufenen Preisen kann ich das Teil auch überhaupt nicht empfehlen - nicht, wenn es eine Xbox Series S für 270 Euro gibt.

Und nein, Medium-Texturen allein reichen nicht. Nicht mal in Spielen, wo der Speicher FAST reicht (z.B. House of Ashes). Aber das ist mit Benchmarks schwierig zu zeigen, weil es sporadisch zu Einbrüchen kommt, Texturschwund auftritt etc. (Far Cry 6, das von der Leistung allein in den Benchmarks unauffällig wirkt - alle Karten gewinnen da auf Papier ähnlich viel Leistung, was man nicht sieht, sind die deutlich weniger drastisch auftretenden Ruckler und die trotz Medium-Details weniger matschigen Texturen).

pilzsammler2002
2022-01-25, 12:07:00
OK - also reichen Medium Texturdetails fast immer, damit der VRAM nicht limitiert.

Also sind moderne IGPs und Geräte wie Steamdeck (und sämtliche Geräte diese Klasse) oder die extrem beliebte Nintendo Switch dann was für ein Quality Level? Sub Low Quality?
Ich will dir nicht zu nahe (ich mag deine Artikel sonst immer) treten aber ich finde die Ansicht (bezogen auf diesen speziellen Artikel) aus Sicht eines Enthusiasten nachvollziehbar aber aus Sicht des breiten Marktes der Spieler ein wenig abgehoben. Zumal das eine sehr subjektive Einordnung ist. Objektiv ist der Titel meiner Meinung "low quality gaming" nach jedenfalls nicht.

Um sicher zu gehen, dass mich niemand falsch versteht: Ich finde es gerechtfertigt, dass das Fazit zu der Karte im breiten Schnitt aller Reviews negativ ist. Denn sie ist für das Gebotene zu hoch eingeordnet im SKU Stack.

Das ist meiner Meinung nach ein sogar eher wichtigerer Punkt...

Ich zocke halt z.B. viel auf meinem 5500U und ich sehe auch im Freundeskreis viele Laptop Entry User...

Natürlich habe ich ne Battlestation (mehrere) aber ich denke auch der Großteil wird halt einfach Laptop und Entry-PC sein...
Gerade ausserhalb von Europa und USA (Südamerika und Russland) sind super viele Leute mit z.B. noch nem 7850k und der iGPU davon unterwegs :freak:

Die Tests waren mir diesmal auch zu krass auf Enthusiast gemünzt, für welchen das Produkt definitiv nicht gedacht war... :biggrin:

Raff
2022-01-25, 12:09:11
Btw: Natürlich sind Switch & Co. "Low Quality", wenn die modernen Konsolen oder gar ein High-End-PC das Maß sind. Was denn sonst? Full HD war vor 15 Jahren cool, heutzutage ist das aber nur ... low quality ... Tetris ... eine Spar-Auflösung, die modernen Content frisst ... you name it.

MfG
Raff

Cyphermaster
2022-01-25, 12:52:36
Full HD war vor 15 Jahren cool, heutzutage ist das aber nur ... low quality ... Wir reden doch aber auch nicht von einer High-End-Gaming-Karte - warum müßte man also von einer aktuellen Low-End-Karte mehr als die aktuell verbreitete Low-End-Auflösung erwarten? Das ist nun mal real immer noch 1080p und nicht 1440p oder gar 4K+. Da nach dem zu urteilen, was du als Einstiegslevel "cool" fändest, finde ich etwas unsachlich. (/edit: Um es noch klarer rauszustellen - ich stoße mich da an dem permanenten "LOW QUALITY", das einem gefühlt wie ein vorweg genommenes Fazit zur Karte, nicht zum Segment, überall entgegenbrüllt. Oder wollt ihr das zukünftig bei ALLEN Karten in dem Segment so machen?)

Wenn man an dem Ding so herausgestellt kritisieren will, dann doch weniger eine für ihr Zielsegment nicht ausreichende Leistung (hat sie trotz aller Verkrüppelungen noch), sondern wenn, dann entweder ihren Preispunkt dafür, oder die Relationen zu möglichen Alternativen.