PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 16. Januar 2024


Leonidas
2024-01-17, 08:02:07
Link zur News:
https://www.3dcenter.org/news/news-des-16-januar-2024

Shink
2024-01-17, 08:32:51
(Für mich) spannendes Randthema. Kommt mir das nur so vor oder ist der Abstand zur RX5500XT sogar größer geworden? (Zumal die mit PCIe 3.0 getestet wurde und wegen x8-Anbindung davon durchaus ausgebremst wird.)

Leonidas
2024-01-17, 08:41:34
Die Abstände sind durchweg größer geworden. Aber im vertretbaren Rahmen. Zur 3060 nur deswegen größer, weil das 2022er Ergebnis Nonsens war.

basix
2024-01-17, 08:59:49
Was man wohl am eindeutigsten sieht: 8GByte sind am Ende. Die 3060 12GB zieht langsam davon.

Leonidas
2024-01-17, 09:42:51
Bin mir nicht sicher, ob dies nicht wieder zu gut dargestellt wird. Getestet wurde 1080p "Low", da sollte es keinen Effekt des VRAMs oberhalb 8GB geben.

Lehdro
2024-01-17, 13:28:20
Eine um -33% reduzierte Speicherbandbreite kann durchaus reinhauen, die Spiele werden immer bandbreitenlastiger.

Aroas
2024-01-17, 14:26:29
Die RX 6500XT war und ist schlichtweg totaler Müll.
Ich kann mir echt nicht erklären, warum man so ein Ding überhaupt kauft.
Mit der GTX 1650 gibt es die gleiche Leistung (aber mit x16 Anbindung) ab ca. 155€. Die 6500XT fängt hingegen erst bei ca. 170€ überhaupt an.
Wer aber 170€ für solch eine Karte ausgeben will/kann, der kann auch 205€ für eine weit bessere RX 6600 ausgeben.

Wenn ich mir da die Bewertungen bei Geizhals anschaue, die zum größten Teil tatsächlich positiv ausfallen und oftmals sogar noch ein "gutes" P/L Verhältnis attestieren, dann kann ich mir nur an den Kopf fassen.
Wie wenig Ahnung von bzw. Anspruch an ein Produkt muss man bitte haben, dass man dieses Ding positiv bewerten kann?
Ja, die Karte ist nicht so unfassbar teuer wie viele andere Modelle, aber auch 170€ sind nicht wenig Geld. Auch dafür hätte ich persönlich durchaus eine passable FullHD Karte, mit der nicht nur Sachen wie LoL oder Dota 2 flüssig laufen.

Wer nicht gebraucht kaufen will, dennoch aber möglichst günstig, für den heißt die erste Wahl ganz eindeutig RX 6600.

bad_sign
2024-01-17, 15:22:06
Einzige Grund RX6500/6400 vs GTX 1650 ist höchstens der AV1 decode, sonst halt die billigere

MiamiNice
2024-01-17, 15:23:51
Wie wenig Ahnung von bzw. Anspruch an ein Produkt muss man bitte haben, dass man dieses Ding positiv bewerten kann?


Das denke ich mir bei fast jedem Hardware, Spiele, oder sonstwas Test. Alles gekaufte Meinungen / Bewertungen / Tests. Geld regiert die Welt.

Gast
2024-01-17, 15:44:27
Vielleicht brauchen die Leute ja nur eine Grafikkarte zwecks der Bildausgabe, multi Monitor, av1? Es gibt schon viele PCs/CPUs ohne integrierte gpu, und wenn die alte kaputt geht, nimmt man halt die billigste, die ohne 6 pin läuft. Die 6600 braucht schon ein 6 pin oder? Oder die Leute wollen einfach nur ihre alten Spiele weiter spielen und brauchen nicht mehr Power oder wollen nicht mehr Verbrauch?
Es gibt schon use cases für diese Karten, leider ist der Preis zu hoch, das stimmt, dafür hätte man vor 10 Jahren noch eine midrange GeForce 460 gekriegt ^ ^ krank aber leider wahr. Aber mittlerweile sind die integrierten Lösungen sowohl von AMD (780m), als auch Intel (meteor lake) so gut, dass man diese Einstiegskarten nicht mehr benötigt, wenn man neu kauft. Vor allem finde ich diese ganzen Mini PCs mit den mobile CPUs toll für die Allgemeinheit. Und wenn ein tb4 Port dabei ist kann man auch eine egpu drauf peppen bei Bedarf.

Gastronom
2024-01-17, 16:19:15
Kenn so low-budget GPUs eigentlich nur aus Industrie PCs die 24/7 laufen, meist ein Xeon CPU verbaut war. Dienten nur der Bildausgabe.
Dafür sind sie gut, aber bestimmt nicht zum spielen.

Dino-Fossil
2024-01-17, 16:53:05
https://imgs.xkcd.com/comics/cutting_edge.png

Shink
2024-01-17, 17:15:11
Einzige Grund RX6500/6400 vs GTX 1650 ist höchstens der AV1 decode, sonst halt die billigere
Als Linux-User widerspreche ich. Die NVidia Treiber sind ziemlich invasiv. Mir ist egal, dass sie Binary-Blobs sind aber gut funktionieren tun sie nicht. Hochfahren dauert länger, weniger Desktop-Features, mehr Latenz (in 2D-Anwendungen:freak:).

Platos
2024-01-17, 17:22:12
Jo, kann ich bestätigen, aber Linux-User sind ne irrelevante Minderheit.

bad_sign
2024-01-17, 18:02:27
Dann wirds doch eine 6400 für rein Display oder ne 6600 für Gaming
Zumindest die 6500er hat keine Berechtigung

Für ersten Fall wird es dünn, denn jede* neue Consumer CPU hat ne IGPU

*F-Modelle

Aroas
2024-01-17, 18:41:02
Oder die Leute wollen einfach nur ihre alten Spiele weiter spielen und brauchen nicht mehr Power oder wollen nicht mehr Verbrauch?


In dem Falle nimmt man halt die GTX 1650. Niemand, wirklich niemand braucht die 6500XT.

Aber wenn man halt bspw. mal die Bewertungen bei Geizhals liest, dann sind diese eben von Leuten, die mit der GPU zocken.
Das sind keine Nutzer mit ausgefallenem Anwendungsszenario. Nein, es sind Spieler.
Aber gerade für Spiele ist das Ding totale Grütze.

Da stellt sich mir halt unweigerlich die Frage, wie anspruchslos diese Leute sein müssen, wenn sie für (aktuell) ab 170€ solch eine Karte kaufen und dann diese lächerlichen Leistungsergebnisse erzielen. Und dann auch noch davon reden, dass das P/L Verhältnis "gut" oder gar "top" sei.
Das tut ja schon richtiggehend weh, wenn man sowas liest.

Leonidas
2024-01-18, 02:45:18
Bei allen größeren Plattformen im Netz mit Bewertungsmöglichkeit muß man damit rechnen, dass die Hersteller-Firmen bezahlte Troll-Armeen im Hintergrund darauf ansetzen. Muß nicht im jedem Fall so sein, aber ist jederzeit eine Möglichkeit.

Platos
2024-01-18, 03:42:40
Ja, ist leider so.

Echte Bewertungen zu erkennen ist eine Kunst.

held2000
2024-01-18, 05:53:42
Vom Preis her geben sich beide Karten nicht viel

Was für die AMD 6500 XT spricht die GK ist moderner
Gut die Leistung beim Zocken liegt min ein wenig unter GTX 1650 Niveau
unschön das die GK nochmal Leistung beim PCI_E 3.0 Betrieb verliert.

Insgesamt ein GK die man kaufen kann, es muss nicht unbedingt NV sein.

LG :)

Gast
2024-01-18, 08:31:08
Das schlimmste an der 6500 XT ist doch, dass diese gezielt für Budget-Kisten abzielt ... und diese sind eben häufig Low-End Plattformen oder veraltete Plattformen. Da MUSS man fest damit rechnen, dass ein Großteil der Zielkundschaft nur PCIe 3.0 zur Verfügung hat.

held2000
2024-01-18, 09:59:49
Das schlimmste an der 6500 XT ist doch, dass diese gezielt für Budget-Kisten abzielt ... und diese sind eben häufig Low-End Plattformen oder veraltete Plattformen. Da MUSS man fest damit rechnen, dass ein Großteil der Zielkundschaft nur PCIe 3.0 zur Verfügung hat.



..............
..............
unschön das die GK nochmal Leistung beim PCI_E 3.0 Betrieb verliert.

.............

LG :)

ja das ist ärgerlich.....PCI_E 4.0 gibt es bei AMD ab Board_s mit B550 Chipsatz
es ist zwar nicht der neuste Chipsatz ,aber richtig alt ist der auch nicht.

Für PCI_E 3.0 Boards ist die GK evtl. nicht die richtig Wahl, hier kommt
es wohl auf den Verwendungszweck an.
Solange der interne GK Speicher ausreicht, gibt es ja keinen Unterschied.

LG :)

Shink
2024-01-18, 10:31:15
ja das ist ärgerlich.....PCI_E 4.0 gibt es bei AMD ab Board_s mit B550 Chipsatz
es ist zwar nicht der neuste Chipsatz ,aber richtig alt ist der auch nicht.
Es sind 2024 noch neue CPUs ohne PCIe4-Support erschienen (z.B. Ryzen 5600GT).

Ich finde die RX6500 nicht verwerflich, für mich war mal ein Laptop mit RX6500M in engerer Auswahl (wegen Linux-Treibern und weil man am Notebook ohnehin oft nur 4GiB VRAM hat). Ist halt ein Kind ihrer Zeit. Die zeitgleich (viel teurer) erschienene RTX 3050 war auch kein gutes Produkt.

held2000
2024-01-18, 12:34:58
AMD Ryzen 5500GT/5600GT sind das nicht APUs ?

LG :)

Shink
2024-01-18, 13:25:18
AMD Ryzen 5500GT/5600GT sind das nicht APUs ?

LG :)
Ja, bei AM5 gibt's "quasi" nur APUs bisher. Und?

held2000
2024-01-18, 14:08:07
zb 5600GT ist eine Sockel AM4 APU, gut man kann da auch ne Grafikkarte verwenden.
Die meisten werden wohl die integrierte GPU benutzen, da wäre ja der Nachteil das M2 SSD mit max PCI_E 3.0 Geschwindigkeit laufen.
Für die meisten müsste es wohl trotzdem schnell genug sein.


LG :)

bad_sign
2024-01-18, 18:05:52
Ein Cezanne kann kein AV1 in HW decoden. Die CPU ist zwar mehr als stark genug und für den Preis einer 6500XT kann man viele Jahrzehnte den Mehrpreis der Stromrechnung zahlen, aber die 65 wäre eine Option dies HW zu beschleunigen

held2000
2024-01-18, 22:26:06
Das sind doch eigentlich Mobile APUs, die sind auch in der Desktop Version
recht sparsam....wenn man nicht die ganze Zeit nur Videos schaut
glaube ich kaum das sich das grossartig im Verbrauch niederschlägt. LG :)