PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 5500 Serie Reviews


Seiten : [1] 2

Benutzername
2019-11-21, 18:26:27
Ich fange mal an mit diesem kurzen Test bei Heise:

https://www.heise.de/newsticker/meldung/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test-4593652.html

Leonidas
2019-11-22, 07:41:14
Hoffen wir, das es mehr und besser wird mit den Tests.

Denn mit diesem kann man nix anfangen - Heise haben noch nicht einmal seriös nachgeprüft, ob sie da nicht wirklich eine Radeon RX 5300 XT testen ...

Raff
2019-11-22, 08:14:39
Dann wäre der kleine Navi ja gigantisch schnell -> unwahrscheinlich.

MfG
Raff

konkretor
2019-11-22, 08:18:48
wenigstens hat der Benjamin Kraft es getestet, er ist ja schon lange dabei und hat damals thg/rivastation die Texte übersetzt.


Glaube den Fischer haben sie abgesägt bei Heise der darf keine Graka Test mehr machen :D :P



Hoffe auch das endlich mehr test kommen
Effizienz scheint auch gut bis sehr gut zu sein bei der Graka :-)

Daredevil
2019-11-22, 12:25:55
Gleiche Leistung für 40% weniger Saft ist nice, damit lockt man aber auch keine Wechsler von Polaris mehr aus dem Keller. :<
Hoffe doch stark, dass das kein Nachfolger sein soll, wie die Karte auch immer heißt.

benkraft
2019-11-22, 12:58:07
Hoffen wir, das es mehr und besser wird mit den Tests.

Denn mit diesem kann man nix anfangen - Heise haben noch nicht einmal seriös nachgeprüft, ob sie da nicht wirklich eine Radeon RX 5300 XT testen ...

Hi Leonidas,

natürlich habe ich das überprüft. Beim Hersteller, per GPU-Z, im Treiber, per Leistung -- und auch die technischen Daten passen exakt zu dem, was AMD in seiner Präsentation vorgestellt hat. Wo ist das nicht seriös? Aber gut, nun weiß ich in etwa, was du von meine Fähigkeiten hältst. Alles klar.

Was den Umfang anbelangt: Wir wollen ja auch noch ein Heft verkaufen und können Inhalte nicht verschenken. Wenn Partnerkarten verfügabr sind, kommt auch noch einmal mehr.

Zudem finde ich es unsinnig, eine OEM-Karte, die niemand einzeln kaufen kann, jetzt noch weiter zu testen. Die Partnerkarten werden andere Lüfter nutzen und andere Power-Limits setzen, was sich auf Lautstärke und Performance auswirkt.

Dino-Fossil
2019-11-22, 14:01:39
Hoffe doch stark, dass das kein Nachfolger sein soll, wie die Karte auch immer heißt.

Denke als echten Nachfolger für die 580 ist die Performance zu niedrig angesetzt. Die 5700er sind andererseits (noch) zu teuer. So gesehen hat AMD zur Zeit mit ihren Navi-Chips eigentlich keinen richtigen Ersatz dafür im Angebot.
Vielleicht ändert sich das, falls eine 5600 kommt.

Perf/Watt finde ich ok, aber auch nicht überragend. Schon im Vergleich mit einer Polaris10 @stock wirkt es mMn nicht mehr ganz so toll. Wobei man auch beachten muss, dass der kleine Navi die Leistung mit deutlich weniger CUs stemmt. Dahingehend hat sich bei Navi mMn doch einiges getan.

@benkraft:
Kannst du was dazu sagen, welche Frequenz beim Spielen ungefähr anlag?

Raff
2019-11-22, 15:02:18
Die Konkurrenz hat gerade Retail-Ware vorgelegt: Nvidia Geforce GTX 1650 Super im Test: Erste Benchmarks der 160-Euro-Grafikkarte (https://www.pcgameshardware.de/Geforce-GTX-1650-Super-Grafikkarte-275577/Tests/Review-1337614/)

"Printmedium" hängt as Internet ab. :tongue:

MfG
Raff

Lowkey
2019-11-22, 15:15:13
Hmm die Leute in den Videovorschaubildern schauen immer komisch und schneiden Grimassen. Würde RAFF das auch machen, dann erhöht das die Klicks.

Raff
2019-11-22, 15:17:04
Etwa so? Influenza-Style!

Awesome, awesome! Just buy it!

https://www.getdigital.de/web/getdigital/gfx/products/__generated__resized/380x380/Aufkleber_Trollface.jpg

MfG
Raff

Lowkey
2019-11-22, 15:20:19
Jo genau so. Wenn du das Gesicht mit deinem Gesicht in Einklang bringen kannst, dann ... aber bitte ohne Photoshop.

Nee, die Worte zählen nicht. Du musst auch daran denken, dass alle Menschen nicht deutsch oder englisch oder lesen oder schreiben können. Hauptsache das Titelbild ist ein Aufreißer ;)

Leonidas
2019-11-22, 15:31:37
natürlich habe ich das überprüft. Beim Hersteller, per GPU-Z, im Treiber, per Leistung -- und auch die technischen Daten passen exakt zu dem, was AMD in seiner Präsentation vorgestellt hat. Wo ist das nicht seriös? Aber gut, nun weiß ich in etwa, was du von meine Fähigkeiten hältst. Alles klar..


Entschuldige bitte, das war etwas flapsig geschrieben. Das ist hier aber auch ein Forum - da kann man solche Aussagen nicht auf die Goldwaage legen, das solltest Du reinrechnen. Ich habe damit nix zu Deinen Fähigkeiten oder denen von Heise sagen wollen. Interpretiere da bitte nicht zu viel rein.

Allerdings muß ich inhaltlich sagen: Ob Du das geprüft hast - gut und schön. Es steht davon nichts im Text. Nur das zählt, was da steht. Da stehen weder Specs der konkreten Karte noch ist ein GPU-Z-Screenie zu finden. Es ist somit nicht belegt, was die konkret vorliegende Karte kann. Ob Du es weisst ... gut und schön, was zählt ist der Text.

dildo4u
2019-11-22, 15:47:38
Warum sollte man mehr erwarten der Name sagt es doch die GPU war dazu da die 1650 deutlich zu schlagen,nur hat Nvidia schon nachgelegt.
Die RX5500 macht wie die 1650 imo im Notebook deutlich mehr sinn zumindest die Variante die Apple bekommen hat.(Mehr CUs,geringer Takt)

benkraft
2019-11-22, 17:02:30
Entschuldige bitte, das war etwas flapsig geschrieben. Das ist hier aber auch ein Forum - da kann man solche Aussagen nicht auf die Goldwaage legen, das solltest Du reinrechnen. Ich habe damit nix zu Deinen Fähigkeiten oder denen von Heise sagen wollen. Interpretiere da bitte nicht zu viel rein.

Allerdings muß ich inhaltlich sagen: Ob Du das geprüft hast - gut und schön. Es steht davon nichts im Text. Nur das zählt, was da steht. Da stehen weder Specs der konkreten Karte noch ist ein GPU-Z-Screenie zu finden. Es ist somit nicht belegt, was die konkret vorliegende Karte kann. Ob Du es weisst ... gut und schön, was zählt ist der Text.

Auf die Gefahr hin, jetzt megaoberlehrerhaft zu klingen: Auch in einem Forum sollte man auf die Wortwahl achten. Wenn du unterstellst, heise arbeitet nicht seriös, dann muss ich das ernst nehmen — und als verantwortlicher Redakteur auch persönlich. Speziell in Tagen wie diesen, wo man Journalisten immer wieder vorwirft, ungenau oder einseitig zu arbeiten, darf man das "nicht seriös" nicht mal eben so sagen und es nicht meinen. Und wenn du meinst, ich bin da überempfindlich und das sei alles weit weg (für uns): In Hannover, wo heise-Verlag und c’t-Redaktion ihren Sitz haben, demonstriert morgen die NPD gegen Journalisten (https://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Verwaltungsgericht-Hannover-NPD-darf-demonstrieren,npddemo146.html).

Was die anderen Punkte anbelangt: Oben im Artikel liste ich noch mal die vollständigen Specs der RX 550 auf und sage dann, unsere Karte hat nur 4 GByte RAM. Hätte es weitere Abweichungen von AMDs Eckdaten gegeben, hätte ich das natürlich sofort geschrieben und HP um die Ohren gehauen. Genau DAFÜR steht doch heise, das ist unser Selbstverständnis, solche Dinge aufzuzeigen — etwa wenn Hersteller Produkte unter falschem Label verkaufen. Aber dieselben Specs noch einmal weiderzukäuen, nur um zu sagen "Jo, stimmt so" ist m.E. nicht sinnvoll. Du hast aber Recht: Ein GPU-Z-Screenie hätte die ganze Situation entschärft. Den reiche ich am Montag nach (bin schon zu Hause).

benkraft
2019-11-22, 17:07:20
Im 3DMark-Stresstest waren es 1844 MHz, mit Furmark zum ankokeln 1724 MHz. Wie geschrieben kommt eine weitere Analyse dann, wenn es Partnerkarten gibt. :)

Raff
2019-11-22, 17:09:16
Also ich finde die Aktion prima und hasse mich etwas dafür, dass ich nicht selbst darauf gekommen bin. :D

MfG aus der Totholz-Crunchtime,
Raff, der bis Dezember wartet

SKYNET
2019-11-22, 17:12:58
Gleiche Leistung für 40% weniger Saft ist nice, damit lockt man aber auch keine Wechsler von Polaris mehr aus dem Keller. :<
Hoffe doch stark, dass das kein Nachfolger sein soll, wie die Karte auch immer heißt.

120W verbraucht auch meine RX580... ist aber schneller :tongue:

und klar kann man die navi sicherlich auch noch undervolten... aber der käufer schaut auf den balken, sieht die RX580 ist schneller, schaut dann bei geizhals und sieht die ist auch noch günstiger... also kauft der die RX580...

das teil darf als 8GB custom version, MAXIMAL 150€*kosten, ansonsten bleiben die dinger wie blei in den regalen liegen.

SKYNET
2019-11-22, 17:13:22
Im 3DMark-Stresstest waren es 1844 MHz, mit Furmark zum ankokeln 1724 MHz. Wie geschrieben kommt eine weitere Analyse dann, wenn es Partnerkarten gibt. :)

mal undervolting angetestet?

Daredevil
2019-11-22, 17:18:53
120W verbraucht auch meine RX580... ist aber schneller :tongue:

und klar kann man die navi sicherlich auch noch undervolten... aber der käufer schaut auf den balken, sieht die RX580 ist schneller, schaut dann bei geizhals und sieht die ist auch noch günstiger... also kauft der die RX580...

das teil darf als 8GB custom version, MAXIMAL 150€*kosten, ansonsten bleiben die dinger wie blei in den regalen liegen.

Sagen wir es doch, wie es ist.
Die getestete Karte ist eine GTX1060 mit 4GB RAM. :D

maximus_hertus
2019-11-22, 17:27:35
Also GTX 1060 mit nur 4GB, ähnliche 120-130W und fast 40 Monate später.

Der Preis ist da natürlich ein wichtiger Faktor, jedoch halte ich es für quasi ausgeschlossen, dass wir einen attraktiven Preis für diese Karte sehen werden. Attraktiv wäre 120-130 Euro. Ich gehe jedoch von 175-200 Euro aus.

Die GTX 1650 Super scheint ja die 5500er obsolet zu machen. Schneller, Effizienter, 160 Euro.

Aber warten wir mal auf großflächige Reviews, dann gibt es ein besseres Bild.

Leonidas
2019-11-22, 17:32:54
Auf die Gefahr hin, jetzt megaoberlehrerhaft zu klingen: Auch in einem Forum sollte man auf die Wortwahl achten. Wenn du unterstellst, heise arbeitet nicht seriös, dann muss ich das ernst nehmen — und als verantwortlicher Redakteur auch persönlich.


Tut mir leid & ich bitte um Entschuldigung.

Meine Wortwahl entsprang wohl der Enttäuschung, das ich nach diesem Text mehr Fragen als Antworten hatte. Wenn Du Dich hier nicht mit einer Klarstellung zurückgemeldet hättest, wäre mir unklar gewesen, ob es wirklich eine Radeon RX 5500 war - und nicht doch eine Radeon RX 5300 XT. Immerhin gibt es auch eine Radeon RX 5300M, da ist so eine Desktop-Version jederzeit denkbar (und wurde auch früher schon mehrfach genannt). Meine Bedenken kommen daher nicht einfach nur aus einer anderen Lesart des Texts, sondern aus der Kombination der Punkte Text, schwache Benchmarks und Wissen um eine potentielle Radeon RX 5300 XT.

Zur Frage der Seriösität: Ich habe da hart geurteilt, vielleicht zu hart. Die Wortwahl "seriös" ist nur für den einen Akt der nicht gänzlich perfekten Darlegung der Kartendaten gemeint gewesen und nicht generell auf Heise gemünzt. Ich würde es auch nie auf Heise im generellen bezogen meinen - insofern ist mir dieser Gedanke auch gar nicht gekommen, das Du es derart auslegen würdest.

benkraft
2019-11-22, 18:04:41
Alles klar. Ich bin da (aus dem besagten Anlass) zugegebenermaßen auch gerade besonders dünnhäutig. Sorry. Wie gesagt: Ich ergänze am Montag einen Screenie. Andere Experimente auch bzgl. Undervolting müssen aber vorerst noch warten; es gibt leider einfach gerade zu viel zu tun. Im Dezember entstehen mehrere Ausgaben von c’t gleichzeitig, vom Sonderheft ganz zu schweigen.

Zur 5300 XT: Interessanterweise beteuerten mir gegenüber mehrere Hersteller, von einer solchen Karte nichts zu wissen. Dabei wäre die ebenso ein No-Brainer wie eine (oder mehrere?) Karten zwischen der 5500 und der 5700....

Leonidas
2019-11-22, 18:08:26
Der besagte Anlaß ist nur traurig. Kann ich verstehen, das man da dünnhäutiger reagiert.

Unicous
2019-11-22, 19:47:53
TPU hat anscheinend auch den "HP-Trick" angewandt, zumindest sind sie, wie auch immer, an eine OEM-Version von PCPartner gekommen:

https://www.techpowerup.com/review/amd-radeon-rx-5500/

DrFreaK666
2019-11-22, 20:02:48
Da sieht es im Vergleich zur 1650 Super ja nicht schlecht aus. Ich hoffe jedoch dass AMD da noch ein paar Prozent schneller werden kann oder der Preis unter der 1650 Super liegen wird

mczak
2019-11-22, 22:12:44
Das Speichermanagement bei Situationen mit zu wenig vram scheint etwas verbesserungswürdig zu sein. Sieht man bei dem Test z.B. in Borderlands 3, The Surge 2, Wolfenstein - da sind klar speicherlimitierte Szenarien dabei, sieht man am offensichtlichsten durch den grossen Abstand der RX 570 zur RX 580, und in all diesen Fällen fällt die RX 5500 noch hinter die RX 570 zurück. Dachte eigentlich da müsste Navi (wie auch theoretisch Vega) Vorteile gegenüber Polaris haben.

Unicous
2019-11-22, 22:27:41
Stimmt, ich habe den Test nur überflogen und das ist mir gar nicht aufgefallen. Das ist in der Tat sehr merkwürdig.

Von den Specs her dürfte das eigentlich gar nicht passieren, ich würde schätzen, dass eher der Treiber hier Probleme macht, die 5500 müsste in solchen Szenarien mindestens gleichauf sein, die Bandbreite ist dank GDDR6 gleich der 570.

Oder wurde sie (wie bei Apple auch) auf 96Bit beschränkt und das wurde einfach nicht geprüft? Wir reden ja von einer OEM-Version und nicht Retail.
Aber dafür sind die anderen Ergebnisse dann wieder "zu gut". :uponder:

edit:

Da muss etwas im Argen liegen, AMD behauptet die 5500 würde z.B. bei Borderlands 3 deutlich vor der 1650 liegen:

https://scr3.golem.de/screenshots/1910/Radedon-RX-5500/Radedon-RX-5500(M)-02.png
https://www.golem.de/news/navi-14-grafikkarte-amd-stellt-radeon-rx-5500-vor-1910-144244.html

Ach crap, habe gerade Wolfenstein Ergebnisse mit Borderlands verglichen.:freak:

Corny
2019-11-22, 22:34:15
96bit kann doch bei 4 Speicherchips gar nicht sein.

Unicous
2019-11-22, 22:38:25
Ja, war ein brainfart. Habe nicht an die Speicherbestückung gedacht, nur dass Apple eine abgespeckte Variante hat.:uhammer:

hq-hq
2019-11-22, 22:59:39
Auf die Gefahr hin, jetzt megaoberlehrerhaft zu klingen: Auch in einem Forum sollte man auf die Wortwahl achten. Wenn du unterstellst, heise arbeitet nicht seriös, dann muss ich das ernst nehmen — und als verantwortlicher Redakteur auch persönlich. Speziell in Tagen wie diesen, wo man Journalisten immer wieder vorwirft, ungenau oder einseitig zu arbeiten, darf man das "nicht seriös" nicht mal eben so sagen und es nicht meinen. Und wenn du meinst, ich bin da überempfindlich und das sei alles weit weg (für uns): In Hannover, wo heise-Verlag und c’t-Redaktion ihren Sitz haben, demonstriert morgen die NPD gegen Journalisten (https://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Verwaltungsgericht-Hannover-NPD-darf-demonstrieren,npddemo146.html).

Was die anderen Punkte anbelangt: Oben im Artikel liste ich noch mal die vollständigen Specs der RX 550 auf und sage dann, unsere Karte hat nur 4 GByte RAM. Hätte es weitere Abweichungen von AMDs Eckdaten gegeben, hätte ich das natürlich sofort geschrieben und HP um die Ohren gehauen. Genau DAFÜR steht doch heise, das ist unser Selbstverständnis, solche Dinge aufzuzeigen — etwa wenn Hersteller Produkte unter falschem Label verkaufen. Aber dieselben Specs noch einmal weiderzukäuen, nur um zu sagen "Jo, stimmt so" ist m.E. nicht sinnvoll. Du hast aber Recht: Ein GPU-Z-Screenie hätte die ganze Situation entschärft. Den reiche ich am Montag nach (bin schon zu Hause).


OMG eine DEMO wie schrecklich ;D


Ernsthaft, der Artikel ist gut, ein GPUz Screenshot wäre freaky.
Ich an deiner Statt hätte da eine dicke Haut.

SKYNET
2019-11-22, 23:02:21
96bit kann doch bei 4 Speicherchips gar nicht sein.


64bit :freak:

iuno
2019-11-23, 02:11:33
Zur 5300 XT: Interessanterweise beteuerten mir gegenüber mehrere Hersteller, von einer solchen Karte nichts zu wissen. Dabei wäre die ebenso ein No-Brainer wie eine (oder mehrere?) Karten zwischen der 5500 und der 5700....
Hattest du denn auch bei HP selbst nachgefragt?
Vielleicht erstmal eine naive Frage nach den kompletten technischen Daten der 5300 und dann der freundliche Hinweis auf die falsche Kennzeichnung? ;p

dildo4u
2019-11-23, 05:42:15
Da sieht es im Vergleich zur 1650 Super ja nicht schlecht aus. Ich hoffe jedoch dass AMD da noch ein paar Prozent schneller werden kann oder der Preis unter der 1650 Super liegen wird
Die Super scheint deutlich besser mit den 4GB klar zu kommen.

Bei Wolf ist es extrem schlimm die 580 ist bei 120fps vs 63 für RX 5500.

https://www.techpowerup.com/review/amd-radeon-rx-5500/26.html

AC: Odyssey RX5500 25ps vs 1650 Super 42fps.

https://www.techpowerup.com/review/amd-radeon-rx-5500/6.html

benkraft
2019-11-23, 10:01:10
Witzige Geschichte: Eigentlich hatte ich das Testgerät (HP Pavilion TP01-0004ng) geordert, eben WEIL er eine RX 5300 XT enthalten sollte, die ja im Unterschied zur RX 5500 noch nicht mal irgendwo angekündigt ist. Dann meldete sich HP aber und sagte, man habe sich inzwischen für eine andere Grafikkarte entschieden, eben die RX 5500. Man wisse aber, dass die Produktseite immer noch die falsche Karte erwähne.

Hakim
2019-11-23, 11:18:52
Mal den techpowerup review reingezogen und es ist leider schon enttäuschend. Leistungsmäßig und von der Effizienz sehr nah an der gtx1060, eine Karte die vor über 3 Jahren kam und in 16nm produziert wurde

iuno
2019-11-23, 14:28:33
@benkraft: Alles klar. Ich muss schon auch sagen, die Zweifel daran, dass es wirklich eine 5500 ist, haette man von vorneherein beseitigen koennen. Du hattest ja die Gewissheit aus hinreichend Infos, im Artikel kam das aus meiner Sicht nicht so rueber.

@Hakim: Das weiss man schon seit Navi 10. Wa shattest du erwartet?

Hakim
2019-11-23, 14:50:43
@iuno ehrlich gesagt einen ähnlichen unterschied wie vom 5700xt zum GTX1080, da so 15%+, aber ich sehe auch das der 5700xt entsprechend mehr verbraucht als der 1080er, hatte im Kopf das die 5700xt in etwa gleich verbraucht bei mehrleistung, war wohl die 5700nonXT

DrFreaK666
2019-11-23, 15:18:52
Die Super scheint deutlich besser mit den 4GB klar zu kommen.

Bei Wolf ist es extrem schlimm die 580 ist bei 120fps vs 63 für RX 5500.

https://www.techpowerup.com/review/amd-radeon-rx-5500/26.html

AC: Odyssey RX5500 25ps vs 1650 Super 42fps.

https://www.techpowerup.com/review/amd-radeon-rx-5500/6.html

Ja, ich ging von dem Gesamtergebnis aus und so gesehen ist die 5500 kaum schlechter. Dass sie bei ein paar Spielen extrem schlechter ist, ist mir bewusst. Und genau da sollte AMD schneller werden

Sumpfeule
2019-11-23, 16:43:52
Ich gebe mal meinen Senf dazu:
2lFFwjeSuFc
sNJwVrmNgpE
FdNge1uszXs
-bv0r1y26EI

y33H@
2019-11-23, 19:40:06
Hab die Geforce GTX 1650 Super nun online:

https://www.golem.de/news/geforce-gtx-1650-super-im-test-kleine-super-karte-hat-grosse-konkurrenz-1911-145033.html

Voraussichtlich am Dienstag folgt dann die Radeon RX 5500 :)

Benutzername
2019-11-24, 02:53:56
Gleiche Leistung für 40% weniger Saft ist nice, damit lockt man aber auch keine Wechsler von Polaris mehr aus dem Keller. :<
Hoffe doch stark, dass das kein Nachfolger sein soll, wie die Karte auch immer heißt.

Von Polaris wechseln ergibt nicht so viel SInn. Gibt aber viele Leute die einfach nur einen FullHD Monitor haben und den nicht neu kaufen wollen for 1440p oder 4k. Ich wäre so ein Kandidat mit meiner GTX960 OC zum Bleistift. Viele andere haben nur die onboardgrafikvon intel. Also da gibt es genug Markt wie Ich finde auch abseits des Komplett-PCs.


Witzige Geschichte: Eigentlich hatte ich das Testgerät (HP Pavilion TP01-0004ng) geordert, eben WEIL er eine RX 5300 XT enthalten sollte, die ja im Unterschied zur RX 5500 noch nicht mal irgendwo angekündigt ist. Dann meldete sich HP aber und sagte, man habe sich inzwischen für eine andere Grafikkarte entschieden, eben die RX 5500. Man wisse aber, dass die Produktseite immer noch die falsche Karte erwähne.

Kann es sein, daß AMD da seine Produkte geändert und die 5300xt gestrichen und durch die 5500 erstzt hat? :confused:

SKYNET
2019-11-24, 14:51:47
5300er kommt bestimmt noch... wird bestimmt ne karte ohne zusätzlichen stromanschluss...

Benutzername
2019-11-24, 18:05:52
5300er kommt bestimmt noch... wird bestimmt ne karte ohne zusätzlichen stromanschluss...

Ich hatte schon bewusst XT geschrieben. Kann ja sein daß sich AMD da nciht die Arbeit mit de binning machen will. Oder/und der OEM hat sich im letzten moment umentschieden, was er verkaufen will.

Daß eine 5300 kommt steht so ziemlich fest.

benkraft
2019-11-25, 10:08:34
Der GPU-Z-Screenshot ist jetzt eingebaut.

Benutzername
2019-11-25, 17:08:35
Der GPU-Z-Screenshot ist jetzt eingebaut.

Cool. :)



Der Artikel zur rx5500 scheint ja ganz schön herumzukommen.

Popeljoe
2019-11-25, 19:03:49
Mittlerweile laufen ja auch die Spekulationen zur 5500XT und 5600/5700XL an. Mich nervt es mittlerweile doch sehr, dass AMD mit seinen Karten nicht aus dem Knick kommt. Und nach den bisher gezeigten Leistungen, ist die normale 5500 mir einfach zu lahm. AMD hat mit der 5700er serie was in der oberen Mittelklasse, aber die 5500 ist schlichtweg nur eine Einsteigerkarte und dazwischen ein großes Nichts, welches nur von NV besetzt wird. Die alten 570/80/90 schließe ich jetzt einfach mal aus, weil alt.

Benutzername
2019-11-25, 19:42:06
Mittlerweile laufen ja auch die Spekulationen zur 5500XT und 5600/5700XL an. Mich nervt es mittlerweile doch sehr, dass AMD mit seinen Karten nicht aus dem Knick kommt. Und nach den bisher gezeigten Leistungen, ist die normale 5500 mir einfach zu lahm. AMD hat mit der 5700er serie was in der oberen Mittelklasse, aber die 5500 ist schlichtweg nur eine Einsteigerkarte und dazwischen ein großes Nichts, welches nur von NV besetzt wird. Die alten 570/80/90 schließe ich jetzt einfach mal aus, weil alt.

Ja ist etwas unschön, aber die ollen Polaris fallen eben genau dazwischen und in RDR2 zeigen sie ja durchaus brauchbare Leistung angesichts Preis, Alter etc. Von daher würden AMD sich ja selbst Konkurrenz machen. Und keine Ahnung wie die Situation mit freier 7nm Produktion aussieht für AMD.


Eine 5600 um die Lücke zu stopfen wäre schon schöner natürlich und es hat mich etwas überascht, daß die 5500 und 5300 tatsächlich Navi chips sind und nicht ein Polaris refresh. Würde mich auch nicht wundern wenn es für Asien, Afrika, Südamerika nochmal einen Polaris refresh gäbe. Gab ja im Sommer schon die rx640 Polaris für OEMs iirc.

konkretor
2019-11-25, 19:50:44
Durch den GPU-Z Screenshot ist vieles klarer


top!

Benutzername
2019-11-25, 20:55:52
Der frisch erschienene Linux Kernel 5.4 enthält schon einen stable Treiber für die RX5500. AMD meint es wirklich ernst mit dem Linux support.

https://www.heise.de/ct/artikel/Linux-5-4-freigegeben-exFAT-Support-und-Einschraenkungen-fuer-Root-4541639.html?seite=4

aufkrawall
2019-11-25, 21:18:05
Ist halt nur Navi 10 in kleiner, da hält sich der Aufwand in Grenzen.

Pirx
2019-11-25, 21:22:48
Mittlerweile laufen ja auch die Spekulationen zur 5500XT und 5600/5700XL an. Mich nervt es mittlerweile doch sehr, dass AMD mit seinen Karten nicht aus dem Knick kommt. Und nach den bisher gezeigten Leistungen, ist die normale 5500 mir einfach zu lahm. AMD hat mit der 5700er serie was in der oberen Mittelklasse, aber die 5500 ist schlichtweg nur eine Einsteigerkarte und dazwischen ein großes Nichts, welches nur von NV besetzt wird. Die alten 570/80/90 schließe ich jetzt einfach mal aus, weil alt.
V56 gibts auch noch

Lyka
2019-11-25, 21:24:35
Ist die V56 nicht so ne Kreischkarte? Ich war daran interessiert, musste aber immer wieder lesen, dass diese sehr laut sei :|

Der Sandmann
2019-11-25, 21:31:28
Gibt eh nur noch 2 (Neuware) 56er unter 300€.

Bei über 300€ lohnt die Karte meiner Meinung nach nicht mehr.

Ravenhearth
2019-11-25, 21:34:16
Ist die V56 nicht so ne Kreischkarte? Ich war daran interessiert, musste aber immer wieder lesen, dass diese sehr laut sei :|
Man muss ja nicht das Referenzdesign nehmen

Dino-Fossil
2019-11-26, 00:59:13
Ja ist etwas unschön, aber die ollen Polaris fallen eben genau dazwischen und in RDR2 zeigen sie ja durchaus brauchbare Leistung angesichts Preis, Alter etc. Von daher würden AMD sich ja selbst Konkurrenz machen. Und keine Ahnung wie die Situation mit freier 7nm Produktion aussieht für AMD.


Naja, Polaris liegt auch nur recht knapp vor der 5500. Eine Custom mit 8GB könnte eigentlich etwa auf 580er Niveau landen, zumindest nach ein-zwei Treiberupdates.
Die 590 ist natürlich nochmal etwas schneller, aber macht das Kraut auch nicht fett.
In die Lücke zur 5700 würde definitiv noch eine 5600 passen, auch wenn sich ein eigener Chip für AMD wohl nicht so richtig lohnt.

Jedenfalls ist Polaris wohl inzwischen alt genug, dass man ihm den Ruhestand gönnt, daher also mal wieder neue Chips.

VfBFan
2019-11-26, 14:12:18
Wenn die 5500(XT) einem zu langsam ist, dann würde eine 5600 doch auch keinen großen Unterschied machen, oder?
Ab einem gewissen Zeitpunkt sind eh beide zu/gleich langsam. Wichtiger wäre eine 8GB-Version zu kaufen.

Dino-Fossil
2019-11-26, 16:07:59
Naja, die 5500 kommt wohl geschätzt auf ca 550% im FullHD-Index, eine 5500XT hätte vielleicht 600%, Customs mit 8GB evtl. bergab mit Rückenwind auch Richtung 650%.
Die 5700 liegt hingegen bei 980%. Eine GPU mit ca 750-800% läge ca in der Mitte und böte auch Polaris-Upgradern eine aktuelle AMD-Option (zumindest wenn man von (4/5)80 oder (4/5)70 kommt), ohne dass man gleich >300€ bezahlen muss.
Wenn man nur FullHD zockt, kann das durchaus ne Weile reichen.

Popeljoe
2019-11-26, 18:47:39
Naja, die 5500 kommt wohl geschätzt auf ca 550% im FullHD-Index, eine 5500XT hätte vielleicht 600%, Customs mit 8GB evtl. bergab mit Rückenwind auch Richtung 650%.
Die 5700 liegt hingegen bei 980%. Eine GPU mit ca 750-800% läge ca in der Mitte und böte auch Polaris-Upgradern eine aktuelle AMD-Option (zumindest wenn man von (4/5)80 oder (4/5)70 kommt), ohne dass man gleich >300€ bezahlen muss.
Wenn man nur FullHD zockt, kann das durchaus ne Weile reichen.
So in etwa hatte ich auch gedacht. Eine 5500XT mit 8 GB Ram würde mir ausreichen. Die Vega 56 ist quasi nicht mehr erhältlich, fällt also weg.
Und eine 1660 Supidupi kommt mir mit nur 6 GB Ram nicht in den Rechner.

Lyka
2019-11-26, 18:49:26
die 5500XT ist auch für mich die einzige Graka, die mich in irgendeiner Art und Weise interessiert. Solang ich Cyberpunk 2077 in Full HD ohne (größere) Grafikeinschränkungen spielen kann, bin ich zufrieden.

Popeljoe
2019-11-26, 21:30:57
Bei Techepiphany haben sie die 5500 mit 4 GB gegen die 570/80/90 (https://www.youtube.com/watch?v=JDPvVM3aIJw)getestet und so schlecht schneidet sie da in den Spielen nicht ab. Bin gespannt wann AMD endlich rausrückt und auch echte tests mit einer 5500@8GB kommen. Die dürfte dann vermutlich wirklich die 590 naßmachen und das wäre dann wieder sehr sexy... (Man, was schreibe ich da eigentlich? Klingt nach Pron! :freak:)

Benutzername
2019-11-26, 23:12:42
Bei Techepiphany haben sie die 5500 mit 4 GB gegen die 570/80/90 (https://www.youtube.com/watch?v=JDPvVM3aIJw)getestet und so schlecht schneidet sie da in den Spielen nicht ab. Bin gespannt wann AMD endlich rausrückt und auch echte tests mit einer 5500@8GB kommen. Die dürfte dann vermutlich wirklich die 590 naßmachen und das wäre dann wieder sehr sexy... (Man, was schreibe ich da eigentlich? Klingt nach Pron! :freak:)

Hier im forum sind wir unter uns. Du kannst es ruhig zugeben, daß Du tridimensiophil bist, wie wir alle hier. #anonyme3Dübertakter


Stimmt schon, die 4GB Karte wird hier niemanden so wirklich interessieren. Mit 8GB sollte da was bei rum kommen für FullHD und große Texturen.

y33H@
2019-11-27, 10:15:35
Die 8G Karte ist ja nicht schneller, nur dann wenn die 4G voll sind ...

Raff
2019-11-27, 10:19:42
Die wird sogar, wenn AMD nichts am Speichertakt dreht, traditionell im Promillebereich langsamer sein. Da 4 GiByte heutzutage aber fast immer leicht bis hart limitieren, ist das nicht wild.

MfG
Raff

SKYNET
2019-11-27, 10:34:59
die 5500XT ist auch für mich die einzige Graka, die mich in irgendeiner Art und Weise interessiert. Solang ich Cyberpunk 2077 in Full HD ohne (größere) Grafikeinschränkungen spielen kann, bin ich zufrieden.


naja, wenn das game so hungrig ist wie RDR2, wirste wohl mindestens ne 5600XT haben müssen(wenn sie denn kommt)... und selbst dann biste wohl bei nur so 35fps im minimum...

AffenJack
2019-11-27, 13:36:10
Bin gespannt wann AMD endlich rausrückt und auch echte tests mit einer 5500@8GB kommen.

Gar nicht, da es keine 5500 mit 8GB geben wird? AMD schreibt überall, dass die 5500 nur max. 4GB hat. Einzig die 5500XT dürfte 8Gb bekommen, von der hört man aber noch weniger.

y33H@
2019-11-27, 13:39:11
Also ich sehe hier klar 8GB:

https://scr3.golem.de/screenshots/1910/Radedon-RX-5500/thumb620/Radedon-RX-5500(M)-05.png

Hier noch die Preview, der Test geht dann hier morgen um 9h live: https://www.glm.io/145232

68361

68362

68363

68364

AffenJack
2019-11-27, 14:03:21
Also ich sehe hier klar 8GB:

Für die 5500 SERIES, dazu gehört aber die XT, wenn sie irgendwann kommt auch.

Für die 5500 siehts dagegen so aus:
https://www.game-debate.com/blog/images/_id1573486919_343178.png

Oder offizielle Produktseite:
https://www.amd.com/de/products/graphics/amd-radeon-rx-5500

Max. Speichergröße: 4 GB


Englische Produktseiten sagen ebenso max 4GB für die 5500.

Es ist in meinen Augen pure Fehlinterpretation von fast der ganzen Presse, die einfach mal 5500 Series mit der 5500 gleich setzt. Oder natürlich jegliche Dokumente von AMD, außer der Präsentation sind falsch.
Vielleicht war zu der Zeit der Präsentation auch noch ne 8GB Version angedacht, die aber gestrichen wurde. Alles möglich und Aufgabe der Presse das rauszufinden. Aber von 8 Gb aufgrund einer alten Präsentation auszugehen finde ich ganz schön schwach, wenn Produktseiten usw dagegen sprechen.
Mal abgesehen davon, dass es November als Release hieß und man auch so noch 0 von der 5500 hört. So schnell wie in den letzten Jahren Customs geleakt sind, muss man gerade arg dran zweifeln, dass im Dezember noch mehr als Tests zu Designs erfolgen.

y33H@
2019-11-27, 14:22:08
Dann müsste bei Series die XT nur 22 CUs haben ... die 110W für die RX 5500 sind ebenfalls komisch weil AMD auch 150W nennt (https://www.amd.com/en/products/graphics/amd-radeon-rx-5500#product-specs) ... und von wegen Aufgabe: seitens AMDs kommen leider oft keine gescheiten Antworten, ich hab freilich gefragt ... es ist frustrierend :(

EDIT: momentan ist 12 Dezember angesetzt, soweit man hört ^^ von AMD hieß es nur Q4 und das stimmt ... die OEM-Karten sind ja schon kaufbar.

AffenJack
2019-11-27, 14:54:03
Dann müsste bei Series die XT nur 22 CUs haben ... die 110W für die RX 5500 sind ebenfalls komisch weil AMD auch 150W nennt (https://www.amd.com/en/products/graphics/amd-radeon-rx-5500#product-specs) ... und von wegen Aufgabe: seitens AMDs kommen leider oft keine gescheiten Antworten, ich hab freilich gefragt ... es ist frustrierend :(

Ja dieser Verkaufsguide ist bei der TDP auch etwas strange, wobei ich 150W auch immernoch übertrieben finde und das irgendwie nicht zum Chip passt. Aber die Produktseite hat ebenso max 4GB.

Meine Interpretation des 5500 Series Slides ist vll überinterpretation, aber wenn ihr als Presse außer der einen Folie keine neueren Infos von AMD habt, dass 8 GB Modelle kommen, würde ich das mittlerweile unter anderem wegen der Produktseiten einfach als unsicher sehen. Auch wenn ich es natürlich nicht ausschließen kann. Aber selbst wenn AMD recht dicht macht, müssen die doch darauf antworten ob ihre Produktseite mit den max 4GB falsch ist oder stimmt.

Aber trotzdem schreibt ihr zb bei den 1650 Super Tests, dass die Leute doch auf die 5500 mit 8 GB warten sollen. In Kaufberatungen wird Usern manchmal von der 580 abgeraten, da die 5500 ja auch mit 8 GB kommt usw.
Wenn das Produkt aber nie auf den Markt kommt, wird das mal ein Fail auf ganzer Linie für CB, Golem etc.

y33H@
2019-11-27, 14:58:10
Die XT kommt definitiv mit 8GB, bei der non-XT sind wohl auch 8GB geplant, ähnlich RX 470/570.

AffenJack
2019-11-27, 15:00:05
Die XT kommt definitiv mit 8GB, bei der non-XT sind wohl auch 8GB geplant, ähnlich RX 470/570.

Ich nehme an, dass kommt von anderen Quellen als nur der Folie. Dann ist gut und ich kann das akzeptieren :wink:
Dann solltest trotzdem den Leuten bei AMD mal einen rüberzeihen, dass die endlich ihre Produktseite auf Vordermann bringen.

y33H@
2019-11-27, 15:03:37
Ich vermute, es liegt an den Partnern ... deswegen ist's ein bisschen schwammig, wie oft bei Custom-Designs.

Popeljoe
2019-11-27, 21:35:18
Ich vermute, es liegt an den Partnern ... deswegen ist's ein bisschen schwammig, wie oft bei Custom-Designs.
Trotzdem vielen Dank für die Info. Das beruhigt mich sehr.

B@ndit
2019-11-27, 22:37:23
Vorallem Danke für das bereitstellen der Testergebnisse! :up:
Das sieht ja doch ein bisschen besser aus als ich befürchtet hatte. Wenigstens scheint man bei ca. 120 Watt eine RX 590 im Griff zu haben. Einen wirklichen Vorteil scheint es jedoch gegenüber der 1060 oder 1650 Super nicht zu geben.

Aber die RX 5500 XT mit 8 GB könnte dann ja wenigstens noch eine halbwegs interessante Karte werden, wobei das dann noch immer keine sinnvolle Aufrüstoption für die 480 oder 1060 Besitzer ist. Vielleicht sinkt die 5700 ja noch ein bisschen im Preis.

konkretor
2019-11-28, 09:02:08
Golem hat auch gerade nachgelegt


https://www.golem.de/news/radeon-rx-5500-4gb-im-test-amds-beste-200-euro-karte-seit-jahren-1911-145232.html

Popeljoe
2019-11-28, 09:42:03
Golem hat auch gerade nachgelegt


https://www.golem.de/news/radeon-rx-5500-4gb-im-test-amds-beste-200-euro-karte-seit-jahren-1911-145232.html
Und Jehova (8GB Ram) haben sie auch gesagt! Man, ich zittere schon vor Gier auf die Karte!

JVC
2019-11-28, 10:17:46
Die 5500(XT) mit 8Gb finde ich auch sehr interessant :smile:
Scheint mir die richtige Karte für den FHD Beamer ;)
(dann kann der "~330Watt 390 Dinosaurier" in Rente gehen)

M.f.G. JVC

deekey777
2019-11-28, 11:18:21
Golem hat auch gerade nachgelegt


https://www.golem.de/news/radeon-rx-5500-4gb-im-test-amds-beste-200-euro-karte-seit-jahren-1911-145232.html
Vielleicht liest hier einer mit:

Zweite Seite, zweiter Absatz:
In GTA 5 und in Grim Dawn ist die Navi-Karte dank RDNA-Technik und viel besser ausgelasteten Shader-ALUs deutlich flotter, ...

][immy
2019-11-28, 13:03:06
Also ich muss sagen der Launch ist doch ziemlich enttäuschend. Das gilt aber auch für die aktuellen nvidia Karten.
In den letzten 3 Jahren hat sich dadurch in dem Preissegment überhaupt nichts getan. Die Performance einer Rx580 bietet auch die RX580 zum günstigeren Preis. Aus Consumer-Sicht also absolut nichts neues. Nur die verbraucht ein wenig weniger, aber letztlich kann man nur hoffen, das die Karten im Preis fallen und bald eine 5600er erscheint welche dann in den Preisbereich rückt.

Das lässt erahnen, wie teuer die 7nm Fertigung aktuell noch ist, das man hier nicht mit mehr Performance für das Preissegment kommt oder halt für einen günstigeren Preis anbietet.

Dino-Fossil
2019-11-28, 13:42:30
Wobei ich mir durchaus vorstellen kann, dass AMD und nVidia bisher beide einem Preiskampf aus dem Weg gehen, weil sie sich ihre Margen nicht schmälern wollen.
Immerhin ist nVidia ja noch nicht einmal auf 7nm...

Raff
2019-11-28, 13:48:28
... und wir wissen leider nicht gesichert, wie gut/schlecht das im Vergleich mit AMD ist. Kosten pro Wafer vs. GPU-Größe und Ausbeute sind die Diskussionspunkte.

MfG
Raff

konkretor
2019-11-28, 14:23:42
Das sind Infos du wirst du nie bekommen gerade zum Thema yield rate und kosten.
Da wird sich jeder davor drücken solche Infos raus zu geben.

JVC
2019-11-28, 14:30:12
... und wir wissen leider nicht gesichert, wie gut/schlecht das im Vergleich mit AMD ist...
Würde mich nicht wundern, wenn die "7nm" NV-GPUs sich auch etwas verzögern würden.
(Lieferengpässe bei "7nm" werden wohl "normal" werden...)

Das NV den Sprung problemloser als AMD schafft, müssen Sie erst mal zeigen.

M.f.G. JVC

mczak
2019-11-28, 16:23:19
Golem hat auch gerade nachgelegt


https://www.golem.de/news/radeon-rx-5500-4gb-im-test-amds-beste-200-euro-karte-seit-jahren-1911-145232.html
Da steht auch nur 8x PCIE Interface, das ist mir bisher entgangen. Das erklärt dann wohl auch die arg langsamen Resultate bei stark speicherlimitierten Szenarien. (Es ist zwar pcie 4.0 aber es testen ja alle mit Intel CPUs.)

y33H@
2019-11-28, 16:43:26
Kurioserweise bricht die GTX 1650 Super (Gen3 x16) in 4K stark ein und die RX 5500 (Gen3 x8) weniger :freak:

https://scr3.golem.de/screenshots/1911/Radeon-RX-5500-OEM-Test/01-borderlands-3,-integrated-benchmark-(high-preset,-d3d11),-avg-fps-chart.png

Unicous
2019-11-28, 17:27:57
https://tpucdn.com/review/amd-radeon-rx-5500/images/borderlands-3-3840-2160.png

Warum bricht die 5500 bei TPU so stark ein und bei PCGH Golem ist es gerade mal ein frame weniger (im Vergleich zur 590)?

dildo4u
2019-11-28, 17:42:08
High ist nicht das höste Setting die Werte sind bei TPU niedriger vermutlich da sie ein höheres Setting nutzen.

Popeljoe
2019-11-30, 21:49:33
Man ey, das Rausbringen der 5500er scheint für AMD problematischer zu sein, als das coming out eines Maurersohnes. :usad:
Was für ne Drecksvorstellung! Das Teil soll in 2 Wochen auf den Markt kommen und die Tester kaufen sich OEM Karten um überhaupt Infos zu der Karte bringen zu können.

Benutzername
2019-12-01, 04:15:48
Da steht auch nur 8x PCIE Interface, das ist mir bisher entgangen. Das erklärt dann wohl auch die arg langsamen Resultate bei stark speicherlimitierten Szenarien. (Es ist zwar pcie 4.0 aber es testen ja alle mit Intel CPUs.)

Guter Punkt. Hat schon jemand mit X570 und Ryzen 3000 getestet?

Popeljoe
2019-12-01, 10:44:59
Guter Punkt. Hat schon jemand mit X570 und Ryzen 3000 getestet?
Afaik nicht. Ist aber schon seltsam, dass ausgerechnet die HW Tester noch keine Ryzen 3000 Plattform zu haben scheinen.

y33H@
2019-12-01, 16:41:24
Haben schon, aber es wurde eben auf nem 9900KS getestet. Wo ist nun die Mehraussage bei "PCIe Gen4 funktioniert"?

Benutzername
2019-12-01, 17:06:50
Haben schon, aber es wurde eben auf nem 9900KS getestet. Wo ist nun die Mehraussage bei "PCIe Gen4 funktioniert"?

Bei Radeon 5700Xt hat sich ein kleiner Leistungsvorteil gezeigt bei PCIe4 Anbindung.

Popeljoe
2019-12-01, 19:21:07
Bei Radeon 5700Xt hat sich ein kleiner Leistungsvorteil gezeigt bei PCIe4 Anbindung.
Und jedes % zählt für AMD. Imo waren es 1-3% Mehrleistung und das ist gerade bei den Vergleichen mit den NV Karten durchaus wichtig.

Benutzername
2019-12-01, 20:35:00
Und jedes % zählt für AMD. Imo waren es 1-3% Mehrleistung und das ist gerade bei den Vergleichen mit den NV Karten durchaus wichtig.


nvidiy Karten sollte man zum Vergleich auch ineinem AMD System testen der Vollständigkeit halber. Die ganze I/O ist ja andes aufgebaut bei AMD. Das könnte sich merklich auswirken.

y33H@
2019-12-02, 00:39:28
PCIe Gen4 bringt in den allerallermeisten Fällen nichts und nein, das I/O-Die bei Ryzen 3000 macht bei Nvidia-Karten nichts aus ...

SKYNET
2019-12-02, 00:41:49
PCIe Gen4 bringt in den allerallermeisten Fällen nichts und nein, das I/O-Dies bei Ryzen 3000 macht bei Nvidia-Karten nichts aus ...

bevor PCIe 4.0 was bringt bei den grakas, vergehen wohl noch 3 generationen... selbst ne 2080Ti wird ja durch 3.0 8x kaum eingebremst(3% verlust zu 16x)

nairune
2019-12-02, 08:23:58
Hatte mit BF V (singleplayer, sehr reproduzierbar) getestet und einen minimalen, aber messbaren Unterschied an der 5700 XT feststellen können. 1% oder sowas.
"Bringt nichts" ist pauschal also erstmal falsch.

Mangel76
2019-12-02, 08:47:08
PCIe Gen4 bringt in den allerallermeisten Fällen nichts und nein, das I/O-Die bei Ryzen 3000 macht bei Nvidia-Karten nichts aus ...

Interessant wäre ein Test trotzdem. Hier geistert ja auch immer wieder die Geschichte rum, dass AMD-CPUs schlechter abschneiden, weil der NVIDIA-Treiber Probleme mit AMD macht und bei CPU-Tests immer mit NVIDIA-GPU getestet wird. Sowas könnte man ja mal bestätigen oder widerlegen.

y33H@
2019-12-02, 09:19:40
Und jedes Mal wenn es getestet wird, stellt es sich als Unfug heraus ... teils prüfen wir ja sowas intern, schreiben aber keine eigene Meldung zu. Ich hatte damals das mit Threadripper und Nvidia allerdings gepostet, weil es da eben den Bug gab ... solange alles läuft halt nicht.

Popeljoe
2019-12-02, 09:43:08
Hatte mit BF V (singleplayer, sehr reproduzierbar) getestet und einen minimalen, aber messbaren Unterschied an der 5700 XT feststellen können. 1% oder sowas.
"Bringt nichts" ist pauschal also erstmal falsch.
Übeträgt man das 1% dann auf Leos Performance Index, dann rückt man doch ein gutes Stück weiter nach oben. Ob das reicht, um mit der 1650 Super gleichzuziehen, wird man sehen. Aber wir reden hier ja nur über die 4GB Version der 5500. Wie das dann mit 8GB aussieht, ist nochmal ein anderer Schnack. Aber es wird ja schon gemunkelt, dass die 5500 die RX590 ablösen soll. Sieht man sich die Resultäte der 4 GB Version an, so könnte die 8GB 5500 tatsächlich mit der 590 gleichziehen und dann ist die Karte sofort gekauft! =)

y33H@
2019-12-02, 09:54:36
Ist das mit dem einen Prozent wirklich ernst gemeint? :freak:

Popeljoe
2019-12-02, 10:10:01
Ist das mit dem einen Prozent wirklich ernst gemeint? :freak:
Rechne es doch mal hoch auf Leos Index, dadurch würde die RX 5500 wieder ein Stück näher an die 1650 Super ranrücken. Hinzu kommt, dass AMD immer einige Zeit benötigt, um die Treiber an eine neue Graka anzupassen. NV ist da einfach schneller und besser. Letztlich ist es natürlich Spekulation und wir werden es erst sehen, wenn die Karten auf dem Markt sind. Trotzdem denke ich, dass die RX5500 mit 8 GB im Frühjahr mit der 1650 gleichziehen bzw. leicht davor liegen wird.

y33H@
2019-12-02, 11:52:39
Ich würde einfach die Tests der Radeon RX 5500 XT (8GB) abwarten, dann klärt sich das mit dem Index von alleine ^^

Zergra
2019-12-02, 11:55:10
Die 1% sind doch total unerheblich, egal auf welchen Index man das rechnet.

Popeljoe
2019-12-02, 14:45:11
Die 1% sind doch total unerheblich, egal auf welchen Index man das rechnet.
Weil 1 % immer 1 % ist, ist doch logisch! :biggrin:

Mangel76
2019-12-02, 15:25:31
Und jedes Mal wenn es getestet wird, stellt es sich als Unfug heraus ... teils prüfen wir ja sowas intern, schreiben aber keine eigene Meldung zu. Ich hatte damals das mit Threadripper und Nvidia allerdings gepostet, weil es da eben den Bug gab ... solange alles läuft halt nicht.

Das ist wahrscheinlich das Problem, wenn ihr es nur intern testet, kriegts ja keiner mit und das Gerücht hält sich weiter :D

y33H@
2019-12-02, 15:33:36
:freak:

VfBFan
2019-12-02, 15:44:43
Wird ja immer besser hier. 1% = Weltuntergang
:freak:

Alles mit bis zu 10% Unterschied interessiert auf längere Sicht doch gar nicht.
Die Spielbarkeit ist doch in beiden Fällen gegeben oder auch nicht.

PS: Ich glaub ich bin schon zu alt für sowas...

Hakim
2019-12-02, 17:07:03
1% sind nix. Das wären bei 60 fps gerade mal 0,6 fps mehr, wenn juckt das. Und wenn man in den Bereich kommt wo es um spielbar oder nicht geht verliert es komplett an relevanz

Popeljoe
2019-12-03, 08:46:13
Das ist ja Alles richtig, aber die Masse draußen will die schnellere Karte und da geht es dann eben auch um 0,5%. Differenzierung interessiert da nicht, sondern nur die Penismarklänge. Aber wir werden es erst definitiv wissen, wenn die ersten Karten auf den Markt kommen.

Pirx
2019-12-03, 09:46:03
...Die reguläre RX 5500 soll dabei OEMs letztlich vorbehalten bleiben, nur die XT-Variante mit 4 oder 8 GByte im Endkundenhandel stehen....
https://www.computerbase.de/2019-12/gpu-amd-radeon-rx-5600-xt/
:|

Popeljoe
2019-12-03, 17:25:29
https://www.computerbase.de/2019-12/gpu-amd-radeon-rx-5600-xt/
:|
Und zusätzlich eine noch vollkommen unbekannte 5600XT.
Ist das Navi 10 oder 14? Kann man 192 bit und 6GB Ram für AMD eigentlich ernst nehmen?!

dildo4u
2019-12-03, 17:40:29
Nvidia ist dort ziemlich aggressiv was Preis/Performance angeht vielleicht will man sich dort keine Nachteile beim Preiskampf einhandeln.
Nur leider hätte man dann keine Option was besseres zu kaufen selbst wenn man mehr Vram will.

Popeljoe
2019-12-03, 17:42:32
Nvidia ist dort ziemlich aggressiv was Preis/Performance angeht vielleicht will man sich dort keine Nachteile beim Preiskampf einhandeln.
Nur leider hätte man dann keine Option was besseres zu kaufen selbst wenn man mehr Vram will.
eben: ich kaufe mir doch jetzt keine 5500XT um dann Ende Januar festzustellen, dass die 5600XT wohl doch für mich die bessere Wahl gewesen wäre. Ist doch idiotisch!

Dino-Fossil
2019-12-03, 17:44:40
Dann warte halt ab, oder musst du jetzt sofort kaufen, weil z.B. die alte kaputt ist? Oder kauf eben nVidia, wenn AMD nichts passendes für dich hat.

Popeljoe
2019-12-03, 17:46:49
Dann warte halt ab, oder musst du jetzt sofort kaufen, weil z.B. die alte kaputt ist? Oder kauf eben nVidia, wenn AMD nichts passendes für dich hat.
Es juckt einfach sehr und ich würde gerne die zeit zwischen den Feiertagen vorm Rechner hängen und mit der neuen Graka zocken. Ist doch irgendwie logisch, oder?! ;)

Dino-Fossil
2019-12-03, 17:56:42
Du hast zwischen den Jahren Zeit zum Zocken? Da werd ich direkt neidisch! :ugly:

Mein Backlog wird immer größer...

Benutzername
2019-12-03, 18:25:58
Und zusätzlich eine noch vollkommen unbekannte 5600XT.
Ist das Navi 10 oder 14? Kann man 192 bit und 6GB Ram für AMD eigentlich ernst nehmen?!

Sieht zumindest komisch aus, wenn mansich ansieht daß AMD schon seit Poalris 8GB quasi als minimum verkauft. Jaja, gibt auch 4GB als OEM Karte. Trotzdem seltsam eine 6GB Karte einzuschieben zwischen 8GB 5500 und 5700.

Ich vermute da wollte sich nur sehr wichtig machen und hat sich was zusammengelogen.

Benutzername
2019-12-03, 18:26:38
Das ist wahrscheinlich das Problem, wenn ihr es nur intern testet, kriegts ja keiner mit und das Gerücht hält sich weiter :D

Eben dieses.

Sumpfeule
2019-12-05, 15:23:55
FnDsjzs__D0
x-Z4X_aJKCI
TIL0yG3zegg
JDPvVM3aIJw

Popeljoe
2019-12-05, 20:58:40
Danke Sumpfeule!
Es wird die 4 GB Version von AMD mit einer RX590 verglichen. Man kann erwarten, dass die Versionen von Sapphire, Powercolor usw. noch 3-5% Leistung drauflegen. AMDs Treiber bringen im Laufe des ersten halben Jahres ja auch immer noch ein wenig Leistung mehr. Dazu werden dann noch 8Gb Ram statt 4 kommen, was auch noch ein wenig bringen könnte. Wenn man mit undervolting dann quasi die volle Leistung einer 590 bekommt, bei 125W Verbrauch, das wäre schon echt genial!!! :up: Wenn dann der Preis noch so um 200€ liegt, wird das Teil gekauft!

y33H@
2019-12-06, 03:55:00
Diese Begeisterung ist fast ansteckend :freak: fast wie horn12 ^^

Benutzername
2019-12-06, 05:00:23
Danke Sumpfeule!
Es wird die 4 GB Version von AMD mit einer RX590 verglichen. Man kann erwarten, dass die Versionen von Sapphire, Powercolor usw. noch 3-5% Leistung drauflegen. AMDs Treiber bringen im Laufe des ersten halben Jahres ja auch immer noch ein wenig Leistung mehr. Dazu werden dann noch 8Gb Ram statt 4 kommen, was auch noch ein wenig bringen könnte. Wenn man mit undervolting dann quasi die volle Leistung einer 590 bekommt, bei 125W Verbrauch, das wäre schon echt genial!!! :up: Wenn dann der Preis noch so um 200€ liegt, wird das Teil gekauft!

Nur wenn Yeston eine CUTPET baut! :cool:


Diese Begeisterung ist fast ansteckend :freak: fast wie horn12 ^^

Ach komm, es ist eine gute Karte für FullHD. Nicht jeder will über zweitausend T€URonen ausgeben für Monitor und GraKa.


(Und die Radeon VII ist auch echt gut. Für Numbercrunching. Nicht fürs daddeln.)

Der Sandmann
2019-12-06, 06:40:05
Was haben eigentlich alle mit dem Undervolting? Im Ryzenthread das gleiche. Eine ewige frikelei.

Bin ich der einzige der Hardware kauft, einbaut und wie vom Hersteller eingestellt nutzt?

Benutzername
2019-12-06, 07:03:07
Was haben eigentlich alle mit dem Undervolting? Im Ryzenthread das gleiche. Eine ewige frikelei.

Bin ich der einzige der Hardware kauft, einbaut und wie vom Hersteller eingestellt nutzt?

Nö. Aber die Bastler und Frickler haben naturgemäß mehr Kommunikationsbedarf, weil mehr schief geht. Wenn man nur plug & play macht sind ja keine Fragen zu klären. ;)

Linmoum
2019-12-06, 07:26:16
Bei meiner 2080 hab ich durch UV 50-60W eingespart unter Luft (~240W default, mit UV 180-190W) bei identischer Leistung. Warum sollte ich das freiwillig verschenken? ;)

Egal ob Turing, Vega oder Navi, die Vorteile liegen ja auf der Hand. Es sinkt ja nicht nur der Verbrauch, sondern eben auch Temps und Lautstärke.

Sumpfeule
2019-12-06, 12:32:29
Was haben eigentlich alle mit dem Undervolting? Im Ryzenthread das gleiche. Eine ewige frikelei.

Bin ich der einzige der Hardware kauft, einbaut und wie vom Hersteller eingestellt nutzt?

War ein auto undervolt test. Ein Mausclick in Radeon settings ;)

Popeljoe
2019-12-06, 12:37:24
War ein auto undervolt test. Ein Mausclick in Radeon settings ;)
Eben, das ist wirklich keine Arbeit. ;)

VfBFan
2019-12-06, 13:00:10
Bin ich der einzige der Hardware kauft, einbaut und wie vom Hersteller eingestellt nutzt?
+1 :smile:

w0mbat
2019-12-06, 13:40:08
Naja, wir sind hier im 3DC und da geht es eben anders zu. Wobei meine GPU und CPU auch einfach @stock laufen, aber der RAM ist übertaktet und ich hab die (sub)timings optimiert.

Popeljoe
2019-12-06, 15:28:50
Igor hat schon angesagt, dass er die 5500 XT heute noch testet (https://youtu.be/iBdnN2pF1Nk?t=1289), mal sehen, wann der Test kommt. Igor ist echt ein MUSS!

horn 12
2019-12-06, 16:01:33
Was ist mit mir ?

y33H@

y33H@
2019-12-06, 21:23:40
Igor hat schon angesagt, dass er die 5500 XT heute noch testet (https://youtu.be/iBdnN2pF1Nk?t=1289), mal sehen, wann der Test kommt. Igor ist echt ein MUSS!Igor ist wie wir alle an das NDA gebunden --- sein Test kommt also frühestens wenn die anderen auch erscheinen :redface:

Popeljoe
2019-12-06, 22:12:27
Igor ist wie wir alle an das NDA gebunden --- sein Test kommt also frühestens wenn die anderen auch erscheinen :redface:
Schon klar, aber so wie es klang, kommt das Rev nächste Woche. Gerüchteweise soll die Karte ja auch am 12.12. auf den Markt gehen.

y33H@
2019-12-06, 23:09:17
12 Dezember zur üblichen Uhrzeit klingt realistisch ;-)

Nosferatu1
2019-12-06, 23:32:03
Amd soll mal hinne machen bis die mit High End Navi kommen sind sie wieder nur Mittelklasse Karten, darf sich dann mit der 3070 prügeln wenn überhaupt. Preis der 2080ti wird sich laaaange halten.

Popeljoe
2019-12-07, 11:28:14
Amd soll mal hinne machen bis die mit High End Navi kommen sind sie wieder nur Mittelklasse Karten, darf sich dann mit der 3070 prügeln wenn überhaupt. Preis der 2080ti wird sich laaaange halten.
NV kann momentan einfach den Preis bestimmen. AMD sollte wirklich mal zusehen, dass sie aus dem Quark kommen!

Benutzername
2019-12-09, 09:37:56
12 Dezember zur üblichen Uhrzeit klingt realistisch ;-)

eine Vorstellung so nah an Weihnachten ist ungewöhnlich. wird sich vermutlich kaum aufs Weihnachtsgeschäft auswirken. Wollte AMD noch die Polaris loswerden?

Dino-Fossil
2019-12-09, 11:47:32
Schätze die Priorität lag auf den OEMs, damit die in den Komplett-PCs für Weihnachten was neues verbauen können - dafür gibt's ja nun offenbar die 5500.
Im Endkunden-Geschäft dürften es die Karten ggü. Polaris (noch) schwer haben, es sei denn, Energieeffizienz ist wirklich ein persönlich wichtiger Faktor.

w0mbat
2019-12-09, 11:59:18
Appel bekommt schon seit Monaten große Stückzahlen an vollen Chips, da gehen die alle hin. Der release im Endkundenmarkt ist für AMD hier eindeutig sekundär.

dildo4u
2019-12-09, 12:22:31
Schätze die Priorität lag auf den OEMs, damit die in den Komplett-PCs für Weihnachten was neues verbauen können - dafür gibt's ja nun offenbar die 5500.
Im Endkunden-Geschäft dürften es die Karten ggü. Polaris (noch) schwer haben, es sei denn, Energieeffizienz ist wirklich ein persönlich wichtiger Faktor.
Deshalb hat Notebook Vorrang,die Mobile Modelle passen genau so ins TDP das man im Akku Betrieb den vollen Speed hat.
Zumindest ist das bei Apple so gibt aber kein Grund warum das Windows Notebooks nicht auch schaffen können.
Im Desktop Bereich werden die 8GB Modelle vermutlich nicht billig genug sein, das die wirklich Attraktiv wären zumindest die ersten paar Monate.

kmf
2019-12-09, 13:06:46
Amd soll mal hinne machen bis die mit High End Navi kommen sind sie wieder nur Mittelklasse Karten, darf sich dann mit der 3070 prügeln wenn überhaupt. Preis der 2080ti wird sich laaaange halten.Spielt das eine Rolle? Die meiste Kohle, außer mit den Profi-Karten, wird eh mit den Brot- u. Butter-Karten gemacht. Und da kann AMD mittlerweile leistungsmäßig mithalten. Die Preise müssten allerdings noch etwas runter.

Benutzername
2019-12-09, 23:55:15
Spielt das eine Rolle? Die meiste Kohle, außer mit den Profi-Karten, wird eh mit den Brot- u. Butter-Karten gemacht. Und da kann AMD mittlerweile leistungsmäßig mithalten. Die Preise müssten allerdings noch etwas runter.

Für den Profibereich wäre ein Nachfolger der RadeoVII ganz schön, aber aufgeschlossen zur 2070 hat AMd doch. Ansonsten ist es ziemlich witzlos eine RTX2080Ti von AMD haben zu wollen. Kauft sowieso kaum jemand und die, die am meisten danach schreien, wollen sich sowieso eine nVidia aber billiger kaufen scheint mir.

Nosferatu1
2019-12-10, 00:53:23
Exakt. Solange Amd so inkonsistent performt kaufe ich nvidia.

horn 12
2019-12-10, 01:02:59
Sagt einer der die Radeon VII hatte
Dann warte mal Donnerstag ab.

Nosferatu1
2019-12-10, 02:02:00
Hat au nur 538 gekostet und das nicht mal lange nach Release. Saulaut, Sauheiss sogar mit 800mv bei 1500mhz sauheiss. In vielen ue4 games gerade mal 2070 Leistung ne danke. Treiber sind auch kacke. Seit ich die 2070s habe musste ich nicht einmal zu den Treibersettings. Nv ist nicht umsont haushoch Marktführer. :) Pt auf 70% 150Watt verbrauch in 4k 1-2 fps verlust zu Stock bei 63 grad und quasi Silent mit der billigsten custom.welche amd karte schafft das? Keine.

horn 12
2019-12-10, 06:56:24
Nun soooo schlimm ist es nun wirklich nicht...
Aber wenn meinst :-)

Nosferatu1
2019-12-10, 07:41:25
Ja meine ich da selber getestet. :)

DrFreaK666
2019-12-10, 08:58:03
Ja meine ich da selber getestet. :)

Mit einer Karte getestet, dann sind die anderen natürlich auch so 😅

Nosferatu1
2019-12-10, 10:17:03
Stimmt :)

Dino-Fossil
2019-12-10, 10:56:57
Nunja, Navi/RDNA scheint ja schon einiges konsistenter zu performen als seinerzeit Vega/GCN. Und die UE4 Engine ist auch bekannt dafür, ein ziemliches nVidia-Bias zu haben.

Aber davon mal abgesehen - passt das nicht besser in den R VII Thread?

Popeljoe
2019-12-10, 19:45:38
Alter jetzt gehts bei einigen Leuten aber echt los!
Custom Radeon RX 5500 XT Graphics Card Listed for $259 Before AMD Release (https://www.tomshardware.com/news/radeon-rx-5500-xt-price-sapphire-amd) :uup:
Wird betätigt durch diesen Amazon Link. (https://videocardz.com/newz/sapphire-radeon-rx-5500-xt-nitro-special-edition-spotted)
Alter: 259$ für ne Karte die man grade die 1650 Super unter Kontrolle bringt? Sind die bei AMD auf Koks?! Gabs was umsonst zu rauchen? X-D
Auch, wenn die angesprochene Sapphire natürlich die wahrscheinlich teuerste 5500 XT sein wird, die auf den Markt kommt, aber das würde einem Preis von 230€ entsprechen und dafür bekommt man auch eine 1660 Super die schneller ist und aufgrund des geringeren Stromverbrauchs auch eine weniger aufwendige Kühlung benötigt.

Unicous
2019-12-10, 19:50:57
Was hat AMD damit zu tun?:confused:

Popeljoe
2019-12-10, 20:09:42
Was hat AMD damit zu tun?:confused:
Stimmt, ist Sapphire, aber die Nitro Versionen sind immer ca. 30€ teurer, als die Standard Versionen. Dann wäre der Preis für die "normalo" 5500XT mit 8 GB Ram bei 200€. Ich denke, dass das einfach zuviel Geld ist. Die 1650 Super liegt bei unter 170€. Das PL Verhältnis stimmt einfach nicht.

Lyka
2019-12-10, 20:14:56
Hmm, liest sich mistig. Schade ... dann muss ich doch überlegen, dass meine nächste Karte tatsächlich eher eine Nvidia wird, meine zweite seit 2001 :/

(die 5500 (nonXT) ist maximal 50% schneller als meine alte 380 4GB (lt. benchmarks-Website))

Unicous
2019-12-10, 20:26:52
@Popeljoe

Das würde auch niemand hier behaupten. Fakt ist aber, es ist ein Custom-Design mit Custom Kühler- und Lüfter-Design und Sapphire denkt sie könnten die Karten für diesen Preis loswerden.

Das ist ja mitnichten das einzige Grafikkarten-Modell das ein, für den zugrundeliegenden Chip, unterirdisches P/L-Verhältnis hat.:wink:

Und darüber hinaus müssen es keine "echten" Preise sein. Bei Amazon gibt es öfter mal Mondpreise. Da erst in knapp 2 Tagen Release ist, werden wir sehen ob Sapphire diese Preise verlangen wird und ob sie dafür dann ausgelacht werden.;)

Linmoum
2019-12-10, 20:28:45
Hmm, liest sich mistig. Schade ... dann muss ich doch überlegen, dass meine nächste Karte tatsächlich eher eine Nvidia wird, meine zweite seit 2001 :/

(die 5500 (nonXT) ist maximal 50% schneller als meine alte 380 4GB (lt. benchmarks-Website))
Mach aus deinen maximal 50% mal lieber >=60%. Hier von CB ausm letzten Jahr ein Vergleich zwischen 380 und 580:

https://i.gyazo.com/b67a7a7a487bf27866e050070657e6fb.png
https://www.computerbase.de/2018-08/radeon-5770-6870-7870-270x-380-480-580-vergleich/2/#abschnitt_grafikkartenbenchmarks_in_1920__1080_und_3840__2160

Und dank RDNA wird der Abstand in aktuelle(re)n und kommenden Titeln sicher nicht kleiner werden, im Gegenteil.

Lyka
2019-12-10, 20:30:16
hatte ich vor - aber dann hat man mir die 5500(xt) "versprochen" und da ich von ständigem Fortschritt ausgehe ... in Sachen Framerate etc.

Popeljoe
2019-12-10, 20:33:49
Naja, eigentlich ja Alles ein Sturm im Wasserglas, solange man noch keine echten Tests mit den Karten gesehen hat. Ich hatte auf eine 5500XT mit einer Performance knapp unter RX590 gehofft, zu einem Preis von 180-190€. Mal sehen, was geht...

Denniss
2019-12-10, 20:55:49
Ist der Preis mit Deppenaufschlag für die Early Adopter oder ist das der Listenpreis ?
Aussagen zu P/L lassen sich erst treffen wenn der Listenpreis bekannt ist und der Marktpreis sich eingependelt hat. Vorher braucht man gar nicht rumheulen.

Nosferatu1
2019-12-10, 20:58:17
Nunja, Navi/RDNA scheint ja schon einiges konsistenter zu performen als seinerzeit Vega/GCN. Und die UE4 Engine ist auch bekannt dafür, ein ziemliches nVidia-Bias zu haben.

Aber davon mal abgesehen - passt das nicht besser in den R VII Thread?

Bias stimmt aber ist nicht mein Problem, viele games sind auf ue4y ja srry ot

aufkrawall
2019-12-10, 21:24:09
So schlecht laufen BL3 und Jedi-Bums gar nicht. Hoffen wir mal, dass sich das so fortsetzt.

Sumpfeule
2019-12-10, 22:08:16
rUdcW7BYNtw
vBgDAlFwonU

Sumpfeule
2019-12-11, 12:24:05
06NlvVCPam4

dildo4u
2019-12-11, 19:10:34
US Launchpreise 170$ 4GB und 200$ 8GB.

https://videocardz.com/newz/amd-radeon-rx-5500-xt-to-launch-at-169-usd-4gb-and-199-usd-8gb

Benutzername
2019-12-12, 01:38:56
Danke für Deine Vergleichstests, Sumpfeule. :up:

Nosferatu1
2019-12-12, 02:07:07
Fail 1650 super besser wtf

Popeljoe
2019-12-12, 08:43:13
So, wir haben den 12.12. und die Karte ist immer noch nicht bei GH gelistet. Dazu kommen jetzt noch die Gerüchte über eine abgespeckte Navi 10 Karte alias 5600XT die Anfang Januar vorgestellt werden soll. AMDs Politik verstehe, wer will, aber ich bin genervt. Wozu soll ich jetzt noch eine Karte kaufen, die untere Mittelklasse ist und preislich bei einer 1650 Super liegen müsste, aber teurer ist, wenn in einem Monat eine weitere Karte rauskommt, die mir dann u.U. besser entgegen kommt?!

Pirx
2019-12-12, 08:44:24
15 Uhr schätze ich mal...

dargo
2019-12-12, 08:52:03
US Launchpreise 170$ 4GB und 200$ 8GB.

https://videocardz.com/newz/amd-radeon-rx-5500-xt-to-launch-at-169-usd-4gb-and-199-usd-8gb
Mich verwundert der geringe Preisunterschied etwas. Hätte gedacht GDDR6 wäre einiges teurer. 30$ mehr für die 8GB ist jetzt nicht wirklich viel.

Dino-Fossil
2019-12-12, 09:59:12
So, wir haben den 12.12. und die Karte ist immer noch nicht bei GH gelistet. Dazu kommen jetzt noch die Gerüchte über eine abgespeckte Navi 10 Karte alias 5600XT die Anfang Januar vorgestellt werden soll. AMDs Politik verstehe, wer will, aber ich bin genervt. Wozu soll ich jetzt noch eine Karte kaufen, die untere Mittelklasse ist und preislich bei einer 1650 Super liegen müsste, aber teurer ist, wenn in einem Monat eine weitere Karte rauskommt, die mir dann u.U. besser entgegen kommt?!

Jo, war halt nie die Rede vom 12.12. 0:01 MEZ.
Und offenbar bietet dir die Karte nicht ganz was du möchtest. Also lass es doch einfach, bzw. warte halt ab, ob die 5600 im Januar kommt. Gibt ne Menge gute Spiele, die man auch auf älteren Karten gut zocken kann, falls man über Weihnachten viel freie Zeit hat...

Edit: Alternativ und falls der Schuh drückt, es aber AMD werden soll - wie wäre es mit einer 580/590 + Tuning mit Undervolting und leichter Taktabsenkung, evtl. gebraucht? Speziell letztere sollte sich damit auf einen nur geringfügig höheren, oder sogar leicht niedrigeren Verbrauch wie die 5500XT drücken lassen, bei vergleichbarer Performance.

SKYNET
2019-12-12, 14:53:29
hier ist die erste karte gelistet... MSI Gaming X 8GB für schlappe 270 franke... also 245€... da nehme ich lieber die fatboy RX 590 für 190 franke(175€), auf die 100W mehr verbrauch is mal gelindegesagt geschissen, zumal mit UV die karte eh max. 150W ziehen wird.

dildo4u
2019-12-12, 15:04:37
Computerbase Review:

https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/

PCGH:

https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/RX-5500-XT-Test-Benchmarks-1338838/

Igors Lab:

https://www.igorslab.de/gefangen-im-froschgruenen-sandwich-msi-radeon-rx-5500-xt-gaming-x-im-test-der-preis-wird-entscheidend-sein/

04SwpnoCbnI

Leonidas
2019-12-12, 15:26:12
Listen der Launch-Reviews:

3DCenter (https://www.3dcenter.org/news/launch-der-radeon-rx-5500-xt-erste-testberichte-gehen-online) & Videocardz (https://videocardz.com/83712/amd-radeon-rx-5500-xt-review-roundup)

Popeljoe
2019-12-12, 15:44:13
Mich würde mal interessieren, wie die Navi 14 Karten von Apple aussehen, denn da gibt es ja wohl den wirklichen Vollausbau des Chips, während man als PC Normalo nur die günstigere Variante bekommt.
Insgesamt ist mein Eindruck von der 5500@8GB nett, aber nicht wirklich mehr. Zudem ist der Preis momentan auch noch viel zu hoch.
MF setzt die Sapphire Pulse@4GB mit 179€ an. (https://geizhals.de/sapphire-pulse-radeon-rx-5500-xt-8g-11295-03-20g-a2196485.html?hloc=de) (eben waren es noch 189 X-D)

Denniss
2019-12-12, 16:33:44
ich glaube bei Igor stand was zum Preis und daß der absichtlich etwas hoch ist damit noch ordentlich Polaris abverkauft werden kann. Wäre die 5500 günstiger dann würde der Polaris-Verkauf wohl komplett wegbrechen

Hakim
2019-12-12, 17:01:36
Ich finde die 5500er reihe leider nicht so berauschend, sie ist zwar im vergleich zu Polaris in der Effinzenz sehr gut, aber leider z.B im vergleich gegenüber einer alten 1060 Pascal in 16nm schlechter beim P/W. Preise sind auch etwas zu hoch angesetzt, aber wird sich bestimmt mit der Zeit von selbst erledigen.

w0mbat
2019-12-12, 18:19:22
Gute Karte (in der 8GB-Version), aber zu teuer.

Loeschzwerg
2019-12-12, 18:33:07
Sehe ich auch so. Ca. 20€ runter und ein paar kleinere Karten von der Partnern (nicht diese Dual/Triple Fan Klötze), dann ergänzt Navi 14 wunderbar den Markt.

][immy
2019-12-12, 19:02:21
Gute Karte (in der 8GB-Version), aber zu teuer.
jep. Gehört ja zur "5"er Reihe, wäre als RX550 Nachfolger super. Aber zu dem Preis absolut unattraktiv. Da ist Polaris (auch wenn vermutlich auslaufend) echt besser.

Sehe ich auch so. Ca. 20€ runter und ein paar kleinere Karten von der Partnern (nicht diese Dual/Triple Fan Klötze), dann ergänzt Navi 14 wunderbar den Markt.
Ich bekomme leider das Gefühl, das du für so einen kleinen Chip in 7nm nen großen Kühler brauchst, damit sich die Hitze schnell und gut verteilen kann.
Bisher sind die 7nm Karte echte Hitzköpfe. Was aber auch klar ist, da die Fläche kleiner geworden ist, aber im Grunde immer noch das gleiche gemacht wird. Die Ströme sind halt nicht so stark runter gegangen wie benötigt um die Chips auch noch Kühl zu halten.
Da vermisst man ja schon halbwegs die Zeiten, wo auf den Grafikkarten nur kleine Passiv-Kühler drauf waren ^^
Will gar nicht wissen wie weit man die dafür runter takten müsste damit man mit solchen Passiv-Kühler a la Riva TNT auskommt.

Nosferatu1
2019-12-12, 19:03:13
AMD will doch nur Polaris loswerden wenn das geschafft ist gehen die Preise runter, trotzdem aus Kundensicht nicht gut.....imo ist die karte komplette veraltet. gerade mal ne 1060 eingeholt smh. Vorgen von der Konkurrenz....

Loeschzwerg
2019-12-12, 19:16:54
[immy;12166051']
Ich bekomme leider das Gefühl, das du für so einen kleinen Chip in 7nm nen großen Kühler brauchst, damit sich die Hitze schnell und gut verteilen kann.


Gibt doch OEM Karten mit nur einem Lüfter und kompakt im ITX Format :) Die dürften ruhig regulär vertrieben werden.

Edit:
Powecolor scheint z.B. die kleine Ref. Karte zu bringen:
https://www.overclock3d.net/news/gpu_displays/powercolor_s_rx_5500_xt_4gb_is_the_reference_model_that_amd_didn_t_release/1

Mit 8GB wäre das für mich eine Option.

SKYNET
2019-12-12, 20:58:00
[immy;12166051']jep. Gehört ja zur "5"er Reihe, wäre als RX550 Nachfolger super. Aber zu dem Preis absolut unattraktiv. Da ist Polaris (auch wenn vermutlich auslaufend) echt besser.


Ich bekomme leider das Gefühl, das du für so einen kleinen Chip in 7nm nen großen Kühler brauchst, damit sich die Hitze schnell und gut verteilen kann.
Bisher sind die 7nm Karte echte Hitzköpfe. Was aber auch klar ist, da die Fläche kleiner geworden ist, aber im Grunde immer noch das gleiche gemacht wird. Die Ströme sind halt nicht so stark runter gegangen wie benötigt um die Chips auch noch Kühl zu halten.
Da vermisst man ja schon halbwegs die Zeiten, wo auf den Grafikkarten nur kleine Passiv-Kühler drauf waren ^^
Will gar nicht wissen wie weit man die dafür runter takten müsste damit man mit solchen Passiv-Kühler a la Riva TNT auskommt.

ne, schau dir mal die gammelkühler der karten beim CB test an, und trotzdem bleiben sie sehr kühl und sehr leise, da hast ordentlich luft nach oben.

225mm ist nun ja auch nicht sonderlich lang:
https://geizhals.de/gigabyte-radeon-rx-5500-xt-oc-8g-gv-r55xtoc-8gd-a2196628.html

Lyka
2019-12-12, 21:01:19
ich finde die Tests enttäuschend. Hatte mich ernsthaft auf die Karte als (cyberpunk 2077) Nachfolger meiner 380 gefreut, aber außer 8 GB RAM (ich spiele nur auf 1920x1080)... irgendwie "langweilig" und teuer. Mal sehen, was es bis Mai 2020 so im Handel gibt.

Screemer
2019-12-12, 21:12:58
ich würd sogar sagen "viel zu teuer". das sind gut 20% zu viel. in dem preisbereich ist nv immer die bessere wahl.

Unicous
2019-12-12, 21:23:09
AMD, wird bis auf Weiteres wenig bis gar keinen Druck ausüben. Keine Ahnung was sie sich mit diesen Preisen gedacht haben. Nvidia hat gestern bei den Preisen schon zurückgetrollt, immerhin haben sie hier ein wenig Bewegung in den Markt gebracht.:wink:

In ein paar Wochen muss es eine Reduzierung geben, wie viele Polaris wollen sie denn noch abverkaufen.:freak:

Linmoum
2019-12-12, 21:34:46
Es scheint immer noch genug Inventar von Polaris zu geben. Und wenn die Karten für 30€ weniger auf den Markt kommen, kauft keine Sau mehr das, was es von Polaris noch gibt.

Durch die aktuellen Preise ist Polaris für viele die günstigere/bessere Option und dadurch kann man noch einiges loswerden. Im Preis fällt die 5500XT so oder so, wie schon die 5700 (XT) zuvor.

Benutzername
2019-12-12, 23:53:12
AMD will doch nur Polaris loswerden wenn das geschafft ist gehen die Preise runter, trotzdem aus Kundensicht nicht gut.....imo ist die karte komplette veraltet. gerade mal ne 1060 eingeholt smh. Vorgen von der Konkurrenz....

Was hast Du denn von einer mainstream Karte erwartet? AUf der haben Seite ist der geringere Stromverbrauch und damit Wärmeentwicklung im Vegleich zu Polaris und vermutlich auch billiger für AMD wegen des kleineren Chips.


----------------

Es scheint immer noch genug Inventar von Polaris zu geben. Und wenn die Karten für 30€ weniger auf den Markt kommen, kauft keine Sau mehr das, was es von Polaris noch gibt.

Durch die aktuellen Preise ist Polaris für viele die günstigere/bessere Option und dadurch kann man noch einiges loswerden. Im Preis fällt die 5500XT so oder so, wie schon die 5700 (XT) zuvor.

Angesichts der Ergebnisse bei RDR2 sollte AMD die Polaris als Red Dead Redemption 2 optimiert vermarkten. :naughty:

Daredevil
2019-12-13, 00:46:58
Man muss sich so langsam einfach mal eingestehen, dass AMD auch Geld verdienen will mit 7nm Karten.
Der Launch und die Preise aktuell sind okay, aber passen nun einmal nicht mehr in AMDs "Schnäppchen" Schiene.

Polaris gabs dieses Jahr schon mit ner 580 für 100€, Preis/Leistungsmäßig können die da eh nichts mehr reißen. 200€ ist für die Technik und den Prozess schon okay, aber Leistungsmäßig hakt AMD arg hinterher. Die Effizienz einer 1060 nicht mal zu erreichen ist lachhaft peinlich.

Edit: Hat jemand die Karte mal mit PCIe 4.0 getestet? Das ganze auf ner 3.0 Plattform ist halt auch läpsch.

Linmoum
2019-12-13, 01:14:11
Effizienz juckt halt einfach Null, gerade wenn man hier sowieso von <=130W redet. Hat nicht mal bei Polaris interessiert und da lag die Differenz noch im teils dreistelligen Wattbereich.

Lässt sich ohne großen Aufwand leise kühlen und fertig.

Preis geht von alleine runter, aber AMD will natürlich schlicht und ergreifend auch noch den Rest Polaris abverkaufen. Die wird man aber nicht mehr los, wenn sie Navi schon jetzt günstiger auf den Markt schmeißen. Beides geht nicht.

Daredevil
2019-12-13, 01:21:18
Apple juckt Effizienz auf jeden Fall ziemlich stark. :)

mczak
2019-12-13, 05:03:06
Effizienz juckt halt einfach Null, gerade wenn man hier sowieso von <=130W redet. Hat nicht mal bei Polaris interessiert und da lag die Differenz noch im teils dreistelligen Wattbereich.

Lässt sich ohne großen Aufwand leise kühlen und fertig.

Naja also der Aufwand ist nicht ganz ohne - das sieht man deutlich im Vergleich zu den GTX 1650 Super.
Und es ist ja nicht nur der Kühlkörper auch Boardlayout / VRM muss da mitspielen. Wäre das alles für max. ~150W ausgelegt statt ~200W (inklusive OC) würden sich da sicher ein paar Dollar sparen lassen. Die Karten wären dann immer noch leise, aber halt vielleicht 10-15% oder so (bei TBP ~100W) langsamer. Da würde man dann auch locker die Effizienz von Turing erreichen (was auch kein Kunststück ist wegen des Fertigungsvorteils), dass AMD die Chips halt nach wie vor auf über 1.1V prügelt und Nvidia kaum je über 1.0V kommt merkt man eben.
Aber offensichtlich denkt AMD dass sich das so besser rechnet...

y33H@
2019-12-13, 05:07:12
Edit: Hat jemand die Karte mal mit PCIe 4.0 getestet? Das ganze auf ner 3.0 Plattform ist halt auch läpsch.Da tut sich rein gar nichts, zumal nur Gen4 x8.

Daredevil
2019-12-13, 05:16:46
Ja eben deswegen ja.
3.0 8x ist halt lahm im Gegensatz zu 4.0 8x aka 3.0 16x.
Du testest ne 590 ja auch nicht mit 8x Speed.

y33H@
2019-12-13, 06:49:16
Wie gesagt, ist egal bei der Karte.

Der Sandmann
2019-12-13, 06:52:07
ich finde die Tests enttäuschend. Hatte mich ernsthaft auf die Karte als (cyberpunk 2077) Nachfolger meiner 380 gefreut, aber außer 8 GB RAM (ich spiele nur auf 1920x1080)... irgendwie "langweilig" und teuer. Mal sehen, was es bis Mai 2020 so im Handel gibt.

Da muss ich dir zustimmen. Für Cyberpunk 2077 muss bei mir aber dann auch was neues her.

dildo4u
2019-12-13, 08:44:28
Kein Plan ob es der neue Treiber ist aber die 5500XT hat jetzt Nvidias direkten Gegner in Fortnite überholt.

https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/2/#diagramm-fortnite-1920-1080

Und das ist mit DX11! Hab so das Gefühl das der Treiber auch bei Navi immer noch eine große Rolle spielt.Was auch Sinn macht da die Games noch nicht auf RDNA ausgerichtet werden das passiert erst noch.

SKYNET
2019-12-13, 10:03:47
Apple juckt Effizienz auf jeden Fall ziemlich stark. :)

darum packen sie auch vega in die mac pros und nicht turing :freak:

dildo4u
2019-12-13, 10:06:15
Apples Nummer 1 Ziel ist Marge wenn sie Nvidia mit 32GB + verbauen wollen gäbs es keine Marge mehr.

Dino-Fossil
2019-12-13, 10:48:49
Zumal halbwegs selektierte Vegas bei vernünftiger Taktung so ineffizient auch nicht sind - jedenfalls deutlich besser als eine V64 @stock oder in einer OC-Variante.
Sicherlich, das könnte man mit nVidia auch machen und wäre nochmal effizienter, aber ich schätze AMD bietet eben weitere Vorteile: Preis, mehr Einfluss, Zugang zu den Treibern, etc.

Daredevil
2019-12-13, 10:54:57
darum packen sie auch vega in die mac pros und nicht turing :freak:
Sie packen Vega II und NaviXT rein, ist doch für jeden was dabei. :)
( 1 TB/s Speicher bekommste von Nvidia heute immer noch nicht :< )

Ich würde mich aber auch über Nvidia freuen, nur will Nvidia allerdings, dass AMD Geld verdient. :D

dildo4u
2019-12-13, 11:15:25
Sie packen Vega II und NaviXT rein, ist doch für jeden was dabei. :)
( 1 TB/s Speicher bekommste von Nvidia heute immer noch nicht :< )

Ich würde mich aber auch über Nvidia freuen, nur will Nvidia allerdings, dass AMD Geld verdient. :D

Davon ab da es eh alles Verarsche ist laut AMD bringt gerade PCI 4.0 was in 8K Video Produktions Szenarien aber Apple verbaut Navi auf der alten Intel Plattform.

SKYNET
2019-12-13, 11:23:30
Apples Nummer 1 Ziel ist Marge wenn sie Nvidia mit 32GB + verbauen wollen gäbs es keine Marge mehr.


this und nix anderes.

Pirx
2019-12-13, 11:33:06
und Navi 14 ist immer noch in 7FF gefertigt?

Dino-Fossil
2019-12-13, 11:44:45
Gibt es eingentlich irgendwelche Hinweise auf Revisionen/Entwicklungen an RDNA zw. Navi10 und Navi14?
Bonaire damals war ja z.B. auch schon eine Weiterentwicklung gegenüber Tahiti und Pitcairn (kam allerdings auch deutlich später) und P12 hatte doch, iirc, angeblich einige Stromsparfunktionen, die P10 nicht hatte.

aufkrawall
2019-12-13, 11:46:38
Afair gibt es überhaupt keine Unterschiede in den Linux-Treibern.

gedi
2019-12-13, 12:02:10
Obwohl mich die Karte nicht die Bohne interessiert, ist sie wohl für 1080p-Gamer interessant. Würde mich auch nicht wundern, wenn man mittels des MPT die Leistungsaufnahme auf 100W bei gleicher Performance drücken könnte.

Der Preis erscheint mir allerdings 30€ zu hoch angesiedelt. 180€ für die 8GB-Variante wären noch halbwegs zu vertreten. Ich denke bei breiter Verfügbarkeit, wird es der Markt richten.

][immy
2019-12-13, 12:32:18
Ja eben deswegen ja.
3.0 8x ist halt lahm im Gegensatz zu 4.0 8x aka 3.0 16x.
Du testest ne 590 ja auch nicht mit 8x Speed.
spielt aber keine Rolle. Selbst bei den großen Karten gibt es zwischen PCIe gen 3 8x und 16x nur wenig unterschiede. Bei Crossfire und SLI noch am meisten, welche aber beide überhaupt keine Rolle mehr spielen.
Warum man hier allerdings jetzt künstlich auf 8x begrenzt, keine Ahnung. Aber eine wirkliche Rolle spielt es eben auch nicht. Vermutlich einfach wieder 3cent gespart.

Davon ab da es eh alles Verarsche ist laut AMD bringt gerade PCI 4.0 was in 8K Video Produktions Szenarien aber Apple verbaut Navi auf der alten Intel Plattform.
genau das wäre, einer dieser Fälle wo ein schnelleres PCIe Interface was bringt. Derjenige kauft sich aber auch kaum so eine Karte ^^

Hatte bei der RX5500XT aber wirklich gehofft, das die effizientere Architektur ihre stärken bei den kleineren Karten stärker ausspielen könnte. AMD muss wirklich langsam mal die Spannungen in den Griff bekommen, denn das wird mit kleineren Strukturen bestimmt nicht einfacher. Und sobald nvidia mal bei 7nm einsteigt …. Aber kann eventuell auch einfach noch daran liegen, das der Prozess noch nicht gut genug ist und man derzeit so wenig wie möglich wegwerfen möchte.

aufkrawall
2019-12-13, 12:41:51
Es sind halt nur Desktop-Karten. Offenbar ist es aus betriebswirtschaftlicher Sicht für AMD sinnvoller, diese hochzuprügeln. Das geht ja nun schon seit zig Jahren so.

Dino-Fossil
2019-12-13, 13:23:22
Ja, schätze die Effizienz ist in vielen Märkten auch einfach relativ egal. Wenigstens kann man mittlerweile relativ leicht per Undervolting o.ä. noch einiges rausholen, wenn man das möchte und ein Minimum an technischem Verstand mitbringt.

Vermutlich hatte AMD zu dem Zeitpunkt, als N14 konzeptioniert wurde auch nicht damit gerechnet, dass sich in dem Bereich so viele versch. Karten tummeln werden.
Was mir persönlich aber vor allem fehlt, ist ein vernünftiger Aufrüstpfad für Polaris10/20 Besitzer. N14 ist ein Sidegrade, N10 viel teurer.
Ich denke nicht, das die 5500XT das jemals liefern sollte - aber an der Stelle fehlt dann im AMD-Portfolio einfach (noch?) eine Karte darüber (und unter der 5700 - oder selbige müsste noch deutlich im Preis fallen).

Hakim
2019-12-13, 13:51:34
Zum Glück ist der Multi Monitor verbrauch nicht so extrem wie bei seinem größeren Brüdern. Zwar noch relativ hoch aber noch so ok. Etwas wo AMD endlich mal Hand ansetzen sollte, die 10-20 Watt mehr oder weniger beim Zocken ist doch unwichtig im Gegensatz zu dauerhaften 20-25 Watt in einem Modus der bei vielen schon den normalen idle darstellt

Popeljoe
2019-12-13, 18:18:09
Ja, schätze die Effizienz ist in vielen Märkten auch einfach relativ egal. Wenigstens kann man mittlerweile relativ leicht per Undervolting o.ä. noch einiges rausholen, wenn man das möchte und ein Minimum an technischem Verstand mitbringt.

Vermutlich hatte AMD zu dem Zeitpunkt, als N14 konzeptioniert wurde auch nicht damit gerechnet, dass sich in dem Bereich so viele versch. Karten tummeln werden.
Was mir persönlich aber vor allem fehlt, ist ein vernünftiger Aufrüstpfad für Polaris10/20 Besitzer. N14 ist ein Sidegrade, N10 viel teurer.
Ich denke nicht, das die 5500XT das jemals liefern sollte - aber an der Stelle fehlt dann im AMD-Portfolio einfach (noch?) eine Karte darüber (und unter der 5700 - oder selbige müsste noch deutlich im Preis fallen).
Über eine weiter beschnittene Navi 10 Karte wird ja schon spekuliert, bzw. wird man sie vermutlich im Januar vorgestellen. 5600XT.
Die AMD Politik wird immer seltsamer: erst ist die 5500XT klar zu teuer und dann kommt jetzt noch die 5600XT hinterher getrullert. Ich werde definitiv bis Ende Januar warten mit einem Graka Neukauf.

Hakim
2019-12-13, 18:25:47
Hast du eine max preisgrenze? Sonst dropen doch ab und an 5700er custom für 299€, welche im Vergleich zu den 210-250€ (8gb) deutlich besser wäre

Popeljoe
2019-12-13, 18:30:59
Hast du eine max preisgrenze? Sonst dropen doch ab und an 5700er custom für 299€, welche im Vergleich zu den 210-250€ (8gb) deutlich besser wäre
In die Richtung habe ich auch schon gedacht. Eine 5700 würde aber zusätzlich bedeuten, dass ich ein neues NT haben müßte (momentan hab ich 450W) und das wären weitere Kosten. Insofern bliebe mir nur ein Wechsel zu NVidia, denn die 1660 Super kann ich mit 450W immer noch betreiben. Die 5700 wird knapp. Edit: laut PSU Calculator bin ich dann bei ca. 341 W. Wäre wohl doch machbar, scheitert aber an den PCIE Anschlüssen.

mczak
2019-12-13, 18:45:57
Da tut sich rein gar nichts, zumal nur Gen4 x8.
Würde ich so nicht unterschreiben ohne Test, insbesondere nicht bei der 4GB Variante. Denn die hat doch öfter zuwenig Speicher, und da müsste dann pcie 4.0 deutliche Vorteile bringen.

aufkrawall
2019-12-13, 18:58:00
Wenn durch VRAM Pressure zusätzlich so viel übertragen werden muss, ist die Performance eh häufig ruiniert. Da kann man nur entweder eine Konsole oder eine 8GB-Karte empfehlen, alles andere ist für den Hintern.

Popeljoe
2019-12-13, 19:09:12
Wobei die 4 GB Karte ja in manchen Tests überraschend gut abschneidet. Trotzdem sind 4 GB zu wenig, zumal AMDs Speicherverwaltung ja schlechter als die von NV ist. Insofern muss AMD es wieder über den Preis machen. Für mich wären 150€ für 4 GB und 180€ für die 8 GB Version in Ordnung. Die Powercolor nickt mir schon freundlich zu, aber 209€ sind einfach zuviel Schotter für das Gebotene.

aufkrawall
2019-12-13, 19:58:53
Mit expl. API hängt es sowieso am Entwickler und nicht am Treiber.

y33H@
2019-12-13, 22:51:32
Würde ich so nicht unterschreiben ohne Test, insbesondere nicht bei der 4GB Variante. Denn die hat doch öfter zuwenig Speicher, und da müsste dann pcie 4.0 deutliche Vorteile bringen.PCIe Gen4 x8 ist nicht nennenswert schneller als Gen3 x16, aber freilich besser als Gen3 x8 ... ich sehe aber wenig Sinn darin die 4G Version zu kaufen und dann auf Gen4 zu hoffen wenn der Speicher ausgeht :freak: das ist der falsche Ansatz, abseits von OEM Kisten halt gleich die 8G kaufen.

mczak
2019-12-13, 22:52:32
Wenn durch VRAM Pressure zusätzlich so viel übertragen werden muss, ist die Performance eh häufig ruiniert. Da kann man nur entweder eine Konsole oder eine 8GB-Karte empfehlen, alles andere ist für den Hintern.
Da widerspreche ich nicht, pcie 4.0 ist kein Ersatz für zu wenig VRAM. Es ging ja nur darum ob das einen signifikanten Unterschied macht. Die Performance muss ja bei zu wenig vram nicht immer ganz komplett im Eimer sein, so dass da ein paar Prozent die man eventuell gewinnen könnte durchaus relevant sein könnten.

dargo
2019-12-13, 22:59:49
Wird hier ernsthaft bei 30€ Differenz darüber diskutiert was man nehmen sollte? :freak:

Nosferatu1
2019-12-13, 23:11:01
Mit der einstellung kannst bis zur 2060s gehen. :)

dargo
2019-12-13, 23:15:15
:facepalm:

Denniss
2019-12-13, 23:56:20
Um das alles mal kurz zu fassen: Direkter Ersatz für die großen Polaris-Karten, preislich aber noch zu hoch angesiedelt.

Popeljoe
2019-12-14, 13:25:44
Um das alles mal kurz zu fassen: Direkter Ersatz für die großen Polaris-Karten, preislich aber noch zu hoch angesiedelt.
Jo. Igor gibt hier auch noch mal seinen Senf dazu (https://www.youtube.com/watch?v=PSizbLZHA6I). Die 5500 XT@8GB ist auf Augenhöhe mit der RX 590. Mit dem Gretafaktor des geringeren Stromverbrauchs.
Momentan schwanke ich, ob ich jetzt sofort einfach die Powercolor kaufen soll. Aber ich warte wohl den Januar noch ab.

dargo
2019-12-14, 13:45:46
Etwas abwarten ist das beste was du tun kannst. Schaue auch gelegentlich bei Ebay rein. Dort gibt es immer wieder mal Minus 8-10% auf den Preis. Ich denke wenn du die Sapphire Pulse RX 5500 XT 8GB für 180€ bekommst ist der Deal ok.

Edit:
Der Kühler der Pulse ist ja eigentlich schon überdimensioniert. 850RPM bei Last und 67°C GPU. Lol... :D

Popeljoe
2019-12-14, 13:51:59
Mal sehen, du darfst nicht vergessen, dass 30€ in der Einsteigerklasse schon über 10% ausmachen. Wenn es um eine 5700XT oder 2070 ginge, wäre das echt egal. ;)

Daredevil
2019-12-14, 15:12:04
Es sind halt 10 Döner. Das muss man schon richtig umrechnen. :D

Linmoum
2019-12-14, 15:18:39
3€? Die gibt's bei dem Preis dann aber auch in 9/10 Fällen nur mit lecker Gammelfleisch. :freak:

paul.muad.dib
2019-12-14, 15:42:08
Gibt es denn schon Erkenntnisse zum UV?

Daredevil
2019-12-14, 15:48:17
Tatsächlich liegt die Karte doch sehr nahe an der GTX1060, dort war es gut möglich, die 120w auf 80-90w zu drücken bei gleichem Takt, was in dem Fall einer gut gekühlten Karte bedeutete:

Der Kühler der Pulse ist ja eigentlich schon überdimensioniert. 850RPM bei Last und 67°C GPU. Lol... :D
dass sie gerne mal beim zocken passiv arbeitete, wenn nicht die komplette Leistung abgefragt wird.
Nicht mehr und nicht weniger würde ich auch hier erwarten, weil die 5500 im MacBook Pro ja auch eine gute Figur macht.

dildo4u
2019-12-14, 17:44:27
AMD rechtfertigt den Preis mit von ihn ausgewählten Benches.

Testing done by AMD performance labs 11/29/2019 on AMD Ryzen 5 3600X, 16GB DDR4-3200MHZ, Asus X570 Crosshair, WIN10 PRO X64 18362, AMD DRIVER 19.50, NV DRIVER 441.41. All games tested at 1080p: Battlefield 5 @ 1080p High settings, Borderlands 3 @ Medium Settings, Call of Duty: Modern Warfare @ High Settings, The Division 2 @ High Settings, Gears 5 @ High settings, Red Dead Redemption 2 @ Medium Settings, World War Z @ High settings. NV GTX 1650 Super scored 84 fps, 85 fps, 77 fps, 76 fps, 72 fps, 68 fps, and 114 fps respectively. Radeon RX 5500 XT (4GB) scored 99 fps (18% faster) , 88 fps (4% faster), 82 fps (6% faster), 84 fps (11% faster), 83 fps (15% faster), 72 fps (6% faster), and 148 fps (30% faster) respectively. PC manufacturers may vary configurations yielding different results. All scores are an average of 3 runs with the same settings.

https://www.amd.com/en/press-releases/2019-12-12-amd-unveils-the-amd-radeon-rx-5500-xt-graphics-card-incredible-1080p

Zumindest nutzen sie kein Intel mehr juhu.

Benutzername
2019-12-17, 11:19:31
Zumindest nutzen sie kein Intel mehr juhu.

Wäre ja auch Quatsch. Bisher mussten sie es machen, weil AMD CPUs hinterherhinkten, jetzt können sie Selbstbewußtsein zeigen und ihre eigenen nehmen. Was hätte es wohl für Lästereien gegeben, wenn sie mit athlonFX gebencht hätten (auch wenn ja meistens sowieso die GRaKa die Leistung begrenzt)

Dino-Fossil
2019-12-17, 12:01:02
5500 XT 8GB Linux Benchmarks. (https://www.phoronix.com/scan.php?page=article&item=amd-rx5500xt-8gb&num=1)

Denke, da fehlt Navi(14) hier und da noch ein wenig Treiberarbeit, ansonsten ordnet es sich ähnlich ein, wie schon bekannt.

Popeljoe
2019-12-17, 20:57:54
Hm, jetzt haben sie zusätzlich den Preis der Powercolor red dragon auch noch um 20€ raufgesetzt. Naja, Weihnachten eben. :(

hlynska
2019-12-18, 11:41:39
Einmal Bandbreiten- und einmal Power-Limit. Der Rest lief...
https://www.igorslab.de/amd-radeon-rx-5500-xt-mit-dem-morepowertool-auf-bis-zu-2-1-ghz-getrieben-und-ins-bandbreiten-limit/

Dino-Fossil
2019-12-18, 16:37:48
Das könnte den einen oder anderen interessieren:

https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/ (https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/)

Loeschzwerg
2019-12-18, 17:22:37
Gibt der VRAM limiterten 4GB Version natürlich entsprechend mehr Luft zum atmen, aber auch die 8GB profitiert recht gut.

Was jetzt natürlich etwas doof ist, eine "Budget-Karte" bringt nur auf recht teuren AM4 X570 Boards volle Leistung :freak: Die nicht vorhandenen B550 Boards tun jetzt schon etwas weh.

Der_Korken
2019-12-18, 17:33:09
Das könnte den einen oder anderen interessieren:

https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/ (https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/)

Naja, man muss natürlich dazu sagen, dass die Karte nur 8 PCIe Lanes hat, d.h. der Vergleich entspricht in etwa PCIe 3.0 x8 vs x16. Und die krassesten Zuwächse gibt es bei der 4GB-Karte, der der Speicher ausgeht. Insgesamt finde ich die Zuwächse aber schon zu krass um wahr zu sein. Würde PCIe 4.0 so viel im GPU-Limit bringen, wäre ein Großteil der Reviews zur 5700 quasi obsolet, weil auf Intel-System gebencht. Das hätte irgendwem auffallen müssen, wenn die 5700XT auf nem Zen2 System plötzlich an der 2070S vorbeizieht.

Daredevil
2019-12-18, 17:38:19
Du bringst da zwei Dinge durcheinander.
Eine 8GB 5700xt mit 16x PCIe 3.0 hat kaum ein Limit in der Bandbreite, noch beim Speicher.
Eine 4/8GB 5500XT mit 8x PCIe 3.0 hat ein Limit bei der Bandbreite, im Falle der 4GB Version beim Speicher.

Diese Werte haben nichts mit einer 5700xt zutun.
Die kann man mit 4.0 zwar verdoppeln, aber limitiert da nun einmal nichts wirklich, deswegen nur ein kleiner Effekt.

Dino-Fossil
2019-12-18, 17:49:28
Igor hatte heute auch einen kleinen Artikel zur 5500XT (unter anderem) im Bandbreitenlimit. (https://www.igorslab.de/amd-radeon-rx-5500-xt-mit-dem-morepowertool-auf-bis-zu-2-1-ghz-getrieben-und-ins-bandbreiten-limit/)
Scheint, die Karte ist punkto Bandbreite hart auf Kante gebaut und bei 4GB kommt das unter bestimmten Umständen zum Tragen.
Wobei ich mich frage, ob da auch Treiberseitig noch ein kleines Problem mit der VRAM-Zuteilung vorliegen könnte.

Achill
2019-12-18, 18:25:38
Du bringst da zwei Dinge durcheinander.
Eine 8GB 5700xt mit 16x PCIe 3.0 hat kaum ein Limit in der Bandbreite, noch beim Speicher.
Eine 4/8GB 5500XT mit 8x PCIe 3.0 hat ein Limit bei der Bandbreite, im Falle der 4GB Version beim Speicher.

Diese Werte haben nichts mit einer 5700xt zutun.
Die kann man mit 4.0 zwar verdoppeln, aber limitiert da nun einmal nichts wirklich, deswegen nur ein kleiner Effekt.

Bandbreite ist nicht alles, die Latenz ist bei PCIe 4 halbiert wenn ich nicht etwas missverstanden habe.

w0mbat
2019-12-18, 18:26:26
Wieso ist die Karte eigentlich nur mit x8 angebunden? Wäre x16 soviel teurer geworden?

dildo4u
2019-12-18, 18:43:09
Davon hätte sie eh nix und die Karten sind so schon zu teuer,außerdem werden sie nicht nur zum Launch verkauft sondern müssen auch noch später unter 150€ Rentabel sein.

w0mbat
2019-12-18, 18:56:54
Hast du nicht den Test gelesen? Klar hätte sie davon was, deshalb frage ich ja wieviel teurer es wäre.

nagus
2019-12-18, 19:08:44
https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/

WOW! ich glaube da sind ein paar nachtests auf PCIE 4 / Zen 2 Platformen nötig! Wahnsinn, hätte ich mir auch nie gedacht, dass das so viel Unterschied macht.

Der_Korken
2019-12-18, 19:15:21
Du bringst da zwei Dinge durcheinander.
Eine 8GB 5700xt mit 16x PCIe 3.0 hat kaum ein Limit in der Bandbreite, noch beim Speicher.
Eine 4/8GB 5500XT mit 8x PCIe 3.0 hat ein Limit bei der Bandbreite, im Falle der 4GB Version beim Speicher.

Diese Werte haben nichts mit einer 5700xt zutun.
Die kann man mit 4.0 zwar verdoppeln, aber limitiert da nun einmal nichts wirklich, deswegen nur ein kleiner Effekt.

Die Frage ist wofür die Bandbreite genutzt wird. Wenn eine 5500XT von 8GB/s limitiert wird (PCIe 3.0 x8), würde dann auch eine doppelt so schnelle 5700XT von 16GB/s (PCIe 3.0 x16) limitiert werden? Falls ja, wurde sie in den meisten Benches mit angezogener Handbremse getestet. Und es stellt sich natürlich die Frage wie eine 2080Ti auf 32GB/s reagieren würde statt 16GB/s, die sie im Moment hat.

Dass eine Karte mit zuwenig VRAM von der Bandbreite profitiert ist logisch, denn der VRAM läuft mit 224GB/s. Da limitiert bei ausgelagerten Sachen ja quasi nur die Bandbreite des PCIe - selbst 16GB/s sind mickrig im Vergleich zum VRAM.

Gorkon
2019-12-18, 20:10:31
Gibt der VRAM limiterten 4GB Version natürlich entsprechend mehr Luft zum atmen, aber auch die 8GB profitiert recht gut.

Was jetzt natürlich etwas doof ist, eine "Budget-Karte" bringt nur auf recht teuren AM4 X570 Boards volle Leistung :freak: Die nicht vorhandenen B550 Boards tun jetzt schon etwas weh.
B550 kommt doch nur im Chipset mit PCIe 3.0...alles was von der CPU direkt kommt, läuft da doch auch mit 4.0. Ist doch nur Validierung ;)

Loeschzwerg
2019-12-18, 20:15:08
Weiß ich, aber soll ich das Kind elendig lang "PCIe 4.0 kompatibles Mainboard mit Lanes bereitgestellt von der CPU" nennen? :freak: ^^ Ich als AMD hätte PCIe 4.0 auf alten Board als "OC" freigegeben, aber das Thema hatten wir schon zu genüge. Jetzt ruht die Hoffnung auf "B550" "PCIe 4.0 kompatibles Mainboard mit Lanes bereitgestellt von der CPU".

Popeljoe
2019-12-18, 20:23:01
Also eine Mainstream Karte rauszubringen, die nur auf einer Plattform der neuesten Generation ihre volle Leistung entfaltet, das ist ziemlich link und bisher hat AMD solche Schoten auch nicht gebracht. Soll ich jetzt mein B450 Mobo und den 2600 verramschen?
Irgendwie liefert AMD da grade das nächste Argument, sich eine 1660 Super in den Rechner zu packen.