PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 5500 Serie Reviews


Seiten : 1 [2]

Yuko
2019-12-18, 20:25:38
Irgendwie liefert AMD da grade das nächste Argument, sich eine 1660 Super in den Rechner zu packen.
Nö. AMD liefert hier das Argument in pcie 4.0 zu investieren. Nvidia ist mit ihrem super Mist ohnehin zu teuer unterwegs.

dargo
2019-12-18, 20:25:50
AMD kann nichts für deine Fehlinterpretationen.

Popeljoe
2019-12-18, 20:38:28
AMD kann nichts für deine Fehlinterpretationen.
Dann erleuchte mich doch bitte.
Die volle Leistung der 5500XT kann ich also doch mit dem alten Chipsatz abrufen? Oder spielt es keine Rolle, dass ich die volle Leistung der Graka nicht abrufen kann?
Aus meiner Sicht schafft AMD künstlich einen Grund zur Aufrüstung des eigenen Systems. Ein solcher Beschnitt ist bei den 1660 Super Karten nicht vorhanden. Warum also sollte man sich eine 5500XT zulegen?
Zudem sind die Preise momentan fast identisch. Aber bei der 1660 Super bekomme ich deutlich mehr Leistung für mein Geld.

dargo
2019-12-18, 20:47:22
Dann erleuchte mich doch bitte.
Die volle Leistung der 5500XT kann ich also doch mit dem alten Chipsatz abrufen?
Natürlich. Nach deiner Argumentationskette rufst du mit deinem Ramschspeicher auch nicht die volle Leistung des R5 2600 ab und hast die Kombi trotzdem am laufen.

Aber bei der 1660 Super bekomme ich deutlich mehr Leistung für mein Geld.
Wenn du das so siehst, warum kaufst du sie dir dann nicht? Aber nicht nachher heulen wenn die 6GB überlaufen und die Leistung wegbricht.

Yuko
2019-12-18, 20:48:00
AMD hat nen krassen Start in Sachen CPU hingelegt. Da ist es doch nicht verwunderlich, dass sie eine Grafikkarte rausbringen, die am besten mit dieser Kombi läuft, oder? Ob man bei der konkurrenz was anderes oder besseres bekommt spielt doch in dieser Rechnung gar keine Rolle. AMD hat den Vorteil das sie CPUs und GPUs gemeinsam produzieren. Und je besser die aufeinander abgestimmt sind, desto eher kaufen sich Leute auch sowas. Ist aus Sicht eines Unternehmen das Geld verdienen will nur logisch.

hlynska
2019-12-18, 20:49:53
Man sollte erst mal X470 mit 3.0 gegen X570 auf 3.0 gedrosselt mit der gleichen CPU testen und das dann gegen ein in etwa gleich schnelles Intel System. Das fehlt im PCGH-Test zur Validierung. So dusselig kann AMD ja nicht sein, um günstige Karten auf teure Boards zu zwingen. :D

Popeljoe
2019-12-18, 21:08:13
Natürlich. Nach deiner Argumentationskette rufst du mit deinem Ramschspeicher auch nicht die volle Leistung des R5 2600 ab und hast die Kombi trotzdem am laufen.


Wenn du das so siehst, warum kaufst du sie dir dann nicht? Aber nicht nachher heulen wenn die 6GB überlaufen und die Leistung wegbricht.
Klar könnte ich durch übertakten und besseren Ram noch ein paar Prozent an Leistung rausholen. Aber mir geht es darum, dass ich mit einem ein Jahr alten System bereits nicht mehr die volle Leistung dieser Grafikkarte abrufen kann.
Und bei 25-30% Mehrleistung der 1660 Super, der klar besseren Speicherverwaltung von NVidia (und nebenbei auch dem besseren Stromverbrauch), wird es in Full HD noch eine Weile dauern, bis es zu überlaufendem Speicher kommt.
Aus meiner Sicht liefert AMD momentan massenhaft Argumente, warum man mit einer 1660 besser fährt. Was ich, als AMD Fanboy, ziemlich widersinnig finde.

Yuko
2019-12-18, 21:08:55
Und welchen Sinn soll das haben? pcie 3.0 ist gleich schnell. egal wie du das testet. Die Anbindung ist immer gleich schnell.

nairune
2019-12-18, 21:13:26
Hatte sich "damals" eigentlich aufgeklärt, warum PCGH mit der 5700 XT in einigen Spielen so große Differenzen zwischen PCIe 3.0 und 4.0 hatte?
Das war ja nicht nachvollziehbar, bin deshalb etwas vorsichtig das sofort für bare Münze zu nehmen.

Yuko
2019-12-18, 21:14:50
Hatte sich "damals" eigentlich aufgeklärt, warum PCGH mit der 5700 XT in einigen Spielen so große Differenzen zwischen PCIe 3.0 und 4.0 hatte?

Naja weil die Bandbreite mal eben die doppelte ist?! Frag doch bei PCGHH mal nach. Ich glaube es gibt auch ein paar Artikel dazu.

Dino-Fossil
2019-12-18, 21:20:38
Es ist ja nicht so, dass der Einfluss der PCIe-Bandbreite noch nie getestet wurde.
Und bisher wurden da eigentlich keine so großen Unterschiede festgestellt.

Es kann natürlich sein, dass speziell die 5500XT 4GB aufgrund ihres Speicherinterface in Kombination 4GB-Bestückung unter bestimmten Umständen arg auf Kante genäht ist.

Dennoch, aktuell würde ich auch nicht ganz ausschließen, dass da noch was anderes im argen liegt (Treiber, Chipsatz, BIOS...)

nairune
2019-12-18, 21:20:44
Der Punkt ist, dass ich das nachgestellt hatte und statt der behaupteten X% in BF V war es 1% Unterschied oder sowas, also nicht erwähnenswert.

Popeljoe
2019-12-18, 21:20:47
In dem PCGH Artikel zur 5500 XT (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&splash=0&abp=1&url=https%3A%2F%2Fwww.pcgameshardware.de%2FRadeon-RX-5500-XT-Grafikkarte-275529%2FSpecials%2FPCI-Express-3-vs-PCI-E-4-GPU-1339415%2F&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Ft%3D597518%26page%3D13) heißt es zum Abschluß "Die Auswirkungen einer schnelleren Anbindung durch den PCI-E-Slot fallen somit wesentlich stärker ins Gewicht, als bei nahezu jeder anderen Grafikkarte, da letztere in der Regel mit 16 Lanes angebunden sind. Böse Zungen können jetzt behaupten, dass AMD damit PCI-E 4.0 in ein positiveres Licht rücken möchte"
Wer also eine Zen 2 Plattform hat oder kaufen will, kann bedenkenlos eine 5500XT nehmen. Wer eine Intel Plattform oder Zen 1 sein Eigen nennt, der muss mit 10% weniger Leistung leben oder sich nach einer anderen Graka umsehen.

Yuko
2019-12-18, 21:34:04
Es kann natürlich sein, dass speziell die 5500XT 4GB aufgrund ihres Speicherinterface in Kombination 4GB-Bestückung unter bestimmten Umständen arg auf Kante genäht ist.

Dennoch, aktuell würde ich auch nicht ganz ausschließen, dass da noch was anderes im argen liegt (Treiber, Chipsatz, BIOS...)
Das liegt einfach daran das 4GB Speicher Ende 2019 nicht mehr ausreichend sind und Spiele dann in den RAM auslagern müssen was arschlahm ist.

dargo
2019-12-18, 21:43:23
Und bei 25-30% Mehrleistung der 1660 Super, der klar besseren Speicherverwaltung von NVidia (und nebenbei auch dem besseren Stromverbrauch), wird es in Full HD noch eine Weile dauern, bis es zu überlaufendem Speicher kommt.

Das ist Bullshit. Es gibt keinen einzigen Fall wo ein Navi 10 mit 8GB gegenüber Turing mit 8GB bei vergleichbaren Rohleistung stärker einbricht.

Dino-Fossil
2019-12-18, 21:48:49
Das ist Bullshit. Es gibt keinen einzigen Fall wo ein Navi 10 mit 8GB gegenüber Turing mit 8GB bei vergleichbaren Rohleistung stärker einbricht.

Ruhig Brauner.
Ganz so abwegig ist das nicht, es gibt einige Tests der kleineren Karten, bei denen die 3/4GB Modelle sich etwas besser halten, als die AMD 4GB Karten.
Bei den 8GB Karten fällt das vermutlich nicht so stark ins Gewicht.

dargo
2019-12-18, 22:06:53
Wen interessieren hier irgendwelche alten Kamellen? Die RX5500 (XT) Reihe ist die erste Navigeneration mit 4GB Speicher. Diese Dinger sind gerade mal 6 Tage auf dem Markt. Dass der Treiber noch rumspinnen könnte ist euch wohl noch nicht in den Sinn gekommen?

aufkrawall
2019-12-18, 22:24:31
4GB-Karten mit Polaris 10-Performance sind Elektroschrott, so einfach ist das.

w0mbat
2019-12-18, 22:28:46
dargo, du legst schon häufig alles zu deinen Gunsten aus. Klar, Navi ist noch relativ neu, aber trotzdem zeigen bisherige Tests, dass eine 4GB 5500 XT schneller einbricht als eine 4GB 1650S. Das könnte unter anderen auch daran liegen, dass die 5500 XT auf den meisten Testsystem nur mit PCIe 3.0 x8 arbeitet, was vor allem dann wenn der Speicher knapp wird für Probleme sorgen kann.

Wenn Navi14 an nem x16 interface in einigen Szenarien wirklich deutlich schneller ist, verstehe ich AMDs Entscheidung nicht. Ich kann mir nicht vorstellen, dass die Beschneidung auf x8 so viel an Kosten einspart und die reviews wären sicherlich positiver ausgefallen, wenn sich die 5500 XT konstant vor eine RX 590 bzw. 1650S schieben könnte.

Vor allem unter dem Gesichtspunkt dass 1. der B550-Chipsatz noch nicht auf dem Markt ist und 2. Kunden für niederpreisige GPUs oft noch auf ein altes System ohne PCIe 4.0 setzen. Scheint mir einfach weggeworfene Leistung wenn man nach dem PCGH Test geht.

Nosferatu1
2019-12-18, 22:47:56
Wen interessieren hier irgendwelche alten Kamellen? Die RX5500 (XT) Reihe ist die erste Navigeneration mit 4GB Speicher. Diese Dinger sind gerade mal 6 Tage auf dem Markt. Dass der Treiber noch rumspinnen könnte ist euch wohl noch nicht in den Sinn gekommen?
Bei nvidia spinnt nix komisch.

Dino-Fossil
2019-12-18, 23:12:57
Dass der Treiber noch rumspinnen könnte ist euch wohl noch nicht in den Sinn gekommen?

Deswegen habe ich ja genau das auch als Möglichkeit geschrieben. Bei Pascal und Turing scheint die Speicherverwaltung der kleineren Karten dennoch teils etwas besser zu funktionieren, als bei vergleichbaren AMD Karten. Ob aufgrund der besseren Kompression, des Treibers, oder aus anderen Gründen sei mal dahingestellt. Da liegen keine Welten dazwischen, aber immerhin.
Nur weil dir das gerade nicht gefällt brauchst du hier keinen Terz machen.

dargo
2019-12-18, 23:30:57
4GB-Karten mit Polaris 10-Performance sind Elektroschrott, so einfach ist das.
Dem ist eigentlich nichts hinzuzufügen. Wer sich heute noch Gedanken über 4GB Karten macht dem ist eh nicht mehr zu helfen.

dargo, du legst schon häufig alles zu deinen Gunsten aus. Klar, Navi ist noch relativ neu, aber trotzdem zeigen bisherige Tests, dass eine 4GB 5500 XT schneller einbricht als eine 4GB 1650S. Das könnte unter anderen auch daran liegen, dass die 5500 XT auf den meisten Testsystem nur mit PCIe 3.0 x8 arbeitet, was vor allem dann wenn der Speicher knapp wird für Probleme sorgen kann.

Das habe ich nicht mitbekommen, sorry. Navi 14 hat mich halt nicht besonders interessiert. Ist dem wirklich so? Dadurch disqualifiziert sich die GPU von selbst. Aber was meinst du mit "auf den meisten Systemen"? Gibt es Systeme wo die Karte mit PCIe 3.0 x16 läuft? Das wäre ja noch verrückter.

DrFreaK666
2019-12-18, 23:37:47
AMD hat nen krassen Start in Sachen CPU hingelegt. Da ist es doch nicht verwunderlich, dass sie eine Grafikkarte rausbringen, die am besten mit dieser Kombi läuft, oder? Ob man bei der konkurrenz was anderes oder besseres bekommt spielt doch in dieser Rechnung gar keine Rolle. AMD hat den Vorteil das sie CPUs und GPUs gemeinsam produzieren. Und je besser die aufeinander abgestimmt sind, desto eher kaufen sich Leute auch sowas. Ist aus Sicht eines Unternehmen das Geld verdienen will nur logisch.

Wurde es von AMD so kommuniziert?

w0mbat
2019-12-19, 00:41:41
Das habe ich nicht mitbekommen, sorry. Navi 14 hat mich halt nicht besonders interessiert. Ist dem wirklich so? Dadurch disqualifiziert sich die GPU von selbst. Aber was meinst du mit "auf den meisten Systemen"? Gibt es Systeme wo die Karte mit PCIe 3.0 x16 läuft? Das wäre ja noch verrückter.
Ne, die Karte ist physisch nur mit x8 angebunden. Es sind zwar PCIe 4.0 lanes, aber außer auf nem X570er bringt das nirgends etwas. Deshalb zeigen die PCGH Tests ja einen so großen Unterschied zwischen PCIe 3.0 und 4.0, da die doppelte Bandbreite hier sehr viel hilft.

Ich vestehe auch nicht wieso AMD alle 5500 XT Karten nur mit x8 anbinden, so viel günstiger kann das ja nicht sein und der Leistungsunterschied ist beachtlich. Total seltsame Entscheidung.

y33H@
2019-12-19, 06:59:00
Es ist ja nur dann relevant, wenn Spiele mehr als 4G nutzen ... und das sind - auf die Breite betrachtet - selbst heutzutage längst nicht alle, man werfe mal einen Blick in die Charts von Steam und Co.

hlynska
2019-12-19, 07:36:50
Und die 4GB-Karte ist uninteressant...

Screemer
2019-12-19, 07:46:36
Es ist ja nur dann relevant, wenn Spiele mehr als 4G nutzen ... und das sind - auf die Breite betrachtet - selbst heutzutage längst nicht alle, man werfe mal einen Blick in die Charts von Steam und Co.
Das es auch bei der 8gb Karte laut pcgh im schnitt skaliert ist natürlich unerheblich. Binnmal gespannt ob da von anderen noch was kommt. Hattest du nicht auch kategorisch einen Unterschied ausgeschlossen?

dildo4u
2019-12-19, 08:29:00
Ebend die 4GB Karte wird eh nicht empfohlen,und dann gibt es noch die 1660.
Die ist billig genug und man hat massig Auswahl an Modellen,8GB 5500 werden sicherlich billiger wenn Polaris abverkauft wurde.
Wenn man sieht wie sich die 1650S verhält gibt es absolut keine Probelme eine 6GB Nvidia Karte zu empfehlen,die fallen lange nicht so massiv ab wie Navi wenn der Vram überläuft.

basix
2019-12-19, 08:30:54
Dem ist eigentlich nichts hinzuzufügen. Wer sich heute noch Gedanken über 4GB Karten macht dem ist eh nicht mehr zu helfen.


Das habe ich nicht mitbekommen, sorry. Navi 14 hat mich halt nicht besonders interessiert. Ist dem wirklich so? Dadurch disqualifiziert sich die GPU von selbst. Aber was meinst du mit "auf den meisten Systemen"? Gibt es Systeme wo die Karte mit PCIe 3.0 x16 läuft? Das wäre ja noch verrückter.

8x PCIe 3.0 weil die meisten Redaktionen ein Intel Testsystem haben. Evtl. gibt es aber ein paar, welche mit einem Ryzen 3600 und somit PCIe 4.0 getestet haben. Sollte ja logisch sein.

Aber der Punkt ist schon interessant, dass die 4GB bei einem Ryzen 3000 System länger ausreichen könnten und allenfalls eben nicht das Speichermanagment der GPU schuld ist. Wäre einen Test wert, zusammen mit einer 1650 Super und einem Intel im Quervergleich. Raff? :D

dargo
2019-12-19, 08:39:49
Aber der Punkt ist schon interessant, dass die 4GB bei einem Ryzen 3000 System länger ausreichen könnten und allenfalls eben nicht das Speichermanagment der GPU schuld ist.
Die Entscheidung ist trotzdem bescheuert. PCIe 4.0 gibt es nur mit Ryzen 3000 und X570. Wer sich einen X570 zulegt, der holt sich mit Sicherheit keinen Navi 14. Schon gar nicht mit nur 4GB.

btw.
Hat sich jemand außer der PCGH mit diesem Thema auseinander gesetzt?

basix
2019-12-19, 09:34:00
Optimal ist es sicher nicht. Aber AMD wollte ja PCIe 4.0 für die alten Boards freigeben.

y33H@
2019-12-19, 09:39:50
Das es auch bei der 8gb Karte laut pcgh im schnitt skaliert ist natürlich unerheblich. Binnmal gespannt ob da von anderen noch was kommt. Hattest du nicht auch kategorisch einen Unterschied ausgeschlossen?Ja, ich habe einen Unterschied ausgeschlossen, dass PCIe Gen4 x8 vs Gen3 x8 was bringt, wenn (!) der Speicher ausreicht ... wenn der voll ist, hilft die doppelte Bandbreite natürlich :freak:

Ich sehe bei den PCGH-Benches, dass in ACO und in BF5 die Avg-Fps minimal steigen und es in BF5 auch Verbesserungen bei den Frametimes gibt. Das dürfte mit dem Future Frame Rendering zusammen hängen, denn das wurde deaktiviert - eigentlich ist es an.

dildo4u
2019-12-19, 09:40:53
Vieleicht verzögert sich B550 ja weil es 4.0 bekommt,das wäre ne Positive Überraschung und dann würde auch die 5500 Konfig Sinn machen.

JVC
2019-12-19, 09:43:11
Optimal ist es sicher nicht. Aber AMD wollte ja PCIe 4.0 für die alten Boards freigeben.
Hat ja wie wir wissen nicht geklappt :(
(gerade bei den "besseren/teureren" Boards steht der PCI 3.0 Switch dem im Weg)

M.f.G. JVC

gbm31
2019-12-19, 09:49:39
Vielleicht hab ich was nicht verstanden oder es kommt hier (für mich) falsch rüber?

Das Problem der Karte sind nicht PCIe 3.0 Plattformen generell, sondern dass sie mit beschränktem PCIe (x8 statt x16) läuft, oder nicht?

Ich denke da hat jemand einfach gedacht er macht bwl-technisch was ganz tolles, indem er das vorhandene Layout mit PCIe 4.0 auf die Hälfte kastriert, weil das ja der Bandbreite eines PCIe 3.0 entspricht, ohne zu bedenken dass diese Lösung eben ALLE PCIe Generationen auf die Hälfte der Bandbreite begrenzt. (und damit alles ausser x570)

War wohl keine gute Idee - in dem Preisbereich ist jedes fps wichtig, da wird doch nur bangforbuck gekauft. Ist ja nicht die Alibi-3D-Schreibmaschinenersatz-Holzklasse. Also nicht kaufen! Dummheit gehört bestraft.

Dino-Fossil
2019-12-19, 11:08:23
Wenn ich mich nicht täusche war auch die 460 mit Polaris12 nur mit PCIe3 x8 angebunden, oder? Die liegt natürlich noch mal eine Leistungsklasse tiefer, so dass es da vermutlich wirklich noch egal war.

Noch mal zum Verständnis - wenn das Problem weniger die Bandbreite am Speicherinterface ist, sondern hauptsächlich am PCIe-Bus, müsste man dann ähnliche Effekte nicht auch z.B. mit einer 570 4GB sehen (trotz 256bit Speicerinterface), die auf PCIe3 8x beschränkt wird?

aufkrawall
2019-12-19, 11:12:04
Würde mich wundern, wenn die in solchen Situationen nicht ähnlich grützig laufen würde.

Radeonator
2019-12-19, 11:48:33
128bit bei 8GB und geringerem Speichertakt finde ich im Jahre 19/20 doch arg "geizig" Für jeden der viel "Load im V-Ram" hat doch eher uninteressant. Schade, somit spekulativ kein Ersatz für 480 OC/580 &co beim daddeln...

Screemer
2019-12-19, 11:52:53
Ja, ich habe einen Unterschied ausgeschlossen, dass PCIe Gen4 x8 vs Gen3 x8 was bringt, wenn (!) der Speicher ausreicht ... wenn der voll ist, hilft die doppelte Bandbreite natürlich :freak:


das liest sich aber halt anders. da steht nichts von wenn der ram reicht. sondern:
Da tut sich rein gar nichts, zumal nur Gen4 x8.
Wie gesagt, ist egal bei der Karte.
ich will da auch gar nicht darauf rumreiten. die ausgangsfrage war aber halt auch:

Edit: Hat jemand die Karte mal mit PCIe 4.0 getestet? Das ganze auf ner 3.0 Plattform ist halt auch läpsch.



Vieleicht verzögert sich B550 ja weil es 4.0 bekommt,das wäre ne Positive Überraschung und dann würde auch die 5500 Konfig Sinn machen.
tut es nicht, denn die 16-lanes für die gpus hängen wohl, wie bei allen bisherigen ryzens, direkt an der cpu. macht anders überhaupt keinen sinn.

y33H@
2019-12-19, 12:23:26
Die Frage war ja, ob jemand mit PCIe Gen4 getestet hat und meine Antwort war, nein - es tut sich eh nichts. Natürlich bezogen auf Gen4 x8 gegen Gen3 x8 bei _NICHT_ vollem Speicher, denn selbstverständlich hilft die doppelte Bandbreite, wenn der GDDR6 überläuft ... aber anscheinend muss ich was derart Banales künftig dediziert dazu schreiben, sonst werden mir Aussagen unterstellt, die ich so nie getätigt habe.

Benutzername
2019-12-19, 12:33:28
Vielleicht hab ich was nicht verstanden oder es kommt hier (für mich) falsch rüber?

Das Problem der Karte sind nicht PCIe 3.0 Plattformen generell, sondern dass sie mit beschränktem PCIe (x8 statt x16) läuft, oder nicht?

Ich denke da hat jemand einfach gedacht er macht bwl-technisch was ganz tolles, indem er das vorhandene Layout mit PCIe 4.0 auf die Hälfte kastriert, weil das ja der Bandbreite eines PCIe 3.0 entspricht, ohne zu bedenken dass diese Lösung eben ALLE PCIe Generationen auf die Hälfte der Bandbreite begrenzt. (und damit alles ausser x570)

War wohl keine gute Idee - in dem Preisbereich ist jedes fps wichtig, da wird doch nur bangforbuck gekauft. Ist ja nicht die Alibi-3D-Schreibmaschinenersatz-Holzklasse. Also nicht kaufen! Dummheit gehört bestraft.

Leiterbahnen kosten Geld. Von daher kann Ich es nachvollziehen, daß sie die reduziert haben, aber wie Du schon sagst, die wenigsten werden wohl ein X570 Brett mit Ryzen3xxx mit einer RX5500 kombinieren.

DrFreaK666
2019-12-19, 12:34:54
Die Frage war ja, ob jemand mit PCIe Gen4 getestet hat und meine Antwort war, nein - es tut sich eh nichts. Natürlich bezogen auf Gen4 x8 gegen Gen3 x8 bei _NICHT_ vollem Speicher, denn selbstverständlich hilft die doppelte Bandbreite, wenn der GDDR6 überläuft ... aber anscheinend muss ich was derart Banales künftig dediziert dazu schreiben, sonst werden mir Aussagen unterstellt, die ich so nie getätigt habe.

Ich würde trotzdem sagen dass 4GB im Jahre 2020 keinen Sinn machen

Mangel76
2019-12-19, 12:41:49
Die Frage war ja, ob jemand mit PCIe Gen4 getestet hat und meine Antwort war, nein - es tut sich eh nichts. Natürlich bezogen auf Gen4 x8 gegen Gen3 x8 bei _NICHT_ vollem Speicher, denn selbstverständlich hilft die doppelte Bandbreite, wenn der GDDR6 überläuft ... aber anscheinend muss ich was derart Banales künftig dediziert dazu schreiben, sonst werden mir Aussagen unterstellt, die ich so nie getätigt habe.

Bei 4GB sollte der VRAM durchaus öfter mal ausgehen, also sollte es auch keine selten Ausnahme sein. Daher ist dann die Pauschalaussage "ändert nichts" in dieser Form falsch. Daher bitte doch immer solche Randbedingungen auch entsprechend formulieren, denn nicht jeder, der das liest, denkt dann noch weiter darüber nach. Auch wenn es für dich offensichtlich ist (und für jeden mit etwas Ahnung auch, wenn er drüber nachdenkt) muss es das nicht für jeden anderen auch sein! Das ist auch ein Zeichen seriöser Berichterstattung. Danke.

Benutzername
2019-12-19, 12:48:01
Bei 4GB sollte der VRAM durchaus öfter mal ausgehen, also sollte es auch keine selten Ausnahme sein. Daher ist dann die Pauschalaussage "ändert nichts" in dieser Form falsch. Daher bitte doch immer solche Randbedingungen auch entsprechend formulieren, denn nicht jeder, der das liest, denkt dann noch weiter darüber nach. Auch wenn es für dich offensichtlich ist (und für jeden mit etwas Ahnung auch, wenn er drüber nachdenkt) muss es das nicht für jeden anderen auch sein! Das ist auch ein Zeichen seriöser Berichterstattung. Danke.

Unausgesprochene (oder niedergeschriebene) Annahmen seitens des Autors sind leider nicht so geil und führen zu Misverständnissen. Wie hier gerade vorexerziert wird. Und das wäre was? ein Absatz mit zwei, drei Sätzen? um das klar darzustellen.

y33H@
2019-12-19, 14:17:46
Bei 4GB sollte der VRAM durchaus öfter mal ausgehen, also sollte es auch keine selten Ausnahme sein. Daher ist dann die Pauschalaussage "ändert nichts" in dieser Form falsch. Daher bitte doch immer solche Randbedingungen auch entsprechend formulieren, denn nicht jeder, der das liest, denkt dann noch weiter darüber nach. Auch wenn es für dich offensichtlich ist (und für jeden mit etwas Ahnung auch, wenn er drüber nachdenkt) muss es das nicht für jeden anderen auch sein! Das ist auch ein Zeichen seriöser Berichterstattung. Danke.Also ein Forum ist keine seriöser Berichterstattung :wink: Ich hatte tatsächlich nicht erwartet, dass jemand es so krumm auslegt ... wie gesagt, künftig detaillierter.

Bucklew
2019-12-19, 14:30:29
aber anscheinend muss ich was derart Banales künftig dediziert dazu schreiben, sonst werden mir Aussagen unterstellt, die ich so nie getätigt habe.
Willkommen im 3DCenter :freak:

dargo
2019-12-19, 14:33:40
128bit bei 8GB und geringerem Speichertakt finde ich im Jahre 19/20 doch arg "geizig" Für jeden der viel "Load im V-Ram" hat doch eher uninteressant.
:confused:

SI ist doch nur Mittel zum Zweck. Dank GDDR6 reichen 128Bit für die gebotene Rohleistung. Was willst du denn mit einem 256Bit SI und 448GB/s Bandbreite bei Navi 14? Dann hättest du nur eine weitere "Luftpumpe" @Radeon VII. Die hohe Bandbreite sieht zwar dann auf dem Papier toll aus, bringt aber nichts nennenswertes unter Game-Workloads.

anddill
2019-12-19, 15:21:21
Wenn ich mich nicht täusche war auch die 460 mit Polaris12 nur mit PCIe3 x8 angebunden, oder? Die liegt natürlich noch mal eine Leistungsklasse tiefer, so dass es da vermutlich wirklich noch egal war.

...

Ja, genau wie die RX560, welche ich im Einsatz habe.

Mangel76
2019-12-19, 15:29:03
Also ein Forum ist keine seriöser Berichterstattung :wink: Ich hatte tatsächlich nicht erwartet, dass jemand es so krumm auslegt ... wie gesagt, künftig detaillierter.

Wie wir letztens feststellten, kommen solche Informationen in den offiziellen Tests dann gar nicht zur Sprache. Wir hatten das bei den NVIDIA-Treibern auf AMD-CPUs, was ihr zwar intern testet, aber nicht kommuniziert. Dann halten sich entsprechende Gerüchte eben auch hartnäckig. Es nimmt auch keiner krumm, ist aber irgendwie dann doch verwirrend, wenn da so eine Pauschalaussage steht die aber gar nicht so gemeint ist. Der nächste behauptet dann wieder, es wurde doch getestet und hat gar nichts gebracht, also muss es doch das versaute VRAM-Management von AMD sein.

y33H@
2019-12-19, 16:45:27
Ich wäre froh, ich hätte die Zeit alles zu testen _UND_ zu veröffentlichen ;(

Klappt aber alle paar Jahre ^^ https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html

Popeljoe
2019-12-19, 20:13:12
Vieleicht verzögert sich B550 ja weil es 4.0 bekommt,das wäre ne Positive Überraschung und dann würde auch die 5500 Konfig Sinn machen.
https://www.heise.de/newsticker/meldung/AMDs-B550-Chipsatz-fuer-Ryzen-3000-koennte-ein-alter-Bekannter-sein-4537786.html
Supi Meldung! Nix PCIE 4.0, aber dafür den alten X470 Chipsatz. :uup:
Das bedeutet im Umkehrschluß, dass eine AMD Mittelklasse Graka nur die volle Leistung auf einem 570er Mobo entfaltet. Wer soll denn bitte so eine Kombi kaufen?! Ein Highend MoBo mit einer CPU die mindestens 200€ kostet und dann wir sich eine solche Krüppelkarte in den Rechner gesteckt? :freak:
Für jeden Aufrüster, der nur eine PCIE 3.0 Plattform hat, ist das kein Kaufargument, sondern das genaue Gegenteil. AMDs momentane Politik ist echt fürn Arsch!

aufkrawall
2019-12-19, 20:15:38
Du meinst für jeden, der so doof ist und sich bewusst eine 4GB-Karte kauft?

Denniss
2019-12-19, 20:17:06
die Meldung ist uralt und entspricht dem OEM B550A

Screemer
2019-12-19, 20:21:05
https://www.heise.de/newsticker/meldung/AMDs-B550-Chipsatz-fuer-Ryzen-3000-koennte-ein-alter-Bekannter-sein-4537786.html
Supi Meldung! Nix PCIE 4.0, aber dafür den alten X470 Chipsatz. :uup:
Das bedeutet im Umkehrschluß, dass eine AMD Mittelklasse Graka nur die volle Leistung auf einem 570er Mobo entfaltet. Wer soll denn bitte so eine Kombi kaufen?! Ein Highend MoBo mit einer CPU die mindestens 200€ kostet und dann wir sich eine solche Krüppelkarte in den Rechner gesteckt? :freak:
Für jeden Aufrüster, der nur eine PCIE 3.0 Plattform hat, ist das kein Kaufargument, sondern das genaue Gegenteil. AMDs momentane Politik ist echt fürn Arsch!
Das der Chipsatz kein pcie4 kann ist imho doch schon lang bekannt. Die Frage ist werden die Boards so gebaut werden, dass die pcie4 lanes der cpu auch mit dem Speed laufen? Das muss amd nämlich als Vorgabe machen, sonst bekommen wir mit b550 nur billo-boards mit beschissen elektrischen eigenschaften. Das man mit ordentlichen Boards auch schon auf der 300/400er Platform pcie4 Speed auf die Slots ballern kann, hat Msi ja mit seinem ups-das-wollten-wir-gar-nicjt-veröffentlichen-bios in Kombination mit zen2 gezeigt.

Popeljoe
2019-12-19, 20:23:26
Du meinst für jeden, der so doof ist und sich bewusst eine 4GB-Karte kauft?
Der Masse ist doch nicht einmal im Ansatz bewußt, was sie da kaufen.
"Neue AMD Mittelklasse Karte? Klasse, gekauft! " Und das böse Erwachen kommt später.
@Denniss: klar ist die Meldung alt, aber die Auswirkungen für die Leute, die im Mittelklasse Segment kaufen, waren nicht deutlich.
Die Kombination B550/RX5500XT ist einfach nicht empfehlenswert.
Und was die MoBo Qualität angeht, so würde ich gerne wissen, was den hohen Preis der 570 Mobos rechtfertigt? PCIE 4.0? Nicht ernshaft!
AMD hat mit sich mit dieser Politik ein fettes Eigentor verpasst.

Screemer
2019-12-19, 20:25:56
Noch Mal. Da geht's um den OEM b550a den man auch schon kaufen kann. Ob der dem retail b550 entspricht kann dir überhaupt keiner sagen. Ersteren kann man nämlich schon kaufen. Zb. in HP Rechnern.

Popeljoe
2019-12-19, 20:29:17
Noch Mal. Da geht's um den OEM b550a den man auch schon kaufen kann. Ob der dem retail b550 entspricht kann dir überhaupt keiner sagen. Ersteren kann man nämlich schon kaufen. Zb. in HP Rechnern.
Selbst wenn sie dem 550 non OEM Chipsatz einen 4.0er Anschluß verpassen: was ist mit den ganzen Leuten, die einfach nur ihre Graka aufrüsten wollen?
Und wenn AMD den ganzen Kram sowieso in der eigenen Hand hat: Warum bringen sie dann nicht zeitlich angepasst auch das 550er Mobo raus?!
Ich habe im letzten Jahr auf B450/Ryzen 2600 aufgerüstet. Warum sollte ich mir jetzt eine beschnittene RX 5500XT in den Rechner packen?
Das Ganze erinnert mich fatal an die Mogelpackung TNT2 M64 von NV. Deren halbiertes Interface hat bei der Masse der Käufer auch nicht interessiert.

Screemer
2019-12-19, 20:30:14
Na klar ist das kacke. Steht doch außer Frage.

Popeljoe
2019-12-19, 20:33:55
Na klar ist das kacke. Steht doch außer Frage.
:biggrin: Kurz und trocken! :biggrin:
Mich, als echten AMD Fanboy, kotzt das ziemlich an!

dargo
2019-12-19, 20:43:20
Der Masse ist doch nicht einmal im Ansatz bewußt, was sie da kaufen.

Stimmt... und deshalb juckt diese Masse auch nicht wie die Karte angebunden ist.

Popeljoe
2019-12-19, 20:44:47
Stimmt... und deshalb juckt diese Masse auch nicht wie die Karte angebunden ist.
Dummheit ist also ein klares Kaufargument! :biggrin:

dargo
2019-12-19, 20:45:36
War es schon immer. Wobei es Unwissenheit ist, nicht unbedingt Dummheit.

gravitationsfeld
2019-12-20, 07:12:35
Selbst wenn sie dem 550 non OEM Chipsatz einen 4.0er Anschluß verpassen: was ist mit den ganzen Leuten, die einfach nur ihre Graka aufrüsten wollen?
Und wenn AMD den ganzen Kram sowieso in der eigenen Hand hat: Warum bringen sie dann nicht zeitlich angepasst auch das 550er Mobo raus?!
Ich habe im letzten Jahr auf B450/Ryzen 2600 aufgerüstet. Warum sollte ich mir jetzt eine beschnittene RX 5500XT in den Rechner packen?
Das Ganze erinnert mich fatal an die Mogelpackung TNT2 M64 von NV. Deren halbiertes Interface hat bei der Masse der Käufer auch nicht interessiert.
Da ging's um das Speicherinterface, nicht um PCIe. Das sind ja wohl deutlich unterschiedliche Dinge.

Popeljoe
2019-12-20, 09:41:26
Da ging's um das Speicherinterface, nicht um PCIe. Das sind ja wohl deutlich unterschiedliche Dinge.
Habe ich die zwei Dinge gleichgesetzt? Nein!
Ich habe sie miteinander verglichen und beide als Mogelpackung bezeichnet.
Das ist was Anderes. ;)

VfBFan
2019-12-20, 09:55:56
Warum soll es so viel besser sein eine Grafikkarte mit "übervollem" Speicher in einem PCIe-4.0-Steckplatz zu betreiben?
Wenn der VRAM nicht ausreicht dann reicht er nicht aus. Ob PCIe 4.0 oder 3.0 interessiert da doch nicht wirklich und 8 Lanes sind für die Karte auch ausreichend.

HOT
2019-12-20, 10:00:08
Noch Mal. Da geht's um den OEM b550a den man auch schon kaufen kann. Ob der dem retail b550 entspricht kann dir überhaupt keiner sagen. Ersteren kann man nämlich schon kaufen. Zb. in HP Rechnern.
Selbst damit ist die CPU trotzdem mit PCIe4 ausgestattet :freak:.

Die PCIe3-Beschränkung gilt nur und ausschließlich für alte Boards, die vor Matisse erschienen sind (eingeschlossen MSIs MAX-Serie, denn das sind ebenfalls alte Boards mit neuem BIOS-Chip).
Wenn du heute ein auf Zen2 ausgelegtes, neues B450-Brett machen würdest, könntest du selbstverständlich auch PCIe 4 der CPU nutzen, du würdest sicherlich eine entsprechende Firmware von AMD bekommen. Macht aber keiner, man nennt das jetzt B550A und fertig. Warum sollte man absichtlich alte Ware verkaufen wollen?

Screemer
2019-12-20, 10:42:06
Selbst damit ist die CPU trotzdem mit PCIe4 ausgestattet :freak:.

Die PCIe3-Beschränkung gilt nur und ausschließlich für alte Boards, die vor Matisse erschienen sind (eingeschlossen MSIs MAX-Serie, denn das sind ebenfalls alte Boards mit neuem BIOS-Chip).
Wenn du heute ein auf Zen2 ausgelegtes, neues B450-Brett machen würdest, könntest du selbstverständlich auch PCIe 4 der CPU nutzen, du würdest sicherlich eine entsprechende Firmware von AMD bekommen. Macht aber keiner, man nennt das jetzt B550A und fertig. Warum sollte man absichtlich alte Ware verkaufen wollen?
i smell bullshit. da hätte ich gern mal nen belegt dafür. b550a bietet auch mit zen2 kein pcie4. ob die cpu das kann ist der firmware ziemlich wurscht, wenn die sagt hier gibts nur pcie3.

gbm31
2019-12-20, 11:02:35
B550A ist ein umgelabelter B450 mit - genau - OEM-Sparplatine, die wohl noch schlechteres Layout hat als eine gute B450.

Letztere würde wohl sogar PCIe 4.0 ohne Probleme schaffen, da sie im Gegenzatz zum X keinen Switch für den zweiten PCIe x16 besitzt.

Popeljoe
2019-12-20, 14:07:10
Warum soll es so viel besser sein eine Grafikkarte mit "übervollem" Speicher in einem PCIe-4.0-Steckplatz zu betreiben?
Wenn der VRAM nicht ausreicht dann reicht er nicht aus. Ob PCIe 4.0 oder 3.0 interessiert da doch nicht wirklich und 8 Lanes sind für die Karte auch ausreichend.
Was passiert denn, wenn der Speicher voll ist? Die Daten werden über den Bus in den Ram gepackt und wenn man da statt 16 nur 8 Lanes hat, dann sind die Auswirkungen fatal. Und genau das kann man bereits jetzt bei der 4 GB Karte schon beobachten. Für jeden Aufrüstwilligen mit einem PCIE 3.0 Bord ist diese Karte bereits jetzt ein Nogo!

@gbm31: alten Wein in neue Schläuche packen. Aber wenn das B550 Mobo dann nicht einmal über PCIE 4.0 verfügt, dann kann man auch gleich ein altes 450er kaufen.

y33H@
2019-12-20, 14:35:23
Aufrüstwillige können ja das 8GB-Modell kaufen ...

VfBFan
2019-12-20, 14:41:32
@Popeljoe
Und was ändert das an meiner Aussage?
Für jeden Aufrüstwilligen mit einem PCIE 3.0 Bord ist diese Karte bereits jetzt ein Nogo!
Jetzt passt es.

@y33H@

Danke. :wink:

dildo4u
2019-12-23, 07:13:42
Paar zusätzliche Tests zum PCGH Artikel,er nutzt aber ein 3950X und hat Vergleiche zum Intel System.
Krass wie sehr sich das auswirken kann,vorallem in Call of Duty säuft 5500XT vs 1650S ab.Detailstufe sollte ja die selbe sein wenn beide Karten 4GB haben.

-EDJXISD6RY

dargo
2019-12-23, 09:32:54
Welche neue Erkenntnis sieht man dort? Dass 4GB Speicher hier und dort heute zu wenig sind? Welch eine Neuigkeit.

y33H@
2019-12-23, 13:33:53
Es zeigt sich, dass PCIe Gen3 x8 auf dem Intel-System oft schneller ist als PCIe Gen3 x8 auf dem AMD-System und PCIe Gen4 x8 nur selten Vorteile bringt (wenn 4G nicht ausreichen).

Popeljoe
2019-12-23, 14:37:09
Es zeigt sich, dass PCIe Gen3 x8 auf dem Intel-System oft schneller ist als PCIe Gen3 x8 auf dem AMD-System und PCIe Gen4 x8 nur selten Vorteile bringt (wenn 4G nicht ausreichen).
Die 4 GB Version ist ein vorprogrammierter Ladenhüter. Wer mit halbwegs Verstand dabei ist, kauft sich sowas einfach nicht. AMD will mit der Brechstange die Intel Schäche PCIE 4 nutzen und schießt sich, zumindest mit der 4 GB Version, selbst ins Knie. Mal sehen, wie sich der Preis entwickelt.

dargo
2019-12-23, 14:54:27
Die 4 GB Version ist ein vorprogrammierter Ladenhüter. Wer mit halbwegs Verstand dabei ist, kauft sich sowas einfach nicht.
Natürlich... jeder mit etwas Verstand bzw. Sachkenntnis weiß, dass die 8GB Version wesentlich zukunftssicherer ist. Erst recht mit dem Hinblick auf die kommenden Konsolen Ende 2020. Wer sich bei einer so kleinen Preisdifferenz die 4GB Version kauft ist einfach nur selbst schuld. Bei Asrock beträgt aktuell die Differenz 20€. :freak:
https://geizhals.de/asrock-radeon-rx-5500-xt-challenger-d-4g-oc-a2196509.html?hloc=at&hloc=de
https://geizhals.de/asrock-radeon-rx-5500-xt-challenger-d-8g-oc-90-ga1lzz-00uanf-a2196503.html?hloc=at&hloc=de

Popeljoe
2019-12-23, 15:42:08
Bei Asrock beträgt aktuell die Differenz 20€. :freak:
https://geizhals.de/asrock-radeon-rx-5500-xt-challenger-d-4g-oc-a2196509.html?hloc=at&hloc=de
https://geizhals.de/asrock-radeon-rx-5500-xt-challenger-d-8g-oc-90-ga1lzz-00uanf-a2196503.html?hloc=at&hloc=de
Als ich das gesehen habe, hat mein Hirn für einen Moment ausgesetzt und dann habe ich tierisch gelacht! Allein was die doppelte Menge an Ram kostet...
Meine Fresse!
Aber am liebsten mag ich die ASUS Strix für 269€ (https://geizhals.de/asus-rog-strix-radeon-rx-5500-xt-oc-90yv0du0-m0na00-a2196070.html?hloc=de)! Hat die irgendwie vergoldete Kühlkörper???? :freak: :biggrin:
30€ unter dem Preis einer 5700 Standard...

Yuko
2020-02-28, 16:21:32
https://www.pcgameshardware.de/Radeon-RX-5500-OEM-Grafikkarte-275740/Specials/gegen-GTX-1660-Ti-vs-RX-580-vs-RX-590-Benchmark-Test-Preis-1342062/

Guckt ihr mal :)

Denniss
2020-02-28, 19:17:58
Die sind 3 Monate zu spät dran: https://www.heise.de/newsticker/meldung/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test-4593652.html

Raff
2020-02-29, 11:03:02
Der neue Artikel hat wesentlich mehr Umfang, neue Treiber etc.

MfG
Raff

Scoty
2020-03-05, 11:08:11
Hab seit ein paar Wochen die 5500 XT 8g und muss sagen auch wenn sie Preislich etwas zu teuer ist so bekommt man für das Geld richtig gute Leistung. The Division 2 auf Ultra macht die Karte ohne Probleme.

Benutzername
2020-03-12, 17:21:50
Ich hatte gerade eine Eingebung! Die RX5500XT ist perfekt für Crossfire! Ein X570 Mobo teilt ja die PCIe lanes auf 2*x8 auf! ;D

Hab seit ein paar Wochen die 5500 XT 8g und muss sagen auch wenn sie Preislich etwas zu teuer ist so bekommt man für das Geld richtig gute Leistung. The Division 2 auf Ultra macht die Karte ohne Probleme.

In 1080p nehme Ich an?

Scoty
2020-03-13, 06:37:42
Ich hatte gerade eine Eingebung! Die RX5500XT ist perfekt für Crossfire! Ein X570 Mobo teilt ja die PCIe lanes auf 2*x8 auf! ;D



In 1080p nehme Ich an?

Ja klar aber auch WQHD macht sie was ja diverse Benchmarks zeigen.

Popeljoe
2020-03-14, 09:29:32
Wenn die 8GB unter 200€ liegen würden, wäre sie was. So aber warte ich noch. Das ist einfach zuviel Kohle für die gebotene Leistung. Wert wäre sie mir 180-190€ und ich denke das ist auch realistisch. Je länger diese Preispolitik andauert, deste eher tendiere ich zur 5600XT. Ich kann einfach keine NV kaufen! X-D

Raff
2020-03-14, 09:32:12
Und 'ne gebrauchte Vega 56, Polaris oder gar GTX 1070 (Ti) kommt nicht in Frage? Alles mit 8 GiB verfügbar. Die RX 5500 XT/8G ist ja ganz nett, aber ggü. den genannten Karten bringt sie nix. Mit einer GTX 1070 wärst du hingegen auf einem höheren Leistungslevel bei kaum höherer Leistungsaufnahme und könntest sogar Software-RTX anschauen.

MfG
Raff

aufkrawall
2020-03-14, 09:40:12
Joa, die 1070 UV zieht hier in der Praxis häufig das Gleiche wie Polaris 20 UV. Der seltsame "Best Case" Fall Forza Horizon 4 verbraucht ~105W komplette Karte bei 1,9GHz.
Der ungedrosselte Worst Case SS: Fusion 4k Vulkan beträgt allerdings das Doppelte. :biggrin:

Popeljoe
2020-03-14, 12:38:28
Jetzt macht ihr mich hier echt madig!
@Raff: u got mail... ;)

aufkrawall
2020-03-14, 12:58:53
Wobei man schon dazu sagen sollte, dass Pascal zunehmend eine schlechte Figur, insbesondere mit expl. API macht. Muss nicht so sein, aber es kann dieses Jahr noch einige Fails mit Neuerscheinungen geben.
Wenn man billig an eine 590 käme und die etwas zähmt...

Popeljoe
2020-03-14, 13:04:41
Wobei man schon dazu sagen sollte, dass Pascal zunehmend eine schlechte Figur, insbesondere mit expl. API macht. Muss nicht so sein, aber es kann dieses Jahr noch einige Fails mit Neuerscheinungen geben.
Wenn man billig an eine 590 käme und die etwas zähmt...
Jetzt willst du mich echt ärgern, oder?!?! :biggrin:
5600XT neu, 1070 gebraucht oder was ganz anderes für knapp 300€ (das ist meine absolute und äußerste Schmerzgrenze!) soll ich denn kaufen???? :freak::P:biggrin::confused::confused::hammer:
Achso: Anbindung nur über 1 8Pin PCIE Stecker, mehr gibt es nicht!

aufkrawall
2020-03-14, 13:17:00
Ich weiß nicht, wie man klaren Verstandes überhaupt die 5600 XT in Erwägung ziehen kann.
Wenn einen AMD nicht abschreckt, möglichst durch Angebot günstige 570 8GB, 590, Vega 56 oder 5700.

Refurbished 1070 läuft hier generell gut, aber ich kann die maximal mittelmäßigen Frametimes, die CB in CoD BR festgestellt hat, bestätigen. Würd ich das spielen wollen, würd es mich ankotzen und ich die RX 570 wieder einbauen...
Es läuft natürlich auch ein großer Anteil an Spielen mit expl. API sauber, also etwas Glückssache. Abwägungssache der Vor- und Nachteile...

Popeljoe
2020-03-14, 15:35:19
Ich brauch das Teil nur für 1080, also nix Monstermoni und Co.

aufkrawall
2020-03-14, 15:48:50
Dafür tuts eine 570 8GB und man kann sich dieses oder nächstes Jahr noch etwas neues gönnen, ohne nennenswert Geld zu verlieren.

JVC
2020-03-14, 17:11:30
Wenn man billig an eine 590 käme...
Bei der 590 für 160.- + 2Spiele Aktion bei Saturn/Media-Markt über Weinachten,
(die gab es fast 2 Monate zu dem Preis... hatte es auch hier im Forum verlinkt)
sind 5 Karten explizit für FHD im Bekanntenbereich gekauft worden.

Alle laufen zufriedenstellend und ohne Treiber- oder sonstige Probleme.

Jetzt kaufen ist irgendwie ungünstig...
Kann da aufkrawall nur zustimmen. ("...und nächstes Jahr noch etwas neues gönnen" oder wann die Neuen eben kommen)

M.f.G. JVC

Popeljoe
2020-03-15, 08:40:15
Das Problem hat sich gerade in Luft aufgelöst. Ich wechsel nach 20 Jahren von Rot auf Grün.
Ich bin gespannt. Meine Entscheidung ist letztlich das Resultat der beschissenen Preispolitik von AMD und ich habe keine Lust noch weiter zu warten!

Zergra
2020-03-15, 09:55:01
Kann ich verstehen, was hast du dir gekauft?

Popeljoe
2020-03-15, 11:48:04
Kann ich verstehen, was hast du dir gekauft?
NV GTX 1070. Gebraucht. Hat Alles, was ich brauche. Ram reicht und Leistung liegt knapp über dem Niveau einer RX 590.
Ich habe echt lange gezögert umzusteigen, aber ich habe einfach keinen Bock mehr auf AMDs momentane Preispolitik. :ufinger:
Dauert bei mir immer ein wenig, aber ich glaube kaum, dass ich den Umstieg bereuen werde.

JVC
2020-03-15, 16:45:09
Hauptsache es passt für dich :up:
(die "Preispolitik" kommt m.M.n. aber eher von NV :wink:)

M.f.G. JVC

dildo4u
2020-03-15, 17:18:16
Was Unsinn ist 7nm ist einfach noch zu teuer für Low End Karten,AMD kann Intel bei den CPUs massiv unterbieten,da sie dort keine 150mm² Dies anfertigen müssen.
Das sich das ganze noch nicht lohnt sieht man an Nvidia,die sind nicht gezwungen auf 7nm zu gehen daher fertigen sie jetzt noch keine GPUs damit.

JVC
2020-03-15, 17:26:51
@dildo4u
Ja ja ich weiß... und bei der 7 in 7nm mit 16Gb HBM hat AMD drauf gezahlt...

M.f.G. JVC

Popeljoe
2020-03-16, 15:32:21
Aber wir sind uns doch eionige, dass die Preise von NV und AMD momentan einfach mies sind, oder?!

dildo4u
2020-03-16, 15:46:11
Die 5700XT ist OK + 50% zur 1070 für vergleichbare Launch Preise.

Popeljoe
2020-03-16, 17:06:45
Die 5700XT ist OK + 50% zur 1070 für vergleichbare Launch Preise.
Sehe ich auch so, dasselbe gilt für die 5700.

Benutzername
2020-03-16, 17:44:34
Aber wir sind uns doch eionige, dass die Preise von NV und AMD momentan einfach mies sind, oder?!

Spaß an Duopoly haben beide.

Loeschzwerg
2020-04-17, 09:53:50
Endlich erbarmt sich jemand und bringt eine kleine ITX Variante der RX 5500 XT:
https://www.computerbase.de/2020-04/asrock-radeon-rx-5500-xt-challenger-itx/

aufkrawall
2020-07-01, 12:51:54
Der D3D9-Treiber für Navi ist offenbar immer noch ein Haufen Müll:
https://www.computerbase.de/2020-07/anno-1404-history-collection-benchmark-test/2/#diagramm-anno-1404-history-collection-2560-1440
Typisch chronisch kranke Strukturen im AMD Windows-Treiber-Team. So ein Gemurkse gibts mit RadeonSI unter Linux nicht, und da sitzt größtenteils nur eine Person als Entwickler hinter.

Benutzername
2020-07-03, 10:58:56
Der D3D9-Treiber für Navi ist offenbar immer noch ein Haufen Müll:
https://www.computerbase.de/2020-07/anno-1404-history-collection-benchmark-test/2/#diagramm-anno-1404-history-collection-2560-1440
Typisch chronisch kranke Strukturen im AMD Windows-Treiber-Team. So ein Gemurkse gibts mit RadeonSI unter Linux nicht, und da sitzt größtenteils nur eine Person als Entwickler hinter.

Mit Direct3D9 ärgert sich ja auch das WINE Team rum. ;)


Aber ja, da muss irgendwo der Wurm drin sein bei AMD. so konsequent wie es da immer dieselben Probleme gibt.

Raff
2020-07-09, 13:41:54
Passt hier wohl am besten: Sind 4 Gigabyte Grafikspeicher 2020 noch ausreichend? Vergleich von 4 und 8 GiByte in Full HD und WQHD (https://www.pcgameshardware.de/Radeon-RX-5500-XT-4G-Grafikkarte-275705/Specials/4-oder-8-GByte-VRAM-1353366/)

Protagonisten sind die RX 5500 XT und RX 570. Übrigens auf X570, also Bestcase für die doppelt verkrüppelte RX 5500 XT/4G. Warum kein Nvidia? Weil man da nicht direkt 4 mit 8 vergleichen kann. PCI-Express 4.0 hin oder her, die Suckage von 4 GiByte ist im Artikel omnipräsent – und dabei fehlen Screenshots, die das zähe Streaming bei zu wenig VRAM dokumentieren.

MfG
Raff

r3ptil3
2020-07-09, 14:10:04
Passt hier wohl am besten: Sind 4 Gigabyte Grafikspeicher 2020 noch ausreichend? Vergleich von 4 und 8 GiByte in Full HD und WQHD (https://www.pcgameshardware.de/Radeon-RX-5500-XT-4G-Grafikkarte-275705/Specials/4-oder-8-GByte-VRAM-1353366/)

Protagonisten sind die RX 5500 XT und RX 570. Übrigens auf X570, also Bestcase für die doppelt verkrüppelte RX 5500 XT/4G. Warum kein Nvidia? Weil man da nicht direkt 4 mit 8 vergleichen kann. PCI-Express 4.0 hin oder her, die Suckage von 4 GiByte ist im Artikel omnipräsent – und dabei fehlen Screenshots, die das zähe Streaming bei zu wenig VRAM dokumentieren.

MfG
Raff

Sieht doch heftiger aus als gedacht, umso mehr würde ich dann die Speicherbestückung der aktuellen und kommenden High-End GPUs in Frage stellen mit 8-12Gb - eigentlich eine Frechheit.

Das ganze dürfte ja bei PCIe 3.0 noch etwas schlimmer aussehen.

Ex3cut3r
2020-07-09, 14:21:26
Sieht doch heftiger aus als gedacht, umso mehr würde ich dann die Speicherbestückung der aktuellen und kommenden High-End GPUs in Frage stellen mit 8-12Gb - eigentlich eine Frechheit.

Das ganze dürfte ja bei PCIe 3.0 noch etwas schlimmer aussehen.


Jap, das halte ich schon lange für sehr sehr fragwürdig, wieder im 500€ Bereich nur 8GB anzubieten. Wenn es richtig blöd läuft hat man schon im nächsten Next Gen Jahr Probleme. Stand jetzt, kann man Nvdia begraben, auch 10GB für 750€ reißen da IMO nix. Das ist doch ein Witz, kommt es so.

Man kann nur auf AMD hoffen, dass Sie im Performance Segment 12GB VRAM bieten und im noch höheren Segment 16GB anbieten. Alles andere halte für einen schlechten Scherz. Grade auch im Bezug zu mehr RT, wie denn mit solchen Speichermengen? RT frisst gut gerne nochmal 2-4GB on Top.

Worst Case für die Next Gen sieht wohl so aus: PCIe 3.0 MB, 6-8GB VRAM, 16GB RAM, keine NVME SSD. ;D

Best Case: PCIe 4.0 GPU und MB, 12-16GB VRAM, 32GB RAM, PCIe 4.0 NVME

Mittel Ding wäre wohl so: 32GB RAM, aber keine NVME, oder 16GB RAM, dafür aber eine NVME. Oder aber, 16GB VRAM, aber keine NVME und nur 16GB RAM usw. ^^

Alles ohne Gewähr natürlich. ^^

dildo4u
2020-07-09, 14:51:40
Scheint eher ein AMD Problem zu sein wenn sie kein DLSS Ersatz haben, eine 2060 ist so langsam mit RT, das sie weit unter nativen 1080p laufen muss um ordentlich Performance zu erzielen.
Bei Ampere könnte es natürlich komplett anders aussehen wenn die RT Leistung um den Faktor 3 steigt.

aufkrawall
2020-07-09, 14:53:37
Es wird auch Spiele ohne DLSS & RT geben, die viel VRAM fressen werden. Natürlich ist weniger VRAM ein handfester Nachteil...

Ex3cut3r
2020-07-09, 14:56:50
DLSS ist keine alternative mit 21:9 Sieht auch mit 2.0 grauenhaft aus.

aufkrawall
2020-07-09, 14:57:39
Hä? Funktioniert das mit 21:9 schlechter?

Ex3cut3r
2020-07-09, 14:59:32
Hä? Funktioniert das mit 21:9 schlechter?

IMO Ja. Oder aber man braucht 4K DLSS für brauchbare Qualität zu Nativ.

aufkrawall
2020-07-09, 15:01:08
Höre ich zum ersten Mal. Aber gut, wird auch nicht so viel getestet sein. Fallen die temporalen Artefakte damit stärker auf als mit 16:9, oder was ist das Problem?

Ex3cut3r
2020-07-09, 15:05:24
Nein, ist einfach generell grottig im Vergleich zur nativer Auflösung. Glaub mir, in 21:9 sieht es einfach nur schlecht aus, ob das so auch in 16:9 ist, weiß ich nicht, nach den Kommentaren von 16:9 4K Usern hier im Forum wohl eher nicht. Allerdings rendern 4K User auch in 1440p intern. 3440x1440 User irgendwas mit 960p, weiß die genaue Auflösung grade nicht.

Musste man mal englische Foren abklappern. Denn aktive 21:9 User mit RTX GPU findet man hier im Forum eher wenig.

Raff
2020-07-09, 15:16:56
Liste der Auflösungen (u. a.): https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/ ;)

Ich finde zumindest Q-DLSS okay, wobei tatsächlich der Schritt auf Ultra HD (intern bestenfalls 1440p) optisch sehr hilft.

MfG
Raff

Ex3cut3r
2020-07-09, 16:25:42
Ah,danke für den Link. Wie gesagt hängt wahrscheinlich vom eigenen Empfinden ab. Ich persönlich finde quality DLSS 2.0 von 1440p ausgehend schrecklich. Habe aber auch 100% Sehkraft und bin 30 Jahre Jung und betreibe seit Jahren in SP Games DS mit Faktor 1.5 (5160x2160@3440x1440) Vermutlich habe ich zu Höhe Ansprüche =D

Raff
2020-07-09, 16:40:37
Na dann solltest du das probieren: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/ ;)

MfG
Raff

Ex3cut3r
2020-07-09, 19:14:14
Habe ich schon, damit ist die RTX 2080 non Ti mit RTX wiederum zu schwach. Aber für Non RT reichts. :biggrin:

dargo
2020-08-30, 13:42:15
So langsam kommt die RX 5500XT ist eine Preisregion wo sie auch hingehört.
https://www.mindfactory.de/product_info.php/8GB-Gigabyte-Radeon-RX-5500-XT-Gaming-OC-8G-Aktiv-PCIe-4-0-x16--Retail-_1340719.html

Und mir kann keiner erzählen, dass 1GB GDDR6 14Gbps immer noch 9+$ kostet. Dann würde man hier kaum noch was verdienen.

aufkrawall
2020-08-30, 16:56:30
Halt trotzdem nur die Nachfolge-Karte der RX 560/460 mit popeligen 8x Lanes, die es mit 4GB damals für die Hälfte des Geldes gab. Jeder ohne PCIe 4.0 ist da mit einem gebrauchten Polaris 10/20 für genau diesen Preis beser dran.

dargo
2020-08-30, 19:15:05
Hä?
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/2/#abschnitt_benchmarks_in_1920__1080

Die 5500XT ist ein guter Ersatz für die 580 mit leichten Performancevorteilen. Und bei der Leistungsaufnahme zieht Polaris eindeutig den kürzeren.

btw.
Neu gegen gebraucht war noch nie sinnvoll. Polaris hat einfach ausgedient.

aufkrawall
2020-08-30, 19:19:36
Hä?
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/2/#abschnitt_benchmarks_in_1920__1080

Die 5500XT ist ein guter Ersatz für die 580 mit leichten Performancevorteilen. Und bei der Leistungsaufnahme zieht Polaris eindeutig den kürzeren.

Wayne? Der 500er-Refresh lässt sich für jede Lage effizient genug betreiben.
Wie schlagen sich die tollen 8x Lanes denn so mit PCIe 3.0 in Zero Dawn?


btw.
Neu gegen gebraucht war noch nie sinnvoll. Polaris hat einfach ausgedient.
Vielleicht ist der Vergleich nicht "fair". "nicht sinnvoll" ist er deshalb noch lange nicht.

dargo
2020-08-30, 19:23:02
Wayne? Der 500er-Refresh lässt sich für jede Lage effizient genug betreiben.

Toll... und die 5500XT nicht oder wie? Die wirst du auch problemlos noch effizienter betreiben können. Sinnlose Diskussion.

aufkrawall
2020-08-30, 19:45:47
Äh, du hattest die Effizienz als Argument gebracht. Wenn man rational argumentiert, ist nicht die Effizienz das entscheidende Kriterium, sondern der Verbrauch bzw. die Kühlbarkeit. Und da ist man mit dem Polaris-Refresh im völlig unkritischen Bereich, wenn man nicht unbedingt ganz leises Mini-ITX haben will.

dargo
2020-08-31, 07:43:53
Habe ich dein Ego angegriffen oder was ist das Problem? Die Zeiten von GCN sind langsam vorbei. RDNA ist auf dem Vormarsch. Kein Mensch kauft sich noch Polaris neu wenn es eine RX 5500XT im ähnlichen Preisrahmen gibt. Eine RX580 kriegst du einfach nicht auf dieses Niveau.
https://www.igorslab.de/sapphire-rx-5500-xt-pulse-8-gb-im-test-guenstig-kann-auch-leise-sein/6/

Das ist im geschlossenen Gehäuse unhörbar. Imo ist die RX 5500XT 8GB die perfekte Karte für 1080p. Der Preis könnte nur noch Richtung 150€ rutschen.

dildo4u
2020-08-31, 09:09:21
Das Argument für die 5500 könnte Treiber Support sein AMD vernachlässigt Vega ja schon mal sehen was mit Polaris passiert.

Ravenhearth
2020-08-31, 12:14:30
Polaris unterstützt auch kein DX12 FL 12_1, das hat Navi wenigstens.

aufkrawall
2020-08-31, 12:46:04
RDNA ist auf dem Vormarsch. Kein Mensch kauft sich noch Polaris neu wenn es eine RX 5500XT im ähnlichen Preisrahmen gibt.

Ich habe von neu überhaupt nichts gesagt, bzw. explizit das Gegenteil. Nur 8x PCIe Lanes sind scheiße für 180€. Punkt.

gas3t
2020-11-29, 21:26:08
Dank der hohen Nachfrage sind die RX 580 und RX 5500 XT preislich auf ähnlichem Niveau:

SAPPHIRE Radeon RX 580 PULSE 8 GB für 235 € (nicht lieferbar):
https://www.alternate.de/SAPPHIRE/Radeon-RX-580-PULSE-Grafikkarte/html/product/1344689?

SAPPHIRE Radeon RX 5500 XT PULSE 8GB für 230 € (lieferbar in 10 Tagen):
https://www.alternate.de/SAPPHIRE/Radeon-RX-5500-XT-PULSE-8G-Grafikkarte/html/product/1599904?

Damit liegt die RX 5500 XT über der UVP von 2019. Wird die RX 580/570 eigentlich noch produziert oder sind das Restbestände?

gas3t
2020-12-07, 21:26:35
Die SAPPHIRE Radeon RX 580 PULSE 8 GB gibt es nicht mehr bei Alternate, Amazon, Mindfactory. Auf Alternate sind nur noch 1xRX580, 1xRX570 und 2xRX550 gelistet. Polarias scheint also endgültig EOL.

Ich habe mir als Übergang von der RX470 zur RX6600 XT, die SAPPHIRE Radeon RX 5500XT PULSE 8GB über Amazon für 218€ geholt. Ich spiele nur auf FullHD und dafür ist die Karte ein kleines aber feines Upgrade zur RX470:

1. Die 5500XT ist wesentlich leiser (1000 RPM vs. 1900 RPM).
2. Die 5500XT ist zwischen 20 und 30 Prozent schneller.
3. Der Last-Verbrauch der Karten ist ähnlich (ca. 120-130 W).
4. Der Idle-Verbrauch der 5500XT ist niedriger (10 vs. 20 W).

Wenn man keine höheren Ansprüche als ich hat (FullHD@60FPS), dann ist die 5500XT brauchbar. Allerdings gibt es schon Fälle, bei der 60 FPS nicht schaffbar sind und man das ein oder andere Detail zurückschrauben muss. Die 6600XT sollte also bald das Minimum für FullHD@60 FPS sein.

Denniss
2020-12-08, 00:54:39
Wenn die RX470 nicht defekt war dann hast du 218€ verblasen für eine sehr geringe Mehrleistung.

Linmoum
2020-12-08, 01:11:23
>=30% sind jetzt nicht unbedingt sehr gering. Solche Upgrades gibt's am oberen Ende bei vielen regelmäßig mit neuer Gen.

SKYNET
2020-12-08, 01:21:54
>=30% sind jetzt nicht unbedingt sehr gering. Solche Upgrades gibt's am oberen Ende bei vielen regelmäßig mit neuer Gen.

für 60-80€ hätte er sich dann lieber als übergang ne 580er geholt... ist gleich schnell wie die 5500... und wäre sie für den gleichen preis wieder losgeworden in 3-4 monaten.

gas3t
2021-02-07, 18:12:56
Wenn die RX470 nicht defekt war dann hast du 218€ verblasen für eine sehr geringe Mehrleistung.

Es ist alles eine Frage der Perspektive. Die RX470 habe ich vor 4 Jahren für 260 € gekauft und konnte sie jetzt für 130 € bei Ebay verkaufen. Die 5500XT hat mich also letztlich nur 90 € gekostet. Dafür habe ich eine schnellere, leisere und modernere Karte mit geringerem Stromverbrauch bekommen.

Hinzu kommt, dass die 5500XT wieder im Preis gestiegen ist und neu über 300€ kostet. Selbst bei Ebay wird sie aktuell für 300€ angeboten. Momentan kann ich also sehr gut Spiele bei FullHD genießen, bis es dann bald eine 6600XT wird und die 5500XT wieder bei Ebay landet.