Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste (glaubwürdige) Spezifikationen zu AMDs Radeon RX 9070 & 9070 XT
Leonidas
2025-01-16, 11:25:48
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-erste-glaubwuerdige-spezifikationen-zu-amds-radeon-rx-9070-9070-xt
GerryB
2025-01-16, 11:36:22
Warum die 9050xt mit 16GB?
Da ist auch Anderes denkbar/ausreichend:
Somit ist die Radeon RX 6700 die einzige Grafikkarte mit 160 Bit, 10 GiByte GDDR6-RAM sowie 80 MiB Level-3-Zwischenspeicher ("Infinity Cache").
fände ich viel charmanter als ne dumme beidseitige Bestückung
Allein damit wären durchaus um die 20-25% Performance-Differenz drin, was allerdings auch wieder abgedämpft wird durch das gleiche Speicherinterface mit der gleichen Speicher-Datenrate.
Das kann man nicht wissen, das Speicherinterface kann nur den Unterschied verringern, wenn es für die größere Karte nicht ausreichend dimensioniert ist.
Falls es für die größere Karte schon ausreichend dimensioniert ist, bringt es der kleineren auch nichts dass sie eigentlich überschüssige Bandbreite zur Verfügung hätte.
Leonidas
2025-01-16, 11:47:10
Warum die 9050xt mit 16GB?
128-Bit-Interface zwingt zur Entscheidung 8 oder 16 GB. 12 GB wären möglich mit Abspeckung auf 96-Bit-Interface, 10 GB möglich mit Abspeckung auf 80-Bit-Interface, ist aber eher unwahrscheinlich für das N44-Topmodell.
Falls es für die größere Karte schon ausreichend dimensioniert ist, bringt es der kleineren auch nichts dass sie eigentlich überschüssige Bandbreite zur Verfügung hätte.
In der Tat, stimmt. Aber in der Praxis ergab sich da immer ein Unterschied, gerade bei AMD.
GerryB
2025-01-16, 11:50:19
10 GB möglich mit Abspeckung auf 80-Bit-Interface, ist aber eher unwahrscheinlich für das N44-Topmodell.
Oben hatte ich bereits 160bit ala RX 6700 vorgeschlagen.
k.A. wie sehr bei N44 Bandbreite matters
aber wenn man ne 5060nonTi abhängen will, dann ...
und Wer weiss, was Intel noch so bringt
Leonidas
2025-01-16, 11:51:01
160 Bit geht mit dem N44 schlicht nicht, der Chip hat maximal 128 Bit.
Theoretisch könnte man natürlich N48 so tief abspecken. Aber dann würde man grob die Hälfte des Chips deaktivieren, was nicht besonders wirtschaftlich ist.
GerryB
2025-01-16, 11:59:29
160 Bit geht mit dem N44 schlicht nicht, der Chip hat maximal 128 Bit.
Quelle?
In dem Moment, wo AMD alle Modelle gecancelt und N48+44 anders festgelegt hat, gabs keine Beschränkung auf Vielfache von 128bit.
Das man nochmal den Fehler von der 7600xt wiederholt = fände ich nicht sehr clever.
muss ja Gründe gegeben haben, warum die 7600xt so schlecht ggü. der 7600 skaliert
Leonidas
2025-01-16, 12:04:24
So gesehen ist das natürlich noch nicht ganz in trockenen Tüchern. Aber es gibt keine realen Anzeichen dafür, das AMD hier das Speicherinterface noch verändert hätte. Immerhin ist N44 der einzige tatsächlich erscheinende RDNA4-Chip unter seinem ursprünglichen Codenamen.
madzapp
2025-01-16, 12:23:53
Das kann man nicht wissen, das Speicherinterface kann nur den Unterschied verringern, wenn es für die größere Karte nicht ausreichend dimensioniert ist.
Falls es für die größere Karte schon ausreichend dimensioniert ist, bringt es der kleineren auch nichts dass sie eigentlich überschüssige Bandbreite zur Verfügung hätte.
Zum Texturen schaufeln ist das doch prima. Wenn man die GPUseitigen Einstellungen in Spielen verringert um höhere FPS zu erreichen, vermeidet man ein Bottleneck bei der Verwendung hoher Texturen.
Zum Texturen schaufeln ist das doch prima.
Die Texturauflösung hat überhaupt keinen nennenswerten Einfluss auf die benötigte Bandbreite. Einzig die VRAM-Größe ist relevant.
etp_inxession
2025-01-16, 12:41:53
Da man nicht mit der 5080 und 5090 konkurrieren wird/will, kann man auch demnächst launchen wann man will.
Die 70er Karten von nVidia kommen später.
Denke AMD wird gerade noch fein justieren und die Preise deklarieren.
Sowie Altbestände in diesem Preisbereich abverkaufen wollen.
Dagegen steht eigentlich nur die Tatsache, dass die Preise der alten Gen aktuell teuerer werden.
Kauft doch aktuell niemand mehr.
Was passiert eigentlich mit den "alten" Karten die noch unterwegs sind aber niemand kauft?
Altehardware
2025-01-16, 12:59:00
Die rx9070 mit nur 2,5ghz das ist ein Einschnitt der aber erfreulich in der tbp auswirken wird.
+- rtx4070 super perf. somit dürften die preise recht aggressiv werden. +- 549€ womit grob 180w bis 200w denkbar sind
Das wird die P/l gpu werden wenn das so kommt
bad_sign
2025-01-16, 13:24:31
die größere Rdaeon RX 9070 XT hingegen grob auf dem Performance-Level der GeForce RTX 4070 Ti Super
jetzt beim Einfügen sehe ich die Rdaeon @Leonidas
AMD, too little too late
Ich hoffe ich erwische eine 5080 zur UVP :(
Ich hoffe ich erwische eine 5080 zur UVP :(
... die mit Pech doppelt so teuer wird wie eine 9070 XT. Kein valider Vergleich.
@Leo: Tolle Zusammenfassung und Einschätzung der generellen Lage. :up:
MfG
Raff
madzapp
2025-01-16, 13:59:32
Die Texturauflösung hat überhaupt keinen nennenswerten Einfluss auf die benötigte Bandbreite. Einzig die VRAM-Größe ist relevant.
Dass für eine höhere Datenmenge nicht auch höhere Bandbreite benötigt wird hört sich für mich falsch an.
Prinzenrolle
2025-01-16, 14:02:17
Ich hoffe, dass die Karte schneller ist als die 4070 Ti Super, ansonsten wird AMD am Ende 3 oder 4 Karten über der eigenen haben. Sofern noch eine 5080Ti und 5090Ti oder Titan kommt, wären es bis zu 5.
Grafikspachtel
2025-01-16, 14:02:39
Warum die 9050xt mit 16GB?
Da ist auch Anderes denkbar/ausreichend:
Somit ist die Radeon RX 6700 die einzige Grafikkarte mit 160 Bit, 10 GiByte GDDR6-RAM sowie 80 MiB Level-3-Zwischenspeicher ("Infinity Cache").
RX470 gab es auch in 8GB.
Ursprünglich wollte ich eine RX480, aber die Preise legten ihr eigenes Mondprogramm hin, also wurde es eine RX470, da sie im Angebot war.
Gast Ritis
2025-01-16, 14:29:50
Das erinnert doch für die 9070er an Vega56 und Vega64. Da war der Unterschied allerdings nur 10%.
Man muss abwarten wie gut die Shadereinheiten am Ende durch die Software ausgenutzt werden können, also wie stark die Optimierungen auch für Radeon funktionieren.
Leonidas
2025-01-16, 14:33:18
jetzt beim Einfügen sehe ich die Rdaeon @Leonidas
Oops. Gefixt.
The_Invisible
2025-01-16, 14:39:01
Da man nicht mit der 5080 und 5090 konkurrieren wird/will, kann man auch demnächst launchen wann man will.
Die 70er Karten von nVidia kommen später.
Denke AMD wird gerade noch fein justieren und die Preise deklarieren.
Sowie Altbestände in diesem Preisbereich abverkaufen wollen.
Dagegen steht eigentlich nur die Tatsache, dass die Preise der alten Gen aktuell teuerer werden.
Kauft doch aktuell niemand mehr.
Was passiert eigentlich mit den "alten" Karten die noch unterwegs sind aber niemand kauft?
Eh klar, jeder der sich ein bisschen informiert wird kein RDNA3 mehr kaufen wo nicht mal FSR4 laufen wird, zudem anscheinend auch noch RT Performance >79XTX
bad_sign
2025-01-16, 14:40:24
... die mit Pech doppelt so teuer wird wie eine 9070 XT. Kein valider Vergleich.
@Leo: Tolle Zusammenfassung und Einschätzung der generellen Lage. :up:
MfG
Raff
mMn hätte AMD einfach die 4080 erreichen müssen, es scheint ja nicht so weit zu kommen. Ihre Kommunikation ist auch mal wieder reinstes AMD, wie man sie kennt -.-
Weniger bringt halt nichts. Kommend von der 6800XT, unter 50% Mehrleistung fange ich nicht an, dann muss noch ein Wasser Block drauf. Und falls möglich warte ich nicht noch bis nach Januar.
PoE2 will Leistung und zwar jetzt
GerryB
2025-01-16, 15:15:57
Weils gerade so passt, ... CB hat die 10GB-B570 getestet.
reicht doch für einige Games trotz rel. schlechtem Speichermanagement
(kann AMD sicherlich besser, falls man doch N44 mit 160bit bringen kann)
btw.
die Treiber sind natürlich nicht in jedem Game für Intel optimal
trotzdem gibts schon angenehme Überraschungen, die das Potential zeigen
9070xt und 9070 gibt es damit schon seit zwei Jahren in Form der 4070 und 4070ti. Ich frage mich bei mittlerweile 90% marktanteil für nvidia wer das noch braucht, wo klar ist das nvidias ansätze wie dlss, rt und deren treiber oft besser funktionieren. ist ja nicht so das nvidias marktanteil allein aus der 4090 besteht, nein es sind dann ja genau diese 4070 bis 4070ti s die den anteil mit ausmachen und warum sollte man bei gleicher leistung und schlechteren treiber dann zu amd wechseln? ich verstehe es nicht sorry. die leute werden wie immer nvidia kaufen.
während intel seinen zen moment durchlebt, erlebt amd den ampere moment. wers braucht. beide karten prügeln sich also mit der 5070 umher, die auch nicht mehr kostet. für 1080p bis 1440p reichen dann vermutlich auch die 12gib vram. wenn man will und es passt ruft man mit fgx4 4090 fps leistung ab. die frage stellt sich also erst gar nicht was man dann kauft. das sind dann wieder nur die 3 hanseln die sowieso nie nvidia kaufen würden, aus welchen gründen auch immer. rtg ist tot.
bad_sign
2025-01-16, 15:49:15
Weil die 70 Ti bei 900€ lag und die 70Ti Super bei 850€ liegt
Eine gleichstarke 9070XT für 600€ wäre schon eine deutliche Besserung - wenn AMD einen guten Preis durchzieht ;)
(kann AMD sicherlich besser, falls man doch N44 mit 160bit bringen kann)
Und hier kannst du sogar sehen, was eine RX 6700 10GB, die optimale Vorlage, reißt:
RZ: https://www.pcgameshardware.de/Arc-B570-Grafikkarte-280999/Tests/vs-RTX-4060-vs-B580-Test-Review-Benchmarks-1463521/2/
RT: https://www.pcgameshardware.de/Arc-B570-Grafikkarte-280999/Tests/vs-RTX-4060-vs-B580-Test-Review-Benchmarks-1463521/3/
Du musst also nicht raten, PCGH hat auf fast alles die Antworten. :biggrin:
MfG
Raff
Dass für eine höhere Datenmenge nicht auch höhere Bandbreite benötigt wird hört sich für mich falsch an.
Ist aber trotzdem so.
Für einen Großteil des Bildes brauchst du die höhere Datenmenge gar nicht, die ist nur für Mip-Level 0 relevant.
Den Rest regelt der Texturcache, im Idealfall musst du pro berechnetem Pixel und pro Texturlayer nur 1 Texel aus dem VRAM laden, der Rest wird vom Texturcache abgefangen. Und real kommt man sehr nahe an dieses Optimum.
Davon abgesehen verbrauchen Texturen, sowieso nur einen sehr geringen Teil der benötigten Bandbreite. Der viel größere Teil sind die zig Renderbuffer die es in heutigen Engines gibt.
GerryB
2025-01-16, 15:58:33
Du musst also nicht raten, PCGH hat auf fast alles die Antworten. :biggrin:
MfG
Raff
Jo, hab ich erst hinterher gesehen, das Du auch schon mit dem Review fertig bist, ... inclusive DESODRE, danke.
(CB hat den kleinen Vorteil, das man grobe Ausreißer einfach mal ausblenden kann, wenn man nen Parcour hernimmt,
... das ist also nicht gegen PCGH gerichtet, das ich öfter CB-charts für Vgl. nehme.)
Bei Ratchet & Clank hast Du irgendwas richtig gemacht, was TPU total versemmelt hat.
Ist da ds = ON?
9070xt und 9070 gibt es damit schon seit zwei Jahren in Form der 4070 und 4070ti. Ich frage mich bei mittlerweile 90% marktanteil für nvidia wer das noch braucht, wo klar ist das nvidias ansätze wie dlss, rt und deren treiber oft besser funktionieren.
Die 87,56% der Spieler die keine 4070 oder besser haben.
Dass für eine höhere Datenmenge nicht auch höhere Bandbreite benötigt wird hört sich für mich falsch an.
Natürlich braucht es schon etwas mehr Bandbreite, wenn die höher aufgelösten Mipmaps tatsächlich herangezogen werden, was halt bei den meisten Texturen nicht der Fall ist. Bleibt es beim gleichen Mipmaplevel, ändert sich der Bandbreitenbedarf nicht.
Dass die Hardwaredaten für Navi48 meiner Meinung nicht ideal sind hatte ich bereits vor einem Jahr angemerkt, besonders weil man wohl Navi33 noch eine weile weiterlaufen lassen will.
Ein Speicherinterface mit 160Bit wäre wohl ohne großen Aufwand machbar gewesen.
https://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=13521272
@Leonidas
Ich habe meinen Zugang zu meiner email Adresse zum User "Torg" leider nicht mehr. Kann man das was tun um eine neue email Adresse zu hinterlegen?
crnkoj
2025-01-16, 18:28:41
Mich würde ein taktnormierter Vergleich der 9070 xt mit 3iner Vega 64 interessieren. Beide haben 64shader Cluster und 4096 shader. Da müsste man die 9070xt auf 1400-1600mhz heruntertakten und man könnte echt toll die Architekturverbeseerungen ausmessen.
Ob underclock auf 1600 mit 9070xt gehen würde
Gast 145
2025-01-16, 22:00:23
Mich würde ein taktnormierter Vergleich der 9070 xt mit 3iner Vega 64 interessieren. Beide haben 64shader Cluster und 4096 shader. Da müsste man die 9070xt auf 1400-1600mhz heruntertakten und man könnte echt toll die Architekturverbeseerungen ausmessen.
Ob underclock auf 1600 mit 9070xt gehen würde
Aepfel und Birnen fuerchte ich.
Gastein
2025-01-16, 22:20:55
9070xt und 9070 gibt es damit schon seit zwei Jahren in Form der 4070 und 4070ti. Ich frage mich bei mittlerweile 90% marktanteil für nvidia wer das noch braucht
viel schlimmer noch, auf Steam scheint die 3060er immer mehr Prozente zu angeln wo doch schon eine 7600 von AMD seit langem viel besser wäre.
Aber auch bei Pascal wurden die Gurken in Masse gekauft wo es bei AMD längst besseres P/L gab. Global im low end sieht das eben ganz anders aus. Das ist jetzt aber nichts wofür man irgendjemand applaudieren könnte, es bremst nur den Fortschritt bei Minimalanforderungen wie die EntryPascal auch schon.
Leonidas
2025-01-17, 02:56:55
@Leonidas
Ich habe meinen Zugang zu meiner email Adresse zum User "Torg" leider nicht mehr. Kann man das was tun um eine neue email Adresse zu hinterlegen?
Sprich mit den Mods. Ich hab dazu keine Ahnung.
Lehdro
2025-01-17, 08:31:37
viel schlimmer noch, auf Steam scheint die 3060er immer mehr Prozente zu angeln wo doch schon eine 7600 von AMD seit langem viel besser wäre.
Ich würde die 3060 (12 GiB) jederzeit einer 7600 vorziehen - warum? VRAM & DLSS.
madzapp
2025-01-17, 08:50:02
Was der Vorteil einer 3060 (12 GB) gegenüber einer 7600 xt ist, ist meiner Meinung nach der PCIe 4.0 x16 Anschluss. (hoffe er hat das xt nur vergessen)
Bei 8 gegen 8 GB würde ich auf modernen Boards auch die 7600 nehmen aber 16 GB sind bei meiner nächsten Karte Pflicht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.