PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 [81]

basix
2022-02-07, 17:51:47
Die Frage ist doch eigentlich auch eher: warum sollten die sich auf "nur" 25% der GPUs beschränken?
Wenn jede GPU Gewinn abwirft macht das doch nicht so viel Sinn?

Oder um es anders zu formulieren: irgendwie fällt es mir schwer zu glauben, dass 25% der GPUs "verschütt" gehen und dadurch die Preise so explodieren bzw. zeitweise ja auch die Verfügbarkeit extrem besch…eiden war.

Die Zahlen von heise sind nur auf Ethereum bezogen. Gibt noch viele andere Coins. Dementsprechend auch mehr GPUs, welche ins Mining gehen.

Ausserdem sollten es mehr als 25% sein:
- 14 Monate * 11.8...12.8 Mio GPUs / Quartal = 55...60 Mio GPUs
- 70% von 26...34 Mio GPUs @ Ethereum = 18...24 Mio GPUs
- 18...24 von 55...60 = 30...44%

Bei heise nehmen sie 30-40 MH/sec pro GPU an. Das scheint mir ein einigermassen realistischer Wert für alles zwischen RX 470 bis 6700 XT / RTX 3060.

Anhand der Daten kann man wohl spekulieren, dass auf alle Coins verteilt unter Umständen ~50% der GPUs ins Mining gehen. Was hier allenfalls nicht berücksichtigt wird: Mobile GPUs @ Mining? Ich denke da an die Bilder mit gestapelten Notebooks zurück.

Berniyh
2022-02-08, 09:47:19
Ist schon richtig. Ich stelle die Frage eigentlich aber eher aus einem anderen Grund.
Auch Leo hat ja hier auf 3D Center schon mal abgeschätzt wie viele GPUs ins Mining kommen und kam tendenziell zu dem Schluss, dass das Mining Problem eigentlich nicht so gravierend sein kann, dass es größtenteils für den Preisanstieg verantwortlich ist.

Mir fällt es halt schwer zu glauben, dass sich die Miner da irgendwie beschränken, denn wenn die GPUs Gewinn abwerfen, dann nimmt man halt wirklich alles was man bekommen kann und dann würde man doch eher mit 75% oder noch mehr rechnen. Warum sollten es denn weniger sein?

HOT
2022-02-08, 10:24:49
Klar ist das Mining der Hauptfaktor für die GPU-Verknappung, da gibts überhaupt keinen Zweifel. Es beginnt aber langsam sich nicht mehr zu rechnen. Wenn man 300 Tage braucht, damit sich ein Rig ammortisiert, wirds langsam brenzlig. Nach Ether 2.0 sind es dann 700+ Tage.

bloodflash
2022-02-08, 10:53:59
Mir fällt es halt schwer zu glauben, dass sich die Miner da irgendwie beschränken, denn wenn die GPUs Gewinn abwerfen, dann nimmt man halt wirklich alles was man bekommen kann und dann würde man doch eher mit 75% oder noch mehr rechnen. Warum sollten es denn weniger sein?
Naja, es sind aktuell ziemlich hohe Anfangsinvestitionen nötig, um das professionell, statt nur nebenbei zu betreiben. Da schlagen aktuell mind. 5stellige Beträge ins Kontor, bei einem recht hohen Risiko des Totalausfalls und Ammortisation nach frühestens Monaten.

Hinzu kommen Unsicherheiten wie ein möglicher Wandel bei Ethereum, Verbote in ganzen Ländern usw. usf.

Meine überschlägige Schätzung allein für Ethereum lag bei mind. 25%, nachgerechnet ist man da schon bei 35-40% mit einem Unsicherheitsfaktor von bis zu 25 Prozentpunkten. Da wären wir schon recht nah an Deinen 75%. Mit den ganzen anderen Coins sind wir dan locker bei diesem Wert.

Ich zumindest kenne viele Gamer, die sich einen Rechner genau dafür zusammenstellen und bei 1200,-EUR +/- 50% kein Problem damit haben, aber bei 800,-EUR für eine Mittelklassekarte in 2021 den Kauf schlicht zurückgestellt haben.

Oder glaubst Du ernsthaft, dass 50% der Gamer die Preise trotzdem zahlen? Selbst die 25% glaube ich nur wegen den wegfallenden anderen Ausgaben aufgrund der Pandemie.

YeahBuoy!
2022-02-08, 12:25:21
Ist schon richtig. Ich stelle die Frage eigentlich aber eher aus einem anderen Grund.
Auch Leo hat ja hier auf 3D Center schon mal abgeschätzt wie viele GPUs ins Mining kommen und kam tendenziell zu dem Schluss, dass das Mining Problem eigentlich nicht so gravierend sein kann, dass es größtenteils für den Preisanstieg verantwortlich ist.

Mir fällt es halt schwer zu glauben, dass sich die Miner da irgendwie beschränken, denn wenn die GPUs Gewinn abwerfen, dann nimmt man halt wirklich alles was man bekommen kann und dann würde man doch eher mit 75% oder noch mehr rechnen. Warum sollten es denn weniger sein?

Ich glaube das Problem kommt eher aus der Richtung Platz. Sofern genügend Kapital für Karten, Gestelle, sonstige Hardware & Strom da ist wäre der nächste Engpass dann eher die Stellfläche. Ich vermute da wird bei den Farmbetreibern stumpf gegen gerechnet wieviel Ertrag die pro m² erzielen können und ob es sich lohnt dafür extra Stellflächen anzumieten.

Keine Ahnung wie das exakt in China ausschaut, aber beliebig viele Gewerbeimmobilien mit hinreichend stabiler Stromversorgung und ausreichender Belüftungsmöglichkeiten auch Sommertags wird es vermutlich auch nicht geben.

dildo4u
2022-02-18, 07:58:13
6800S Benchmarks im G14.


https://youtu.be/jjCUP3CGTDI?t=2869

MSABK
2022-02-18, 09:23:57
6800S Benchmarks im G14.


https://youtu.be/jjCUP3CGTDI?t=2869

Bin überrascht, dass der N23 Chip so gut mithalten kann.

vinacis_vivids
2022-02-18, 09:35:02
Wieso überrascht?
N23 ist auf dem Desktop eine RX 6700XT und ist teilweise schneller als ne RTX 3070.

MSABK
2022-02-18, 09:45:20
Wieso überrascht?
N23 ist auf dem Desktop eine RX 6700XT und ist teilweise schneller als ne RTX 3070.

N23 ist eine RX6600xt. N22 ist eine Rx6700xt.

Hatte die auch verwechselt, deswegen hat die 6800S nur 8GB, ich hätte mir da eher 10GB gewünscht, gibt es aber mit dem Chip nicht.

vinacis_vivids
2022-02-18, 09:56:11
Achso, ist also N22 und nicht N23.
Mich verwirrt diese Bezeichnungen auch immer.

Generell ist die Navi uArch der von Ampere überlegen was das Subsystem des Speichers angeht. Spricht bessere Latenzen und direkter Zugriff der CPU auf den VRAM (=SAM).
Dazu gesellt sich noch der deutlich bessere GPU-Takt.

Ampere skaliert nach unten eher schlecht, weil die große Fläche für RT/DLSS in vielen Games mitversorgt werden muss, aber keine Leistung erbringt. Quasi totes Silizium, das sinnlos Energie verbraucht.

dildo4u
2022-02-18, 10:54:19
Die TGP liegt nicht bei 105 AMD kann in dem System einfach deutlich mehr Power zur GPU schaufeln, das alte G14 mit der 3060 hat nur ein 180 Netzteil das neue 240.
Logischerweise will Intel in Nvidia Systemen nicht das zu viel Power für die GPU genutzt wird da Alderlake erst bei 45Watt Plus aufblüht.

Ich vermute das die 6800S in Richtung 130 Watt geht mit Smart Shift, das System nimmt maximal 200.

https://abload.de/img/power-ryzen-6000-perf13k5i.png

https://hothardware.com/reviews/amd-ryzen-6000-asus-zephyrus-g14-2022-review

basix
2022-02-18, 12:31:33
Ich vermute das die 6800S in Richtung 130 Watt geht mit Smart Shift das System nimmt maximal 200.

Den selben Gedanken hatte ich auch. Wenn man sieht, was die Desktop 6600 XT mit 150W anstellt, könnte das schon passen.

vinacis_vivids
2022-02-18, 13:00:54
Also ich weiß nicht, sind 130W mittlerweile "normal" für tragbare Systeme?

AMD gibt offiziell bis zu 100W für die 6800S an.
https://www.amd.com/de/products/graphics/amd-radeon-rx-6800s

Mir ist unklar wie es möglich ist aus der 6800S soviel Leistung herauszuholen. Die 6800S ist nur 11% langsamer als die 6800M obwohl die Anzahl der CU`s mit 32 deutlich geringer ist als bei der 6800M mit 40 CU`s. Auch das SI der 6800M ist mit 192bit deutlich breiter als die 128bit bei der 6800S.
Auch der IF-Cache von 32MB ist deutlich geringer als die 96MB bei der 6800M. Irgendwie sind die Werte nicht ganz plausibel.

Vermutlich bringt Zen3+ recht viel bei der zusätzlichen Grafikleistung, das ist sehr beeindruckend.

Rembrandt ist ein absoluter Game-Changer :eek:

MSABK
2022-02-18, 13:04:32
Was mir gerade auch noch einfällt, SAM (rBAR) sollte man auch noch im Blick haben. Das bringt denke ich auch das ein oder andere Prozent an Leistung.

Mir ist unklar wie es möglich ist aus der 6800S soviel Leistung herauszuholen. Die 6800S ist nur 11% langsamer als die 6800M obwohl die Anzahl der CU`s mit 32 deutlich geringer ist als bei der 6800M mit 40 CU`s. Auch das SI der 6800M ist mit 192bit deutlich breiter als die 128bit bei der 6800S.
Auch der IF-Cache von 32MB ist deutlich geringer als die 96MB bei der 6800M. Irgendwie sind die Werte nicht ganz plausibel.

Genau das frage ich mich auch die ganze Zeit.

dildo4u
2022-02-18, 13:20:46
Asus lässt das Ding einfach mher am Limit laufen als vorher man muss die 2.5k auch irgendwie mit Performance rechtfertigen.

https://youtu.be/S5iXvDAwNVI?t=177

vinacis_vivids
2022-04-04, 11:57:49
https://videocardz.com/newz/amd-radeon-rx-6950x-rx-6750xt-and-rx-6650-xt-pictured-release-date-moved-to-may-10th

Refresh von RDNA2 soll am 10.Mai rauskommen:

RX 6950XT - Speicher auf 18GBps - 350W
Von 512GB/s auf 576GB/s Bandbreite des SI.
Coretakt wird sich verbessern auf 2,6-2,8Ghz oder gar 2,8-3,0Ghz?

Zur Erinnerung:
6900XT Referenz : 2,1-2,3Ghz
6900XT(H) Custom: 2,4-2,6Ghz
6900XT(H) Custom OC: 2,5-2,7Ghz

Der Sprung auf 2,8-3,0Ghz per Luftkühlung wäre natürlich der Oberhammer und feinste Selektionsarbeit der AMD-Ingenieure. Bei 350W und ewtl. OC Möglichkeiten auf 400W müssten intern ein paar Änderungen bei der Platine gemacht werden.


RX 6750XT - Speicher auf 18GBps - ???W
RX 6550XT - Speicher auf 18GBps - ???W

basix
2022-04-04, 12:44:31
An so hohe Taktraten glaube ich nicht. 2.5-2.6 GHz ab Werk, mehr wird es nicht werden. Zumindest nicht bei 350W. Das sind immerhin ~15% mehr Takt vs. 6900XT bei +15% TDP. Das wäre schon extrem gut.

Selbst die 6900 XT LC läuft nur auf ~2.4...2.45 GHz.

vinacis_vivids
2022-04-04, 13:14:11
https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/2/#abschnitt_6900_xt_xtxh_und_rtx_3090_bis_zum_absturz_uebertaktet

Die Luftgekühlte 6900XT (XTXH) läuft mit 2,55-2,76 Ghz.

https://abload.de/img/6900xtxtxhcoreclock5ek53.png

AMD will auch gar nicht zu sehr auf Bruteforce fahren, sondern die Fertigung lieber intern verbessern und erst danach die Taktraten freigeben. Die 6950XT wird auf jeden Fall durchgehend besser takten als die 6900XT.
Bleibt nur die Frage wie hoch die Kernspannung geht, weil 1.2V schon recht ordentlich sind. Vllt. 1.25V Brechstange, wobei ich 1.2V besser finde mit besseren Taktraten.

Die Prestigegrenze von 3,0 Ghz GPU-Takt sollten schon anvisiert werden.

Gipsel
2022-04-04, 13:20:48
Die Prestigegrenze von 3,0 Ghz GPU-Takt sollten schon anvisiert werden.Ohne eine Überholung der Architektur (RDNA3) oder einer für einen Navi21-Refresh extremst unwahrscheinlichen 6nm-Fertigung (wie Navi24) ist das außerhalb von einer kleinen Handvoll Golden Samples ziemlich ausgeschlossen. Das gibt der Navi21-Chip einfach nicht her.

Neurosphere
2022-04-04, 14:09:38
Interessanter an den Refreshes könnte wie bei der 3090ti die Platine sein. Vermutlich wird AMD sich auch schon an der neuen Stromversorgung versuchen und eine Platine bringen die schon für Navi3x funktioniert. Von den Karten an sich würde ich nicht zu viel erwarten.

Lehdro
2022-04-04, 14:39:40
Interessanter an den Refreshes könnte wie bei der 3090ti die Platine sein. Vermutlich wird AMD sich auch schon an der neuen Stromversorgung versuchen und eine Platine bringen die schon für Navi3x funktioniert. Von den Karten an sich würde ich nicht zu viel erwarten.
Die nehmen einfach die XT LC (siehe hier (https://www.pcgameshardware.de/Radeon-RX-6900-XT-LC-Grafikkarte-277614/Tests/6900-XT-LC-Benchmarks-RX-6900-XT-Liquid-Cooling-Test-1375809/)) und klatschen einen Luftkühler drauf, fertig.

Edit: Wobei ich das immer noch sinnlos finde. Dann kann man auch einfach die XT(XH) LC releasen und nicht nur an OEMs verscherbeln.
Da AMD die Brechstangenkrone eh nicht holen wird/kann, ist das ganze vergebene Liebesmüh. Der einzig vernünftige Konter zur 3090 Ti ist diese der Lächerlichkeit preizugeben, also die reguläre 6900XT im Preis zu senken, der vertretbar zur 6800XT im Vergleich der Leistungswerte wäre. Quasi mit einem 850€ Produkt sehr nah an ein >2000€ Produkt heranzureichen.

vinacis_vivids
2022-04-04, 15:35:13
AMD macht mit ~340-350W der 6950XT schon die richtige Entscheidung statt 470-480W Brechstange bei der 3090Ti.
Der ganze Aufwand für ein neues PCB-Board für 470-480W lohnt sich nicht, weil man im Rasterizing eh die Krone hat und bei Ray-Tracing eine uArch Verbesserung braucht.

Mit 400-450W kann AMD bereits in der neuen Gen. dann zwei GPUs als ein 2xMCM auf einer Platine platzieren und mit 32GB bestücken. Lohnt sich wohl wirklich nicht mehr noch Teams in Navi21 zu stecken wenn das Knowhow eh bei Navi3X landet.

Ich hoffe mal auf Taktverbesserung realistischerweise bei 2,8Ghz@350W und 3,0Ghz@400W leichte Brechstange bei 7nm. Kann aber auch sein, dass bei 2,8Ghz das Powerlimit einschaltet wie bei der XTXH und die 6950XT lediglich mit besserem Speicher bestückt wird.

Ein ähnliches Spielchen gabs es ja mit der alten X1900 XTX und dann der refresh auf X1950 XTX. Im Prinzip der gleiche Chip mit besserem Speicher, leicht verbesserte Platine und leicht optimierte Kühlung.

basix
2022-04-04, 19:41:35
https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/2/#abschnitt_6900_xt_xtxh_und_rtx_3090_bis_zum_absturz_uebertaktet

Die Luftgekühlte 6900XT (XTXH) läuft mit 2,55-2,76 Ghz.

https://abload.de/img/6900xtxtxhcoreclock5ek53.png


Laut dem Bild sind es im Schnitt 2.52 GHz und übertaktet 2.59 GHz ;) Passt doch gut in den 2.5...2.6 GHz Bereich den ich genannt hatte. Wenn wir sehr viel Glück haben, sehen wir evtl. 2.7 GHz im Schnitt, aber ich bezweifle das.

Ohne eine Überholung der Architektur (RDNA3) oder einer für einen Navi21-Refresh extremst unwahrscheinlichen 6nm-Fertigung (wie Navi24) ist das außerhalb von einer kleinen Handvoll Golden Samples ziemlich ausgeschlossen. Das gibt der Navi21-Chip einfach nicht her.

Selbst N24 in 6nm schafft 3.0 GHz nicht ;) Die 6500XT läuft mit ~2.85 GHz laut dem CB-Review.

Anhand der 6500 XT und 6600XT Customs sieht man auch, dass RDNA2 oberhalb 2.6...2.7 GHz anfängt zu saufen.

N21 mit 3.0 GHz würde wohl in Richtung 500+W tendieren. Ne, das wird nicht passieren. In vinacis_vivids CB-Link säuft die ~2.6 GHz 6900 XT fast 440W ;)

vinacis_vivids
2022-04-04, 20:08:50
Navi24 mit 6nm ist schon praktisch bei ~2,9Ghz

https://abload.de/img/6500xtcoreclockyckb7.png

https://www.computerbase.de/2022-02/amd-radeon-rx-6500-xt-review-test/2/#abschnitt_die_durchschnittlichen_taktraten_unter_last
"Wer ihn durchweg bei rund 2.900 MHz haben will, muss übrigens nur das TGP-Limit nach oben schrauben. Bei zusätzlichen 15 Prozent Power-Limit sind dauerhaft 2.900 MHz einfach machbar kein Problem."

Die Frage, die ich mir hier stelle ist, ob N21 refresh auch einfach 2,8-2,9Ghz schafft in Form der 6950XT. Mit Wasser dann 3,0 Ghz allein schon aus Prestigegründen :tongue:
Vielleicht hat AMD/TSMC auch leise auf 6nm umgestellt, das wäre natürlich unter dem Radar ein absoluter Hammer :eek:

Seit der Erscheinung ist die Navi2 uArch von 2,2 auf 2,9 Ghz skaliert. Das macht Lust auf mehr AMD :biggrin:

Wie auch immer, wir werden es sehen am 10. Mai.

Nightspider
2022-04-04, 20:33:06
Wieso sollten sie N21 shrinken wenn demnächst eh N33 als Ablösung kommt?

Wäre doch dämlich und überflüssig.

basix
2022-04-04, 20:49:41
Navi24 mit 6nm ist schon praktisch bei ~2,9Ghz

Ein paar Fragen:
- Wie viele CUs hat N24 und wie viele hat N21?
- Wie breit ist das Speicherinterface der zwei Chips?
- Wie viel Infinity Cache haben die zwei Chips?
- Wie viel säuft die 6500 XT im Test?

Antworten:
- 16 und 80CU. N21 hat also 5x mehr
- 64 und 256bit. N21 SI ist also 4x breiter
- 16 und 128 MByte. N21 hat also 8x mehr Infinity Cache
- 108W

Wenn wir gütig sind, nehmen wir den Durchschnitt von 4x & 5x und multiplizieren das mit der Leistungsaufnahme der 6500 XT. Wo landen wir? 486 Watt. Da draus jetzt noch 3.0 GHz machen und die Leistungsaufnahme auf 350W senken? Oder nehmen wir den 6900 XT XTXH Test, wo mit Werkzustand 2.52 GHz bei 375W anliegen. +20% Takt bei geringerem Verbrauch? Und die 6900XT Chips sind notabene die bereits eher effizienteren N21 Chips.

Ich bleibe dabei. ~2.5 GHz sind realistisch, ~2.6 GHz könnten passieren, ~2.7 GHz mit viel Glück und 3.0 GHz höchst unwahrscheinlich. Ich lasse mich ja gerne überraschen aber anhand der aktuellen Faktenlage sehe ich das letztere nicht passieren.

Die Frage, die ich mir hier stelle ist, ob N21 refresh auch einfach 2,8-2,9Ghz schafft in Form der 6950XT. Mit Wasser dann 3,0 Ghz allein schon aus Prestigegründen :tongue:

Die 3.0 GHz aus Prestigegründen wären sicher nice, da gebe ich dir recht. Evtl. als 500W Liquid Edition mit dem neuen PCIe 5.0 Stecker. Aber was bringt das? Nicht viel würde ich meinen. Das BIOS der 6950 XT soll einfach >3.0 Ghz zulassen, dann sieht man entsprechende OC Benches im Netz. Für die Publicity reicht das locker.

gedi
2022-04-04, 21:38:32
Ohne eine Überholung der Architektur (RDNA3) oder einer für einen Navi21-Refresh extremst unwahrscheinlichen 6nm-Fertigung (wie Navi24) ist das außerhalb von einer kleinen Handvoll Golden Samples ziemlich ausgeschlossen. Das gibt der Navi21-Chip einfach nicht her.

Hum-selektierte XTXHs können das gar undervolted! Man kaufe sich eine XTXH von Sapphire (Toxic-Extreme), nimmt das MPT, befasst sich damit und hat easy 3g+ bei 1.125V! Ihr solltet den Igor nicht nur zitieren, sondern euch mal damit beschäftigen was er da von sich gibt!

HOT
2022-04-04, 22:36:26
Die Dinger haben einfach ne höhere TDP. Das sieht man auch daran, dass die 6750XT-Referenz jetzt nen Triple-Fan-Kühler hat. Die 6950XT wird einfach 350W haben und fertig. Das sind auch keine Shinks oder Prozesswechsel. Der kommt für N22S und N23S sicherlich auch, aber in der neuen Gen erst.

Lehdro
2022-04-05, 15:50:42
Das BIOS der 6950 XT soll einfach >3.0 Ghz zulassen, dann sieht man entsprechende OC Benches im Netz. Für die Publicity reicht das locker.
Viele XTXH BIOSe lassen doch jetzt schon >3 GHz zu. Es gibt sogar schon deutlich über 3 GHz OC Benches: Radeon RX 6900 XT: Spitzenposition mit 3,3 GHz bei 3D-Marks Fire Strike. (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/News/3D-Mark-Score-Platz-1-Fire-Strike-1388366/)

Gipsel
2022-04-05, 16:14:47
Viele XTXH BIOSe lassen doch jetzt schon >3 GHz zu. Es gibt sogar schon deutlich über 3 GHz OC Benches: Radeon RX 6900 XT: Spitzenposition mit 3,3 GHz bei 3D-Marks Fire Strike. (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/News/3D-Mark-Score-Platz-1-Fire-Strike-1388366/)
Mit LN2. Alles ab 3GHz benötigt normalerweise mindestens einen Chiller (oder Eiswasser oder sowas, um vielleicht die glatten 3GHz zu stabilisieren, ansonsten ist typischerweise bei ~2,9GHz Ende Gelände).

basix
2022-04-05, 16:18:51
Ich glaube stabil >3.0 GHz mit z.B. Luftkühlung und glaube auch den LC Editions habe ich noch nirgends gesehen. Mir ist sowas zumindest nicht bekannt. Mit speziell selektierten N21 Die und angepasstem PCB & Stromversorgung & BIOS / Firmware könnte das einfacher zu schaffen sein. Und somit eine spezielle Daseinsberechtigung für die 6950 XT schaffen. Aber bei 350W und Werkzustand sind solche Taktraten etwas utopisch. Als max. OC Ergebnis und offenem Power Limit schon eher denkbar.

Edit
Hier hätten wir ein Beispiel von sowas. Das ist aber mit WaKü-Block und selbst die hat in Nutzer Reviews die 3.0 GHz nicht geknackt.
https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/News/Zero-WB-verspricht-ueber-3-GHz-OC-1379953/

Gipsel
2022-04-05, 16:30:56
Ich glaube stabil >3.0 GHz mit z.B. Luftkühlung und glaube auch den LC Editions habe ich noch nirgends gesehen. Mir ist sowas zumindest nicht bekannt. Mit speziell selektierten N21 Die und angepasstem PCB & Stromversorgung & BIOS / Firmware könnte das einfacher zu schaffen sein. Und somit eine spezielle Daseinsberechtigung für die 6950 XT schaffen. Aber bei 350W und Werkzustand sind solche Taktraten etwas utopisch. Als max. OC Ergebnis und offenem Power Limit schon eher denkbar.

Edit
Hier hätten wir ein Beispiel von sowas. Das ist aber mit WaKü-Block und selbst die hat in Nutzer Reviews die 3.0 GHz nicht geknackt.
https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/News/Zero-WB-verspricht-ueber-3-GHz-OC-1379953/
>3GHz kann man da vielleicht einstellen, laufen aber unter Last sicher nicht.
Die schon mal genannte Sapphire Toxic Extreme Edition hält out of the box etwas über 2,7GHz bei guten 400W oder so (gibt auch noch eine wassergekühlte Version eines anderen Hersteller, die praktisch ähnlich liegt). Mit ein bißchen Tuning bekommt man die dann (unter Wasser) auf gute 2,8GHz vielleicht auch mal 2,9GHz (bei dann 500W oder gar mehr). Aber dann machen die nach den Berichten die ich gesehen habe alle die Grätsche (solange man nicht extremere Kühmethoden anwendet).

Lehdro
2022-04-05, 16:41:48
Es ging aber eindeutig bei dem was ich extra gequotet habe um die BIOS Limits, von daher ist das mit der Praxis eh Makulatur wie wir sehen.

Zossel
2022-04-05, 16:42:11
Wieso sollten sie N21 shrinken wenn demnächst eh N33 als Ablösung kommt?

Wäre doch dämlich und überflüssig.

Es gibt IMHO einen zu 7nm kompatiblen verbesserten Prozess.

basix
2022-04-05, 18:22:10
Es ging aber eindeutig bei dem was ich extra gequotet habe um die BIOS Limits, von daher ist das mit der Praxis eh Makulatur wie wir sehen.
Keine Angst, das war schon klar ;) Es ging mehr um die Frage, ob es 3.0 GHz ausserhalb extremen Kühlmethoden bisher überhaupt gab. Die Anwort ist offensichtlich nein. Jetzt ist die Frage, ob mit zusätzlichen Massnahmen wie neuer Firmware, spezieller Stromversorgung usw. noch irgendwie +100...300 MHz rauspressen kann. Natürlich nicht ohne bei irgendwo 500W zu landen aber um den Claim "Erste 3.0 GHz fähige Desktop-GPU" für sich behaupten zu können ;)

vinacis_vivids
2022-04-06, 13:22:05
N24 hat bereits gezeigt, dass 2,9Ghz einfach per Luft möglich sind. Die Navi bzw. insbesondere Navi2 uArch an sich ist extremst taktfreudig, nur der 7nm Fertigungsprozess ist hier limitierend.

Ein leicht verbessertes Upgrade von 7nm auf 6nm knackt die 3,0Ghz auch per Luft mit annehmbaren Verbrauch von 350W.
Ist nur die Frage wie weit TSMC beim Umbau der 7nm Tools auf 6nm ist und ob die Kapazität bei 6nm noch von Navi21 refresh besetzt werden kann oder eher Alderbaran, Zen3D und Navi24 an der Speerspitze stehen.

Bei Beibehaltung der 7nm bei N21 refresh gehe ich von kleineren Verbesserungen aus, die dann 2,8-2,9Ghz per Luft und 350W (+15% PowerLimit) ~ 402W machen. Custom-Partner mit eigenen Boards haben sicherlich noch etwas mehr Spielraum nach oben (bis 475W) um die 2,9-3,0Ghz Takt unter UHD-Last zu knacken.

Ich würde bei AMD 18 Stunden pro Tag, jeden Tag lang nur selektieren und versuchen N21 auf 3,0Ghz zu takten. Am besten noch mit 7nm Fertigung. Die 300-400Mhz mehr GPU-Takt müssen zu knacken sein.

Gipsel
2022-04-06, 14:04:53
Ich würde bei AMD 18 Stunden pro Tag, jeden Tag lang nur selektieren und versuchen N21 auf 3,0Ghz zu takten. Am besten noch mit 7nm Fertigung. Die 300-400Mhz mehr GPU-Takt müssen zu knacken sein.Die haben bei AMD vermutlich Sinnvolleres und auch Erfolgversprechenderes zu tun. :rolleyes:

basix
2022-04-06, 14:36:32
N24 hat bereits gezeigt, dass 2,9Ghz einfach per Luft möglich sind. Die Navi bzw. insbesondere Navi2 uArch an sich ist extremst taktfreudig, nur der 7nm Fertigungsprozess ist hier limitierend

N21 ist 5x grösser als N24, nutzt N7 anstatt N6 und war die erste RDNA2 GPU. N24 wurde >1 Jahr später released, womit man mehr Erfahrung beim Design hatte. Alles Faktoren, wo N24 stark begünstigen, um die 2.9 GHz zu erreichen. Und selbst N24 bewegt sich bereits am Maximum und weit überhalb des effizienten Bereichs.

Man muss einfach einsehen, dass RDNA2 in N6/7 bis knapp 2.5...2.6 GHz mit noch effizientem Betrieb designed wurde. Alles darüber wird sehr ineffizient. Und umso mehr Leistung die GPU aufnimmt und somit wärmer sie wird, desto schwieriger wird ein stabiler Betrieb bei diesen Taktraten. Die knapp 100W der 6500XT sind deutlich einfacher wegzukühlen als 500W auf einem ähnlich gelagerten N21. Nur schon die höheren Ströme und die höhere Abwärme erschweren den Betrieb bei sehr hohen Taktraten. Die 6500XT TUF kommt auf 60°C Edge Temperatur. Die 6900 XT Customs sind eher so bei 70...80°C. Geht man von 300 -> 500W wird das nicht besser werden, siehe 3090 Ti.

Langlay
2022-04-06, 15:14:27
N21 ist 5x grösser als N24, nutzt N7 anstatt N6 und war die erste RDNA2 GPU. N24 wurde >1 Jahr später released, womit man mehr Erfahrung beim Design hatte. Alles Faktoren, wo N24 stark begünstigen, um die 2.9 GHz zu erreichen. Und selbst N24 bewegt sich bereits am Maximum und weit überhalb des effizienten Bereichs.


Wobei meine Day1 Ref. 6900XT schon ~2.7GHz schafft mit 1.175V mit etwas mehr Spannung kann ich auch ~2.75GHz schaffen und dann ist der Slider für den Coretakt zuende, also ich könnte mir schon vorstellen das es goldene Chips gibt die 3 GHZ mit 1.25-1.3V schaffen könnten unter Wasser.


Man muss einfach einsehen, dass RDNA2 in N6/7 bis knapp 2.5...2.6 GHz mit noch effizientem Betrieb designed wurde. Alles darüber wird sehr ineffizient. Und umso mehr Leistung die GPU aufnimmt und somit wärmer sie wird, desto schwieriger wird ein stabiler Betrieb bei diesen Taktraten. Die knapp 100W der 6500XT sind deutlich einfacher wegzukühlen als 500W auf einem ähnlich gelagerten N21. Nur schon die höheren Ströme und die höhere Abwärme erschweren den Betrieb bei sehr hohen Taktraten. Die 6500XT TUF kommt auf 60°C Edge Temperatur. Die 6900 XT Customs sind eher so bei 70...80°C. Geht man von 300 -> 500W wird das nicht besser werden, siehe 3090 Ti.


Edgetemp ist quasi egal, Hotspot ist interressant und da ist Navi21 z.b. deutlich besser als Vega20. Meine Radeon VII mit UV (~190W GPU Power) und Wasserkühler 80-85°C Hotspot meine 6900XT mit UV und Wasserkühler (~250W GPU Power) 55-60°C Hotspot. Gut der Chip von Navi21 ist halt auch deutlich grösser als der von der Radeon VII.

basix
2022-04-07, 10:22:26
Wobei meine Day1 Ref. 6900XT schon ~2.7GHz schafft mit 1.175V mit etwas mehr Spannung kann ich auch ~2.75GHz schaffen und dann ist der Slider für den Coretakt zuende, also ich könnte mir schon vorstellen das es goldene Chips gibt die 3 GHZ mit 1.25-1.3V schaffen könnten unter Wasser.

Und warum sieht man diese "3.0 GHz Golden Samples" nirgends? ;)



Edgetemp ist quasi egal, Hotspot ist interressant und da ist Navi21 z.b. deutlich besser als Vega20. Meine Radeon VII mit UV (~190W GPU Power) und Wasserkühler 80-85°C Hotspot meine 6900XT mit UV und Wasserkühler (~250W GPU Power) 55-60°C Hotspot. Gut der Chip von Navi21 ist halt auch deutlich grösser als der von der Radeon VII.
Ja, klar ist Hot Spot kritischer. Nur findet man das nur in den wenigsten Reviews ;) Hot Spot zu Edge wird bei höheren Temperaturen und Wattagen eher noch weiter auseinandergehen.

Raff
2022-04-07, 12:58:37
Und warum sieht man diese "3.0 GHz Golden Samples" nirgends? ;)

Weil es genauso realistisch ist wie 2,3 GHz bei 'nem GA102. Diese ganzen hohen Zahlen lassen sich, wenn überhaupt, ganz kurz nutzen, nicht für ausgedehnte Messreihen und schon gar nicht in Ultra HD. Wer damit herumposaunt, bezieht sich immer auf kurze Suicide-Runs, 3DMark99 oder von mir aus auch Fire Strike. ;)

MfG
Raff

Linmoum
2022-04-07, 14:45:14
Also >=2.7GHz schaff ich mit meiner 6900XT auch in UHD in Spielen wie Witcher 3 oder Doom. Geht natürlich nicht mit Stock-PL, aber wenn man das aufdreht samt Voltage auf Max. geht das schon. Und das ist eine "Launch-6900XT".

Lehdro
2022-04-07, 15:07:37
Ich kriege mit meiner popeligen MBA (Ref) 6900XT >2,45 GHz (Effektivtakt, nicht der Anzeigenbeschisstakt) in 5k hin.
Denke 2,8 - 2,9 GHz gehen mit einer XTXH und ordentlicher Kühlung + Handtuning durch MPT sicher.

Gipsel
2022-04-07, 16:03:23
~2,8GHz, vielleicht auch noch etwas mehr gehen bei entsprechenden Exemplaren (vom Hersteller entsprechend selektiert) offenbar schon mal. Aber ich habe noch nie irgendwas über 2,9GHz (stabiler Takt unter Last) gesehen, was nur mit halbwegs normaler Wasserkühlung (also Kühlwasser auf Raumtemperatur) lief. Offenbar existieren diese Samples nicht (oder vielleicht nur in einstelliger Anzahl). Selbst mit flüssig Stickstoff kommt man ja scheinbar nur auf ~3,3GHz. Also da scheint wirklich ziemlich hart eine Wand zu sein.

vinacis_vivids
2022-04-24, 13:30:23
Das ist alles auf 7nm bezogen. Die 6nm Chips takten durch die Bank höher, siehe 6500XT bei knapp 2,9Ghz ohne Aufwand.

Bei dem möglichen Refresh auf 6nm ist für N21XTX 2,9Ghz per Luft einfach möglich. Mit Wasser vllt. dann 3,0-3,1Ghz.

N21 XTX(H) 7nm ~ 2,6-2,8Ghz (OC)
N21 XTX(H) 6nm ~ 2,9-3,1Ghz (OC)

Der höhere Takt gepaart mit schnelleren Speicher und vllt. höheren IF-CLK für eine bessere Hitrate bringen keinen Quantensprung, aber schon einige Prozente zusätzlich. Nach 18 Monaten kann man ja auch was erwarten.

amdfanuwe
2022-04-24, 13:57:41
N21 wird durch N33 ersetzt, da gibt es keine 6nm N21.
Die xx50er die jetzt kommen dürften nur dem 7nm Abverkauf geschuldet sein.

N22 und N23 6nm dürften dann erst mit N33 als 7000er Serie später im Jahr kommen.

Platos
2022-04-24, 14:18:47
Krass finde ich aber schon, was für Taktraten wir mittlerweile haben bei GPUs. vor 10 Jahren waren es so um die 1000Mhz, jetzt sind es schon 3GHz.

Wann sind wir bei 5GHz GPUs :eek::D ?

Neurosphere
2022-04-24, 14:23:01
Krass finde ich aber schon, was für Taktraten wir mittlerweile haben bei GPUs. vor 10 Jahren waren es so um die 1000Mhz, jetzt sind es schon 3GHz.


10 Jahre für 3x mehr Takt? Zur Jahrtausendwende hättest du mit der Aussage für blanken Schrecken gesorgt!


Takt ist halt immer relativ.

amdfanuwe
2022-04-24, 15:45:31
Wann sind wir bei 5GHz GPUs :eek::D ?
Frag mal Intel

basix
2022-04-24, 15:50:31
Ich weiss nicht, ob 5 GHz bei GPUs überhaupt je erreicht werden. Der Zusatzaufwand wäre enorm, auch bezüglich Chipfläche. Da ist es fast schon effizienter, hier einfach mehr Recheneinheiten zu verbauen. Hoher Takt ist nur sinnvoller, wenn sich das Problem nicht entsprechend parallelisieren lässt, Kostenvorteile bietet (Chipfläche) oder die Architektur nicht gut mit der höheren Breite skaliert. Ausserdem bekommt man mit höherem Takt Probleme mit der Latenz. Bereits heute sind viele GPUs eher latenzlimitiert den bandbreitenlimitiert.

Mehr Takt ist sicher immer gut bezüglich Performance, bei 5 GHz sind wir aber am Limit, was mit Silizium sinnvoll möglich ist. 3-4 GHz CPUs gibt es schon lange und die laufen dort auch effizient. Das ist mMn auch der "Endbereich", wo GPUs langfristig landen werden. Ausser man wechselt von Silizium auf andere Materialien (Graphen, CNT, optisch, ...).

RDNA3 könnte die 3.0 GHz Grenze knacken. RDNA4/5 werden wohl noch was drauf legen. Insbesondere aufgrund von Chiplets und entsprechendem Binning kann da schon noch was gehen. Vielleicht sehen wir 4.0 GHz, was schon krass hoch ist. Aber 5 GHz sehe ich nicht wirklich am Horizont. Ich sage nicht, dass es nie passieren wird (Voraussagen der Zukunft ist so eine Sache). Durch die parallelen Problemstellungen, welche von GPUs bearbeitet werden, ist maximaler Takt mMn einfach nicht die beste Lösung verglichen mit anderen Methoden.

Platos
2022-04-24, 16:04:15
Du meinst, die Latenz ist der Flaschenhals für den Takt?

Und ja, 5GHz wird es wohl bei GPUs die nächsten 20 Jahre nicht geben (unter Silizium), aber gut möglich, dass wir in ein paar Jahren bei 3GHz+ rumgurken (ohne OC). Das ist schon krass für GPUs, auch wenns CPUs schon lange mit solchen Taktraten gibt. Vor ein paar Jahren hätte auch niemand gedacht, dass es (bald) 3GHz GPUs geben könnte.

MSABK
2022-04-24, 16:08:17
Frag mal Intel

ARCxe KS++ oder?

basix
2022-04-24, 16:58:07
Du meinst, die Latenz ist der Flaschenhals für den Takt?

Irgendwann schon. Dann müssen die Rechenwerke auf die Daten warten und drehen Däumchen. Gab bei RDNA2 und Infinity Cache entsprechende Folien dazu, wonach die höhere Bandbreite und die tiefere Latenz zu besserer Performance führen sollen. Speziell bei hohen Taktraten.

Ghost1nTh3GPU
2022-04-24, 17:16:07
Mit entsprechendem Die-Tiling/Stacking wäre wohl in mittelfristiger Zukunft durchaus ALU-Tiles mit angepasstem Prozess und höheren Taktraten möglich.

vinacis_vivids
2022-04-25, 13:40:16
AMD Radeon RX 6900 XT Scores Top Spot in 3DMark Fire Strike Hall of Fame with 3.1 GHz Overclock
https://www.techpowerup.com/291488/amd-radeon-rx-6900-xt-scores-top-spot-in-3dmark-fire-strike-hall-of-fame-with-3-1-ghz-overclock

https://abload.de/img/qmr0v1giyxvc1no2i7jcd.jpg


Vermutlich LN2 Kühlung für die ~3,15 Ghz GPU-CLK und 2,37 GHZ MEM-CLK.

davidzo
2022-04-25, 13:58:53
Mit entsprechendem Die-Tiling/Stacking wäre wohl in mittelfristiger Zukunft durchaus ALU-Tiles mit angepasstem Prozess und höheren Taktraten möglich.

Stacking widerspricht gerade höheren Taktraten. Da sind zum einen die thermischen Limits, siehe 5800x3d, zum Anderen die elektrischen.

Es hat schon einen Grund wieso Intel plant ab 2024 in großem Stil backside power delivery zu verwenden. Die power delivery wird bei immer größerer Logic density und immer mehr metal layers zum Problem, dass man lösen will indem man statt vom letzten metal layer aus lieber direkt über Vias die ersten Layer mit Strom versorgt.
Stacking vergrößert das Problem der parasitären resistance nur, was ohne backside power delivery zum problem wird und mit Sicherheit auch die Taktraten begrenzt.

Höhere Taktraten sind Folge von besserer Optimierung der einzelnen Blöcke, nicht von irgendeiner magischen packagingtechnik. Die Taktraten sind begrenzt durch das schwächste Glied in der Kette, sei es die Alu, der L1cache, RT unit oder die Rops. Eines dieser Bestanteile ist das schwächste und langsamste und definiert die Taktwall.

Insofern ist es nur logisch wenn neue Chips auf Basis ähnlicher IP immer etwas höher takten (RDNA<RDNA2<RDNA3), da man die Learnings der ersten Chips umsetzt und das schwächste Glied in der Kette optimiert. Das gibt aber einen Abnehmenden Grenzertrag und irgendwann fängt man eben von vorne an, siehe GCN vs RNDA.

basix
2022-04-25, 15:28:45
AMD Radeon RX 6900 XT Scores Top Spot in 3DMark Fire Strike Hall of Fame with 3.1 GHz Overclock
https://www.techpowerup.com/291488/amd-radeon-rx-6900-xt-scores-top-spot-in-3dmark-fire-strike-hall-of-fame-with-3-1-ghz-overclock.

Nur zur Info: Die News ist vom Januar und mittlerweile wurde das Resultat bereits übertroffen. Schau das nächste mal direkt bei HWBot nach ;)

Stacking widerspricht gerade höheren Taktraten. Da sind zum einen die thermischen Limits, siehe 5800x3d, zum Anderen die elektrischen.

Vielleicht muss man das generalisierter mit Chiplets betrachten. Stacking ist wie du sagst nachteilig. MCM aber nicht und momentan wissen wir noch gar nicht, wie sie RDNA3 "zusammenkleben". EFB oder InFO_LSI wären Kandidaten, wo das Problem hinsichtlich Power Delivery nicht auftritt. Und dann kann es schon sein, das die Logic Die in einem für Logic optimalen Prozess gefertigt werden (evtl. bezüglich Power Delivery optimierte Metal Layer, welche bei Analog nicht sinnvoll wären). Und durch die kleinere Die der Chiplets usw. wird erweitertes Binning ermöglicht. N24 taktet ohne Probleme mit 2.8-2.9 GHz. Bei N21 ist man bei 2.6-2.7 GHz mit einem sehr guten Sample unterwegs.

AffenJack
2022-04-25, 18:03:29
Vielleicht muss man das generalisierter mit Chiplets betrachten. Stacking ist wie du sagst nachteilig. MCM aber nicht und momentan wissen wir noch gar nicht, wie sie RDNA3 "zusammenkleben". EFB oder InFO_LSI wären Kandidaten, wo das Problem hinsichtlich Power Delivery nicht auftritt.

Es ist doch schon seit Monaten in der Gerüchteküche nur TSMC SoiC im Gespräch und Stacking im Gespräch. Andere Lösungen waren nie wirklich im Gespräch und es ist auch klar das naheliegenste, weil am Effizientesten und bei vCache schon in Verwendung.

basix
2022-04-25, 21:43:18
Ja SoIC wird überall genannt. Ist mMn aber ein reines Hype-Gerücht. SoIC ist mit Abstand am wenigsten erprobt sowie am teuersten und aufwändigsten. Wieso sollte man das jetzt ins Consumer Segment bringen? Bei Zens V-Cache hat man zusätzlich Milan-X mit hohen Margen, um die Kosten fürs Design zu amortisieren. Das hat man bei RDNA3 nicht. Nicht immer ist die technisch performanteste Lösung auch die am Schluss beste. Zens V-Cache kommt ja anscheinend nicht zum Einsatz sondern ein neues, separates MCD. V-Cache ist also kein zwingender Grund für SoIC bei RDNA3.

Stacking ist es auch mit EFB und InFO_LSI. Das ist dann aber 2.5D-Stacking. Die Frage ist, stacked man dort via Silicon-Bridges oder direkt aufs MCD? Bei etwas wie EFB wäre es denkbar, dass man die MCDs unter die GCDs schiebt und so verbindet. MCDs könnten dann zudem gleich die Brücken-Funktion zwischen den GCDs übernehmen. InFO_LSI auf der anderen Seite macht nur mit kleinen Si-Bridges Sinn, macht die MCDs aber "normaler" (kein Abschleifen, keine TSVs). Wenn ich wetten müsste, würde ich auf "normales" EFB wie bei MI200 inkl. Si-Bridges tippen. Dort hiess es aber mal, das der Throughput beim Packaging relativ tief ist. Dafür hätte man den Vorteil, dass HPC und Consumer GPUs die selben Packaging Fertigungslinien verwenden können. Naja, wir werden sehen ;)

Komplett ohne Stacking (Substrat only) würde vermutlich auch funktionieren, dort ist dann aber die Bandwidth Density das grösste Problem: Die Daten-Interfaces wären flächenmässig sehr fett. Das ginge dann auf Kosten der teuren N5HPC-Fläche, ergo ist das unwahrscheinlich.

vinacis_vivids
2022-04-26, 23:00:42
Der italienische Retailer ruft ganz schön krasse Preise auf
https://www.techpowerup.com/293938/first-amd-radeon-rx-6x50xt-card-pricing-posted-by-italian-retailer

6750XT kostet 1300€ :freak:

just4FunTA
2022-04-27, 00:06:24
Der italienische Retailer ruft ganz schön krasse Preise auf
https://www.techpowerup.com/293938/first-amd-radeon-rx-6x50xt-card-pricing-posted-by-italian-retailer

6750XT kostet 1300€ :freak:
bei dem kostet die rx6400 auch 350€ die kriegste hier für ~170€, ein Aufschlag von 100% na das ist doch mal was. :X

https://geizhals.de/asrock-radeon-rx-6400-challenger-itx-90-ga3czz-00uanf-a2718498.html

r3ptil3
2022-05-04, 15:36:50
Ein paar Benchmarkwerte zu den Refreshs.

https://wccftech.com/amd-radeon-rx-6950-xt-rx-6750-xt-rx-6650-xt-3dmark-synthetic-benchmarks-leak-out-6950-xt-faster-than-nvidia-rtx-3090-ti-in-time-spy-fire-strike/


Die 6950 XT erreicht im TimeSpy 22'200+ Punkte. Die 6900 XT hingegen 19'200. Vielleicht haben die auch nur die alten Werte der 6900 XT übernommen, denn seit 06/2021 gab es ja mit den Radeons einen regelrechten Superboost in 3DMark.

Das einzige was mich interessiert bei den Refreshs, ist, ob die 6950 XT bspw. von MSI als Suprim X erscheint und die ASUS als Strix Variante mit Luftkühler daherkommt.

dildo4u
2022-05-04, 15:47:16
Kommt davon wenn man Systeme Quervergleicht dort ist die 3090 schneller als die Ti.
22k für den Refrech macht sinn wenn die 6900XT mit neuen Treibern glatte 20k schafft.

r3ptil3
2022-05-05, 23:03:21
Verrückt:
https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/05/AMD-Radeon-RX-6950-6750-6650XT-Pricing.jpg?ezimgfmt=ng%3Awebp%2Fngcb1%2Frs%3Adevice%2Frscb1-1

Die verlangen ja für die RX 6950 XT sogar jetzt noch mehr als zum Release der RX 6900 XT 2020. :ucrazy2:

vinacis_vivids
2022-05-05, 23:21:52
Was ist daran verrückt?
AMD, Boardpartner, Vertrieb, Banken usw. wollen mehr Geld verdienen.

Platos
2022-05-05, 23:47:20
ja dann sind ja jegliche Preise recht ;D

vinacis_vivids
2022-05-05, 23:52:44
Solange Russland, China oder Europa keine eigenen Chips bringt, die besser und günstiger sind, bleibt die US-Taiwan Achse erstmal vorne.

just4FunTA
2022-05-06, 02:19:30
Verrückt:
https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/05/AMD-Radeon-RX-6950-6750-6650XT-Pricing.jpg?ezimgfmt=ng%3Awebp%2Fngcb1%2Frs%3Adevice%2Frscb1-1

Die verlangen ja für die RX 6950 XT sogar jetzt noch mehr als zum Release der RX 6900 XT 2020. :ucrazy2:

Das finde ich jetzt aber in der aktuellen Situation aber noch human.

dildo4u
2022-05-06, 05:13:38
Ja 6700 xt sind immer noch bei 600, also fraglich das die Preise für OEM überhaupt haltbar sind.

Neurosphere
2022-05-06, 06:31:05
10% in nicht ganz zwei Jahren bei der aktuellen Inflationslage. Natürlich nicht toll das sie überhaupt teurer wird oder ob die 999$ überhaupt gerechtfertigt waren, aber rein von der Wirtschaftslage nachvollziehbar.

horn 12
2022-05-06, 07:35:27
Nun, wenn wirklich um die 10% schneller, kann dies schon hinkommen.
Ist auf RTX 3090 / 3090TI Performance somit oder knapp dahinter...
Aber für die 6800XT siehts dann wirklich schlecht aus, fast das Doppelte kostet dann die 6950XT.
Kann sein dass man jene 6800XT Karte extrem Klein haltet oder denke sogar von der AMD Seite entfernt.
Nur mehr Custom Karten der 6800XT zulässt.
Wäre Hammer Schade!

Neurosphere
2022-05-06, 08:02:27
Geht man nach den Zahlen von Mindfactory ist die 6800 XT auch nicht wirklich gut im Verkauf. Entweder gehen die kleineren Modelle weg oder die Leute greifen gleich zur 6900 XT.

M4xw0lf
2022-05-06, 09:07:11
Verrückt:
https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/05/AMD-Radeon-RX-6950-6750-6650XT-Pricing.jpg?ezimgfmt=ng%3Awebp%2Fngcb1%2Frs%3Adevice%2Frscb1-1

Die verlangen ja für die RX 6950 XT sogar jetzt noch mehr als zum Release der RX 6900 XT 2020. :ucrazy2:
No likey :udown:

Berniyh
2022-05-06, 11:34:05
Naja, ne 6900 XT bekommt man derzeit ja auch nicht gerade nachgeschmissen, auch wenn es natürlich inzwischen deutlich besser aussieht als letztes Jahr.

Lehdro
2022-05-06, 14:43:18
Geht man nach den Zahlen von Mindfactory ist die 6800 XT auch nicht wirklich gut im Verkauf. Entweder gehen die kleineren Modelle weg oder die Leute greifen gleich zur 6900 XT.
Wenn ich mir die Preisunterschiede so anschaue ergibt das auch durchaus Sinn. Da waren teilweise keine 100€ dazwischen, da fällt es doch deutlich leichter nach oben upzugraden...

r3ptil3
2022-05-06, 16:36:38
Wenn ich mir die Preisunterschiede so anschaue ergibt das auch durchaus Sinn. Da waren teilweise keine 100€ dazwischen, da fällt es doch deutlich leichter nach oben upzugraden...

Typisches Beispiel wenn die Miner die Preise bestimmen.

Zwischen der 6800 XT und 6900 XT gibt es ja beim Mikilg praktisch keinen Unterschied, hingegen wenn man 500 6800 XT Karten für 1200 kauft, anstatt die 6900 XT für 1300, macht es in der Menge doch einen Unterschied.

y33H@
2022-05-06, 17:06:11
Verrückt: Die verlangen ja für die RX 6950 XT sogar jetzt noch mehr als zum Release der RX 6900 XT 2020. :ucrazy2:Schneller ergo teurer :uclap:

iamthebear
2022-05-06, 18:17:23
Verrückt:
https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/05/AMD-Radeon-RX-6950-6750-6650XT-Pricing.jpg?ezimgfmt=ng%3Awebp%2Fngcb1%2Frs%3Adevice%2Frscb1-1

Die verlangen ja für die RX 6950 XT sogar jetzt noch mehr als zum Release der RX 6900 XT 2020. :ucrazy2:

Und wenn ich mir so die durchschnittlichen Straßenpreise ansehe liegen die immer noch deutlich über dem 2 Jahre alten UVP. Man sollte AMD nicht dafür bestrafen, dass sie ehrlich sind.
Und 2020 waren noch andere Zeiten. Damals war der VRAM noch deutlich billiger und AMD hat leider viel zu viel davon eingeplant.

r3ptil3
2022-05-06, 18:32:06
Irgendwie verstehen hier einige meine Kritik nicht bezüglich dem Preis.

AMD UVP: 999$ für die RX 6900 XT.
Der Strassenpreis ist dem Markt entsprechend höher.

Wenn aber jetzt AMD selber für die fast identische Grafikkarte nach 1.5 Jahren sogar die UVP selber erhöht, dann ist da einfach etwas falsch gelaufen.
Bedeutet somit, dass wir nicht mit den aktuellen Preisen der Custom-6900 XT rechnen können, sondern locker 150-300 Euro obendrauf rechnen müssen.

Das ist falsch und nochmals falsch.

horn 12
2022-05-06, 18:39:10
https://videocardz.com/newz/official-radeon-rx-6x50xt-series-gaming-performance-leaks-out-rx-6950xt-is-4-faster-than-rx-6900xt

Denke dies ist die LC Version der 6900XT welche da Gegenübertritt
Selber Speicher wie jeen und die 6950XT hat Mehr Watt zur Verfügung und zudem nochmals höher Getaktet als die Liquid.
Dies ist niemals die 6900XT Referenz Karte.

Linmoum
2022-05-06, 19:11:13
Irgendwie verstehen hier einige meine Kritik nicht bezüglich dem Preis.

AMD UVP: 999$ für die RX 6900 XT.
Der Strassenpreis ist dem Markt entsprechend höher.

Wenn aber jetzt AMD selber für die fast identische Grafikkarte nach 1.5 Jahren sogar die UVP selber erhöht, dann ist da einfach etwas falsch gelaufen.
Bedeutet somit, dass wir nicht mit den aktuellen Preisen der Custom-6900 XT rechnen können, sondern locker 150-300 Euro obendrauf rechnen müssen.

Das ist falsch und nochmals falsch.Die USA haben die höchste Inflationsrate seit 40 (?) Jahren. Was soll da billiger werden oder sein? Das ist unrealistische Wunschträumerei.

Überraschend eher, dass der Aufpreis vor allem unten fast schon nicht vorhanden ist.

mboeller
2022-05-10, 13:29:48
sind die zu früh dran?

https://www.notebookcheck.com/AMD-praesentiert-die-Radeon-RX-6950-XT-6750-XT-6650-XT-und-verspricht-die-ultimative-Performance-pro-Watt.618620.0.html

bei der 6950XT nur 5watt mehr Verbrauch ;D

bei den anderen Karten sind es 20w

https://www.notebookcheck.com/fileadmin/_processed_/0/0/csm_AMD_Radeon_RX_6950XT_Performance_06d4ec2c51.png

https://www.notebookcheck.com/fileadmin/_processed_/7/9/csm_AMD_Radeon_6750XT_Performance_35b7e09c3e.png

https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/AMD_Radeon_6650XT_Performance.png

dildo4u
2022-05-10, 13:34:35
Die 6900xt war 300 TDP.

https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481

eratte
2022-05-12, 07:28:11
AMD FSR 2.0 Quality & Performance Review - The DLSS Killer (TechPowerUp) (https://www.techpowerup.com/review/amd-fidelity-fx-fsr-20/)

AMD has achieved the unthinkable—the new FidelityFX Super Resolution FSR 2.0 looks amazing, just as good as DLSS 2.0, actually DLSS 2.3 (in Deathloop). Sometimes even slightly better, sometimes slightly worse, but overall this is a huge win for AMD.........

dildo4u
2022-06-02, 18:32:40
6700 10GB ab 9.6 verfügbar.


https://wccftech.com/amd-readies-radeon-rx-6700-10-gb-graphics-card-custom-models-pictured-launch-9th-june/

dargo
2023-10-19, 08:57:14
China-Spezial.

it5NusXYKuM

Allerdings ist die Beschneidung bei mickrigen 20$ Delta nur noch lächerlich. :freak: