PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 [80] 81

fondness
2021-08-03, 18:44:35
"The two GPUs are connected through the Infinity Fabric Link, which allows data transfer up to 5x faster between the GPUs."

5x schneller als PCIe4? Wäre interessant, was da als Basis genommen wurden von Apple.

Je GPU geht anscheinend ein Link an die obere Boardkante. Das heißt Quad-GPU wird wieder eine Option sein.

Ja, Quad ist defintiv möglich im Mac PRO:

"To push your graphics performance even further, Mac Pro supports configuration of two Radeon Pro W6800X Duo MPX Modules. The four GPUs combine to add up to 60.4 teraflops and 128GB of high-bandwidth graphics memory. It’s a massive amount of performance built to tackle even the most demanding multi-GPU pro applications."

davidzo
2021-08-03, 18:54:18
"The two GPUs are connected through the Infinity Fabric Link, which allows data transfer up to 5x faster between the GPUs."

5x schneller als PCIe4? Wäre interessant, was da als Basis genommen wurden von Apple.


Bei der Mi100 laufen die IF Links mit 1333mhz und bringen so 2x 42gb/s bi direktional, also 2x 84gb/s gegenüber 64gb/s von PCIgen4x16.

Bei Navi21 läuft das IF Fabric mit 2,25Ghz, das wären also 283gb/s - beinahe das 5-fache aus den Marketingangaben.

+ Latenz, overhead, protokoll sind Voteile von von IFlinks/xGMI vs PCIe.

Troyan
2021-08-03, 19:05:10
Nice find! +1

DualGPU Navi21.
Allerdings interessant dass es keine DualGPU 6900er gibt, nur die 6800er. Das erinnert irgendwie an die Anfangszeit der DualGPUs, wo durch TDP und board nie die Einzelleistung von zwei GPUs erreicht wurde.

Immerhin reicht das trotz Salvagechips mal wieder dafür alles was es auf der PCseite gibt zu überflügeln, was ja Apples erklärtes Ziel ist.
Sowohl die 3090 als auch eine Quadro A6000 haben weniger VRAM und weniger FP64 Leistung und in der Praxis liegt Ampere ja auch deutlich unter der theoretischen FP32Leistung.

Der verdoppelte Speicher ist ja üblich bei Profikarten, wird wohl double sided sein, oder ist 32gbit GDDR6 schon verfügbar?

Wow, hier ist im Grunde alles falsch, was man zu schreiben kann. "Alles auf dem PC überflügeln"? Lmao, mal hier die Fakten für dich:
PC vs Mac:
38 TFLOPs vs. 30 TFLOPs
300W vs 400W
48GB gegen 32GB (64GB nur mit miserablen 84GB/s)
768Gb/s vs. 512GB/s
112,5 GB/s vs. 84GB/s per Link
RT vs. Nicht-So-RT
TensorCores vs Nicht-So-Tolles-DL

Lächerlich irgendwas an den Produkten als besser zu bezeichnen. Apple User sollten sich eher mal so komplett verarscht vorkommen, das dies mit rückständigen AMD Zeug für den Preis abgespeist werden.

basix
2021-08-03, 19:14:41
Auf der AMD Webseite steht 84GByte/s für die IF-Links: https://www.amd.com/en/graphics/radeon-apple-w6000x-series

@Troyan:
Träumst du noch oder trollst du schon? ;)

fondness
2021-08-03, 19:15:55
Das könnte ein C&P Fehler sein, 84 hatte man bisher. Zumindest wüsste ich nicht wie Apple sonst auf die Zahl kommt.

basix
2021-08-03, 19:26:24
https://www.apple.com/chde/mac-pro/specs/
Die On‑Board Infinity Fabric Link Verbindung verbindet die beiden W6800X GPUs mit bis zu 84 GB/s in beide Richtungen; mit der externen Infinity Fabric Link Verbindung können vier W6800X GPUs an zwei W6800X Duo Module angeschlossen werden

Troyan
2021-08-03, 19:38:32
Auf der AMD Webseite steht 84GByte/s für die IF-Links: https://www.amd.com/en/graphics/radeon-apple-w6000x-series

@Troyan:
Träumst du noch oder trollst du schon? ;)

Ach komm, nerv andere.

Aber gerne kannst du noch kurz erklären, wieviel schneller eine A6000 gegenüber einer W6800 ist:
A6000: https://browser.geekbench.com/v5/compute/3180319
W6800: https://browser.geekbench.com/v5/compute/3160188

Sieht wohl so aus, dass man bei Apple altes Zeug von der Krabbelkiste bekommt. :freak:

unl34shed
2021-08-03, 19:48:46
Sind die Ergebnisse von Geekbench mittlerweile vergleichbar?

vinacis_vivids
2021-08-03, 19:50:43
?

Die w6800 ist ungefähr rtx5000 level.

https://www.igorslab.de/amd-radeon-pro-w6800-32-gb-im-test-schlaegt-die-workstation-karte-eine-nvidia-quadro-rtx-5000/

A6000 ist mit der W6900X zu vergleichen.

Die W6800X Duo ist außer Konkurrenz.

basix
2021-08-03, 20:16:34
Ach komm, nerv andere.

Aber gerne kannst du noch kurz erklären, wieviel schneller eine A6000 gegenüber einer W6800 ist:
A6000: https://browser.geekbench.com/v5/compute/3180319
W6800: https://browser.geekbench.com/v5/compute/3160188

Sieht wohl so aus, dass man bei Apple altes Zeug von der Krabbelkiste bekommt. :freak:

Wow, Geekbench. Das interessiert die Käufergruppe natürlich immens...

A6000 ist eine sehr starke Workstation Karte. Aber das sind die WX6800+ auch. Das wird sich in vielen Applikationen nicht viel nehmen, speziell nicht in der Dual Konfiguration. Also lass es doch Du sein, hier im RDNA Thread Nvidia in den Himmel zu loben. DAS nervt nämlich deutlich mehr Leute, mich eingeschlossen.

davidzo
2021-08-03, 20:48:27
Ach Troyan, troll dich doch einfach wieder in deine nvidia Threads :tongue:


38 TFLOPs vs. 30 TFLOPs 38 Ampere Mogel Tflops ;) von denen real nur 65% abgerufen werden können im vergleich zu Turings und RDNAs FP32 Rohleistung.

300W vs 400W
48GB gegen 32GB (64GB nur mit miserablen 84GB/s)
TDP ist ein Märchen bei nv. Und die 84gb/s sind pro IF/link und der ist bi-direktional, also 168gb/s.
Das ist eine glatte Verdopplung zur Mi-100.
Und ja, die 32gb sind mehr als die 24 einer 3090 und die 64gb sind mehr als die 48 einer A6000.


768Gb/s vs. 512GB/s Wohl eher 768gb/s vs 2x 2tb/s

Savay
2021-08-03, 21:05:10
38 Ampere Mogel Tflops ;) von denen real nur 65% abgerufen werden können im vergleich zu Turings und RDNAs FP32 Rohleistung.

Ist in manchen Fällen sogar noch extremer.
Hier kommen sogar nur knapp unter 60% an, wenn man mal unterstellt das RDNA2 auf 100% käme. :wink:
DNN über DirectML...wahrscheinlich via FP32

DxO DeepPrime Batch:

GPU GPU FP32 GFLOPS GPU FP16 GFLOPS CPU Mem OS DXO Ver. D850 images time (sec) Mpix/sec (based on D850 batch)
RX 6900XT 20630 (24768+) 41260 (49474+) Ryzen 9 5950X 32GB WIN10 4.1.1 22 7.58
RTX3090 29389 (35686+) TC? Ryzen 9 5950X 64GB WIN10 4.1.1 27 6.18

basix
2021-08-03, 22:26:38
Bei CB gibt es ein Schaubild der WX6800 Duo zum Aufbau inkl. Infinity Fabric Links. Jeder IF-Link bietet 84GB/s bi-direktional. Totale Bandbreite mit beiden Links also 336 GB/s.
https://www.computerbase.de/2021-08/radeon-pro-w6000x-der-mac-pro-erhaelt-amd-rdna-2-mit-bis-zu-vier-gpus/

Edit:
Die GPUs sind zudem direkt mit den Thunderbolt Controllern verbunden. Das sind wohl die Leitungen, welche bei RX6800/6900 für den USB-C Anschluss verwendet werden. Evtl. also wohl auch eher für Apple eingebaut als nur fürs VR-Gaming.

Thunder99
2021-08-04, 11:49:03
Wenn man die reinen Tflops vergleicht ist eine Vega 2 Duo marginal langsamer als die WX6800 Duo. In der Praxis wird es wohl anders verhalten oder es ausschauen

vinacis_vivids
2021-08-05, 12:26:55
Vega uArch ist eine BruteForce Technik während RDNA viel feiner rechnen kann und bei random Aufgaben massivst Energie einspart.

davidzo
2021-08-05, 13:29:18
Interessant dass die W6900x bei Apple deutlich teurer ist als die W6800X DUO.
Zwei W6800X, also 4 GPUs sind 2000$ billiger als zwei 6900x mit nur 2 GPUs.

Platos
2021-08-05, 14:40:57
Edit: Kann gelöscht werden.

EOVI
2021-08-05, 15:27:06
Interessant dass die W6900x bei Apple deutlich teurer ist als die W6800X DUO.
Zwei W6800X, also 4 GPUs sind 2000$ billiger als zwei 6900x mit nur 2 GPUs.

Was soll daran interessant sein? Apple zieht seine Kunden ab ist doch nichts neues! :confused:

gedi
2021-08-05, 22:26:34
Weiß jetzt nicht, ob dieses bereits gepostet wurde: https://www.techpowerup.com/285283/curious-amd-navi-21-based-graphics-card-with-8gb-hits-the-radar

Der_Korken
2021-08-05, 22:55:22
Weiß jetzt nicht, ob dieses bereits gepostet wurde: https://www.techpowerup.com/285283/curious-amd-navi-21-based-graphics-card-with-8gb-hits-the-radar

Absolut meh mit 8GB. Da würde es imho mehr Sinn machen auf 192bit und 12GB runterzugehen, wenn man eine "6700XT mit mehr Bumms" haben will. Das wäre mit 60 CUs genau 3/4 vom vollen N21.

gedi
2021-08-05, 22:59:23
Absolut meh mit 8GB. Da würde es imho mehr Sinn machen auf 192bit und 12GB runterzugehen, wenn man eine "6700XT mit mehr Bumms" haben will. Das wäre mit 60 CUs genau 3/4 vom vollen N21.

1st sample of N33?

basix
2021-08-05, 23:17:38
Als N33 Testsample wären 8GB ja noch OK ;) Von einem Tapeout habe ich aber noch nichts gehört.

HOT
2021-08-06, 06:13:46
Das wird ne OEM N21 sein.

davidzo
2021-08-06, 12:28:47
Macht schon Sinn so auf den weltweiten DRAM Mangel zu reagieren. Besser als stattdessen weniger Karten zu launchen oder die Preise weiter steigen zu lassen. Ist ne interessante Alternative zur 6700xt, Leistung wie eine 3070ti oder drüber, aber nur 8gb vram wie die ganze GA104 Konkurrenz

reaperrr
2021-08-06, 21:34:11
Absolut meh mit 8GB. Da würde es imho mehr Sinn machen auf 192bit und 12GB runterzugehen, wenn man eine "6700XT mit mehr Bumms" haben will. Das wäre mit 60 CUs genau 3/4 vom vollen N21.
Es geht hier wohl eher darum, den Bedarf an 2GB/16Gbps-GDDR6-Chips zu reduzieren, da würde ne weitere Karte mit solchen Chips nicht viel helfen.

Macht schon Sinn so auf den weltweiten DRAM Mangel zu reagieren. Besser als stattdessen weniger Karten zu launchen oder die Preise weiter steigen zu lassen. Ist ne interessante Alternative zur 6700xt, Leistung wie eine 3070ti oder drüber, aber nur 8gb vram wie die ganze GA104 Konkurrenz
Jup. Macht mMn auch mehr Sinn, als ne 6700 mit 6 GB zu bringen. 6 GB ist einfach nicht mehr zeitgemäß, aber in 1080p und meistens auch 1440p werden 8GB noch ne ganze Weile reichen.
Werden mit an Sicherheit grenzender Wahrscheinlichkeit dann auch nur 14Gbps-Chips sein. Dann können sie nämlich GDDR6-Chips der älteren Generation nehmen, die in nem älteren Prozess gefertigt werden und sind nicht ganz so abhängig von Verfügbarkeit und Preis der neueren 2GB-16Gbps-Chips.

Das wird ne OEM N21 sein.
Gut möglich. Oder China-exklusiv.

vinacis_vivids
2021-08-07, 10:44:47
https://hitechglitz.com/german/der-steigende-preis-fur-dram-verlangert-den-gpu-knappheit/

Die Verfügbarkeit von DRAM ist ein wichtiger Grund, warum es derzeit einen GPU-Mangel gibt. Die GDDR6- und GDDR6X-Module in den neuesten Grafikkarten und Konsolen sind sehr gefragt, und die Anbieter konnten diese Nachfrage nicht befriedigen. TreadForce weist auf Nvidia als einschränkenden Faktor hin und sagt: “DRAM-Lieferanten haben die Kapazitätszuweisung an Nvidia im Gegensatz zu kleineren Kunden priorisiert.”


Nvidia ist mit der Marktmacht schuld, dass AMD und Konsolen nicht so wachsen können wie der Bedarf ist. Die Vorverträge und Kapazitätsbesetzung bei DRAM sind ein Stolperstein für den langsamen GPU-Markt.


Das ist auch eines der Gründe wieso GDDR5 Karten wie die RX580, mittlerweile 5 Jahre alt! noch bei MF für 450€ verkauft werden :freak:

NV ist mit dem ineffizienten Speicherverbrauch mittlerweile technologischer Bremsklotz für AMD`s GPU Entwicklung.

Daredevil
2021-08-07, 11:04:46
Deswegen verbaut Nvidia ja schon so wenig wie möglich.
Aber das ist am Ende ja auch falsch.
Musst dich mal entscheiden, was Nvidia machen soll.
Sind se nun Speichergeizig oder ist es okay, wenn sie mehr verbauen und dementsprechend mehr bestellen? :(

PS: Außerdem sind die verbauten 16GB bei AMD bei der 6800 halt auch "zu viel" und bei der 6900xt "zu wenig". Da hätte AMD auch mal effektiver arbeiten können.

dildo4u
2021-08-07, 11:05:18
Muss AMD halt besser GPUs bauen es gibt tonnen RDNA2 bei MF aber die will keiner für 1000€+.Die 3090 gehen hingegen ganz gut weg.

NVIDIA GeForce RTX 3090 Ampere Alone Has Higher GPU Share Than AMD’s Entire Radeon RX 6000 RDNA 2 GPU Lineup

https://wccftech.com/nvidia-geforce-rtx-3090-ampere-higher-gpu-share-than-amd-radeon-rx-6000-rdna-2-steam-hardware-survey/

Das ist ohne DLSS und es nutzt nur ein RT Effekt.

https://i.ibb.co/SrffhzV/doomrt.png (https://ibb.co/cLYYGj2)


https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Raytracing-RTX-Update-DLSS-Benchmarks-Review-1374898/

robbitop
2021-08-07, 11:49:08
In Bezug auf RT ist RDNA2 noch etwas kompromissbehaftet. Bei RDNA3 werden sich wahrscheinlich beide IHVs stärker angleichen.

dildo4u
2021-08-07, 11:55:22
Könnte AMD damit kalkulieren das zwei Dies aufs Level einer Next Gen Nvidia GPU kommt, das also pro CU sich nix ändert?

Lehdro
2021-08-07, 11:57:34
Könnte AMD damit kalkulieren das zwei Dies aufs Level einer Next Gen Nvidia GPU kommt, das also pro CU sich nix ändert?
Bezweifle ich, AMD weiß ganz genau dass man sich mit RDNA3 keine halbgaren Performancewerte bei RT mehr leisten kann. Gerade weil NV immer noch DLSS 2.x als Trumpf hat - AMD wird wohl alles daran setzen auch die Grundperformance der Hardware bei RT zu erhöhen, also den Performanceabschlag gegenüber reiner Rasterleistung möglichst gering zu halten.

dildo4u
2021-08-07, 12:06:27
Selbe RT Performance@400Watt wäre doch deutlich besser als jetzt.
Das wäre ein Win für AMD da die näste Nvidia GPU wieder ein absolutes Monster wird was den Die Space angeht.(Extrem schwer zu fertigen)

robbitop
2021-08-07, 12:11:02
RT wird immer mehr Bedeutung bekommen. Noch konnte man so durchkommen wie Lehdro sagt. In 2022+ wird es immer schwieriger werden.
Mein Tipp ist, dass AMD mehr in HW gießen wird, je wichtiger RT werden wird (sofern es sich lohnt). Das kann mit RDNA3 bereits passieren.
Ich hoffe für AMD, dass FSR 2.0 dann auch mitgelauncht wird und es temporale Daten nutzen wird. Mal schauen ob das Clamping dann noch per Heuristik laufen wird (und damit ggü DLSS potenziell im Nachteil) oder auch auf ein NN setzen wird.

Im Falle von letzterem müsste AMD das NN dem Spiel beilegen damit es auch auf anderen GPUs laufen kann. NV hat dies im Treiber und damit grundsätzlich keine Chance für andere Vendors.

basix
2021-08-07, 14:57:19
Ich sehe das mit dem NN nicht so als Problem. Auf RDNA2 ist der Speedup sicher nicht so gross wie bei Turing und Ampere, aber spätestens mit RDNA3 wird sich das ändern.

Stimmen die Grüchte um 60...75 TFlops für N31, landet man mit Packed-Math INT8-Dot-Produkt Operationen auf 240...300 TOPS. Nvidias TU102 schafft max. ~278 TOPS (2080 Ti @ 2.0 GHz) und das mit weniger effizienten Tensor Cores (sie können schlicht nicht alle auslasten, siehe Nvidia eigene Messungen; +limitiert auf Matrizen-Operationen) und ohne massiven Latenz- und Bandbreitenvorteil durch den Infinity Cache. Das NN ist typ. nur ein paar MByte gross und solllte komplett in den IF$ passen und kann per Async Compute evtl. zu einem guten Teil parallel mit Graphics/Compute laufen. Somit wäre meine Erwartung: RDNA2/3 TOPS >= Turing/Ampere TOPS, weil effizientere Auslastung. Einen NN basierten Ansatz bei FSR 2.0, ähnlich wie bei DLSS 2.0, halte ich für gut möglich.

robbitop
2021-08-07, 14:59:35
Naja bis jetzt sehen alle Lösungen ohne NN gegen DLSS in Bezug auf Rekonstruktion relativ alt aus. Ob es ein Problem ist? Schwer zu sagen. Wenn man gleich oder besser sein möchte, ist es ein Problem.

Ob man dafür dedizierte HW braucht ist schwer zu sagen. Es kostet halt Frametime. Je schneller das Ganze passiert, desto weniger Frametime kostet es. Ich gehe davon aus, dass weitere Evolution mit der Steigerung des Rechenaufwands einhergeht.
Ohne dedizierte HW und NN für das Clamping wäre zumindest ein erster Schritt. Ggf findet AMD ja einen Ansatz der weniger Frametime kostet und nicht schlechter ist.

aufkrawall
2021-08-07, 15:21:44
Die werden auch in absehbarer Zukunft jede GPU mit gammligem Lanczos Image-Scaler + Sharpen überteuert verkaufen können. Eure Vorstellungen über AMDs vermeintliche Schlachtpläne mit TAAU und NN finde ich sehr amüsant, da kommt bestimmt noch die Wunderwaffe via Software. ;D

robbitop
2021-08-07, 16:21:02
Die werden auch in absehbarer Zukunft jede GPU mit gammligem Lanczos Image-Scaler + Sharpen überteuert verkaufen können. Eure Vorstellungen über AMDs vermeintliche Schlachtpläne mit TAAU und NN finde ich sehr amüsant, da kommt bestimmt noch die Wunderwaffe via Software. ;D

So pessimistisch würde ich es nicht sehen. FSR 1.0 ist wahrlich kein echter Konkurrent für DLSS 2.x+.
Es ist erstmal eine schnelle Nummer gewesen, damit man überhaupt irgendwas hat.

Aber, dass da noch andere Dinge kommen ist IMO recht wahrscheinlich.

1. Heißt es auffälligerweise FSR 1.0 und impliziert kommende Weiterentwicklungen in der Pipeline. AMD äußerte sich iirc indirekt und vaage dazu, dass sie FSR sukzessive verbessern werden.
2. Die üblichen Leaker sprechen auch schon von einer Version 2.0 für 2022
3. Die Notwendigkeit das zu tun ist extremst offensichtlich, wenn man sich die Ergebnisse von DLSS und dessen Entwicklung anschaut.
Allerdings kostet sowas natürlich enorm Zeit und Resourcen und auch Know How was NN angeht. Der Handlungsdruck ist spätestens seit Mitte 2020 klar sichtbar als man sehen konnte was DLSS 2.0 kann. Wer etwas von 3D Grafik und Abtasttheoremen versteht, dem war spätestens dann klar, was für ein Potenzial in der Technik steckt. Auch wenn die Implementierungen noch sehr gemischt waren konnte man mit etwas Hintergrundwissen klar erkennen, was mit einer guten Implementierung möglich ist und was auch zukünftig noch an Potenzial da ist.

Meine Vermutung ist, dass AMD spätestens seit dem Zeitpunkt an einer ähnlichen Lösung angefangen hat zu arbeiten und jetzt mit FSR 1.0 eine Art Lückenfüller gebracht hat.

Ich wäre überrascht, wenn AMD nicht mittelfristig eine Lösung hätte, die sich DLSS sukzessive technisch annähern wird.

basix
2021-08-07, 16:28:39
Ich denke auch, dass FSR 1.0 mehr ein Lückenfüller ist. Vermutlich wollten sie 2021 etwas wie DLSS 2 rausbringen und haben dann aber gemerkt, dass es etwas mehr Zeit benötigt. Zumindest macht die Kommunikation vor dem FSR 1.0 Release diesen Eindruck auf mich.

robbitop
2021-08-07, 16:34:06
Sie haben schon etwas gewonnen, wenn DLSS bei den Reviewern gegen FSR (anstatt nativ) gebencht wird. Der Vergleich passt nicht - aber es wäre natürlich mittelfristig katastrophal wenn die Balken dadurch deutlich kürzer werden als NVs. Damit hat man das für eine Weile erstmal gekontert. Reine Taktik.

Locuza
2021-08-07, 19:50:17
Bei CB gibt es ein Schaubild der WX6800 Duo zum Aufbau inkl. Infinity Fabric Links. Jeder IF-Link bietet 84GB/s bi-direktional. Totale Bandbreite mit beiden Links also 336 GB/s.
https://www.computerbase.de/2021-08/radeon-pro-w6000x-der-mac-pro-erhaelt-amd-rdna-2-mit-bis-zu-vier-gpus/

84GB/s bidirektional führen bei 2 Links zu 168GB/s.
84GB/s unidirektional bzw. pro Richtung würden 336GB/s bedeuten, das unterstützen die Karten aber nicht.
Der Aspekt fällt genauso aus wie bei dem Pro Vega II Duo-Vorgänger (Vega20).
Nach wie vor werden die GPUs über PCIe3.0 verbunden, womit auch die Marketingaussage erneut die gleiche ist, bis zu 5x mal schneller als über PCIe.
5x32GB/s (bidirektional) = 160GB/s vs. 168GB/s bei zwei IF-Links.

Die IF-Links liefen bei der MI60 ein bisschen schneller, dort waren es 2x100GB/s bidirektional.
MI100/CDNA1/Arcturus besitzt 3-Links, mit jeweils 92GB/s bidirektional bzw. 276GB/s insgesamt.
Nur als Einwurf nebenbei. :)

dargo
2021-08-08, 13:27:07
Muss AMD halt besser GPUs bauen es gibt tonnen RDNA2 bei MF aber die will keiner für 1000€+.Die 3090 gehen hingegen ganz gut weg.

NVIDIA GeForce RTX 3090 Ampere Alone Has Higher GPU Share Than AMD’s Entire Radeon RX 6000 RDNA 2 GPU Lineup

https://wccftech.com/nvidia-geforce-rtx-3090-ampere-higher-gpu-share-than-amd-radeon-rx-6000-rdna-2-steam-hardware-survey/

Das ist ohne DLSS und es nutzt nur ein RT Effekt.

https://i.ibb.co/SrffhzV/doomrt.png (https://ibb.co/cLYYGj2)


https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Raytracing-RTX-Update-DLSS-Benchmarks-Review-1374898/
Wolltest du nur wieder etwas trollen? Selbst in deinem Bild sind im Prinzip die RTX 2080TI, RTX 3070 und RX 6800 gleich schnell inkl. RT. Der bullshit mit Steam setzt dem ganzen noch die Krone auf.

dildo4u
2021-08-08, 13:38:58
6800 sind bei 1000€ was für eine geile Preis/Leistung.

vinacis_vivids
2021-08-08, 13:53:44
7nm Fertigung und 16GB VRAM sind knapp und kosten daher Geld.

Dass, das so teuer ist, habt ihr Nvidia zu verdanken. Da werden massenweise 12GB mit dem Krüppelchip GA106 verschwendet und der stärkere GA102 mit 10/12GB verkrüppelt.

Richtig dumme Strategie und die Schafe kaufen es immer noch massenweise.

Platos
2021-08-08, 13:55:59
Du bräuchtest mal wieder einen Bann:freak:

dildo4u
2021-08-08, 14:04:01
7nm Fertigung und 16GB VRAM sind knapp und kosten daher Geld.

Dass, das so teuer ist, habt ihr Nvidia zu verdanken. Da werden massenweise 12GB mit dem Krüppelchip GA106 verschwendet und der stärkere GA102 mit 10/12GB verkrüppelt.

Richtig dumme Strategie und die Schafe kaufen es immer noch massenweise.
Wenn die GPUs an sich attraktiv wären hätte sie nicht so viel Vram verbauen müssen und sie wären besser lieferbar, AMD wusste aber das es ohne 16GB null Argumente für ihre GPUs gibt vorallem für diese absurden Preisen.
Es macht imo null Sinn das sie drei 16GB Karten haben, die 6800 ist für 4k eh zu lahm vorallem mit RT.

Complicated
2021-08-08, 14:25:28
AMD hat sich schon etwas dabei gedacht die 3 SKUs mit 16GB auszustatten.
Die ständigen Forderungen nach mehr RAM/Bandbreite bei einer neuen GPU-Generation, damit diese auch "zukunftssicher" ist, muss ja auf irgend eine Weise mal durchbrochen werden: Overdeliver 16GB (+IF$ RDNA2)->Switch to IF$-GPU-Chiplets (RDNA3)-> Compare 16GB vs 8GB (inkl. IF$).

Ich denke das werden einfach die Referenz 16GB-Karten werden um eine Diskussion über den RAM-Bedarf mit IF$ (und teureren Preisen trotz 8GB RAM) über eine massive Leistungssteigerung im Keim zu ersticken. Die Gerüchte sagen ja bereits eine überdurchschnittliche Performance-Zielsetzung voraus, für RDNA3.

Hier muss AMD noch viel Arbeit rein stecken, damit der VRAM nicht mehr im Media Markt als kaufentscheidend betrachtet wird. Anders wird es schwierig, auch mit besserer Performance, in den Regalen das bessere Angebot darzustellen.

unl34shed
2021-08-08, 14:33:01
Wenn die GPUs an sich attraktiv wären hätte sie nicht so viel Vram verbauen müssen und sie wären besser lieferbar, AMD wusste aber das es ohne 16GB null Argumente für ihre GPUs gibt vorallem für diese absurden Preisen.

Nur sind der RAM AFAIK weder der Hauptgrund für die schlechte Verfügbarkeit noch den absurden Preis.

dildo4u
2021-08-08, 14:34:04
Ich finde die Doom Werte da schon interresant das rennt allgemein verdammt flott und die 6800 kratz grad so an der 60fps Grenze in 4k, die Karte wird sher schnell zu 1440p degradiert wenn die Cross-Gen Games vorbei sind.(16GB komplette Verschwendung)

dargo
2021-08-08, 17:36:31
6800 sind bei 1000€ was für eine geile Preis/Leistung.
Ich überlege gerade was amüsanter ist... deine Echauffierung über die aktuellen Grafikkartenpreise oder die RT-Performance von Radeon? Letzteres ist nämlich Comedy pur wenn es von einem User kommt der noch auf einer GTX 1070 rumhockt. Sagt einiges darüber aus wie wichtig Raytracing u.a. für dich in Games ist.

Ich finde die Doom Werte da schon interresant das rennt allgemein verdammt flott und die 6800 kratz grad so an der 60fps Grenze in 4k, die Karte wird sher schnell zu 1440p degradiert wenn die Cross-Gen Games vorbei sind.(16GB komplette Verschwendung)
Und der nächste Bullshit @dildo Logik. :facepalm: Eine RX 6800 ist und war nie eine 4k Karte! Das sind noch nicht mal die RX 6900XT und RTX 3090, zumindest nach meiner Definition. Wofür hat dann nach dildos Logik eine RTX 3090 24GB Vram? Reine Geldverschwendung. :rolleyes:

reaperrr
2021-08-08, 19:57:53
vorallem für diese absurden Preisen.
Das liegt allein an den Boardpartnern, dem monatelangen Nachfrageüberhang und den Scalpern, die es auch den Händlern ermöglicht haben, die Karten völlig überteuert trotzdem noch loszuwerden, einfach weil es sie nirgends zu normalen Preisen gibt.

Wenn die Händler (und Scalper) die Karten zu den geforderten Preisen nicht mehr loswerden, gehen auch die Preise runter.
Solange sie nicht runtergehen heißt das, es finden sich noch immer genug Verzweifelte, die zu diesen Preisen kaufen.
Das ist aber nicht AMD's Schuld.

die Karte wird sher schnell zu 1440p degradiert wenn die Cross-Gen Games vorbei sind.(16GB komplette Verschwendung)
Falsch, wenn die Cross-Gen Games vorbei sind, werden zunehmend Spiele rauskommen, die auch in 1440p mehr als 8GB brauchen werden, um ruckelfrei zu laufen.

Dass 10-12GB meistens reichen werden mag sein, aber im Fall der 6800 hätte man dafür das SI (und damit auch den daran gekoppelten IF$) beschneiden müssen, was a) zusätzlicher Aufwand wäre und b) in dem einen oder anderen Spiel dann eben doch einige Prozentpunkte kosten könnte.

dildo4u
2021-08-09, 07:15:30
Das liegt allein an den Boardpartnern, dem monatelangen Nachfrageüberhang und den Scalpern, die es auch den Händlern ermöglicht haben, die Karten völlig überteuert trotzdem noch loszuwerden, einfach weil es sie nirgends zu normalen Preisen gibt.

Wenn die Händler (und Scalper) die Karten zu den geforderten Preisen nicht mehr loswerden, gehen auch die Preise runter.
Solange sie nicht runtergehen heißt das, es finden sich noch immer genug Verzweifelte, die zu diesen Preisen kaufen.
Das ist aber nicht AMD's Schuld.

Sie könnten ohne technische Probleme 8GB 6800 bringen um besser Preise anzubieten nur würde das ihre Marge senken.
Sieht man doch bei den APUs wie sie derzeit vorgehen, es gibt nichts unter 200€, der 5300G bleibt OEM Only.
Die Investoren wollen Margen auf Intel und Nvidia Level sehen bringt dem Kunden nur nix.

dargo
2021-08-09, 07:19:24
Sie könnten ohne technische Probleme 8GB 6800 bringen umd besser Preise anzubieten nur würde das ihre Marge senken.

Könnte Nvidia bei der RTX 3090 auch, eben mit 12GB. Tun sie trotzdem nicht. Witzigerweise stört dich das bei Nvidia nicht. Dein Trolling ist mehr als offensichtlich.

btw.
N21 mit nur 8GB wäre Fiji reloaded, der Shitstorm wäre vorprogrammiert. Auch würde AMD sein eigenes Portfolio vergewaltigen. Reicht schon wenn Nvidia dies tun, siehe RTX 3060 vs. RTX 3060TI/3070 und 3080 beim Speicherausbau.

dildo4u
2021-08-09, 07:53:39
Hä es gibt doch die 3080 Ti mit 12GB als Gameingoption der 3090.
Eine 6800 8GB macht durchaus Sinn es gibt schon ewig 1080p 240Hz Monitore, Warzone braucht dieses Level an GPU Performance um 200fps zu halten.
AMD hätte dort sogar ordentliche Vorteile gegenüber Ampere da der Treiber unter DX12 weniger CPU Last erzeugt.

dargo
2021-08-09, 08:10:19
Hä es gibt doch die 3080 Ti mit 12GB als Gameingoption der 3090.

8 Monate später. :rolleyes:


Eine 6800 8GB macht durchaus Sinn es gibt schon ewig 1080p 240Hz Monitore, Warzone braucht dieses Level an GPU Performance um 200fps zu halten.

Wie wärs mit 400fps? ;D Junge, junge du laberst wieder einen Stuss. Wem die 16GB einer RX6800 zu viel sind (lol) greift zur günstigeren RX 6700XT. Die +18% der RX6800 in 1440p laut CB sind nicht kriegsentscheidend.

HOT
2021-08-09, 08:59:03
Das Ding ist eh nicht für den Retailmarkt, sondern wahrscheinlich wieder nur für (chinesische) Komplettrechner bestimmt. Als ob die 16Gb-Module den Kohl fett machen würde, das fällt gar nicht auf. Wenns doppelte Bestückung wär oder sowas, wär das was anderes, aber es ist ja absehbar, dass die 16Gb-Module im Laufe des nächsten Jahres absoluter Standard werden.

amdfanuwe
2021-08-27, 15:31:45
17 new PCI IDs sighted, might confirm upcoming 6nm refresh of Naxi 2X GPUs (https://videocardz.com/newz/amd-adds-17-new-pci-ids-of-navi-21-22-and-23-gpus-to-linux-kernel-could-be-the-rumored-6nm-refresh)
Da scheint dieses Jahr noch eine Super Serie zu kommen, äh ist ja AMD, also eher 7000er Serie.
Wird Navi 31 nächstes Jahr dann die 8000er Serie.
Mal sehen, ob sie aus 6nm noch etwas mehr rausholen. Zumindest soll 6nm ja billiger sein, vielleicht kommt da was bei uns an.

vinacis_vivids
2021-08-27, 16:15:07
Hoffentlich wird 6nm für N22 und N23 billiger, weil 500€ für die 6600XT und ~ 800€ für die 6700XT doch recht hoch sind.
TSMC spricht zumindest bei 6nm von einer besseren Ausbeute als 7nm und eine kürzere Produktionszeit. AMD muss unbedingt mehr Chips raushauen, vor allem in der nachgefragten Mittelklasse um mehr Marktanteile zu bekommen.
6nm ist daher der logische Schritt und sehr zu begrüßen.

N21 wird vermutlich komplett auslaufen und durch N3X 5nm ersetzt werden (mit vmtl. doppelten RT-Cores, MCM usw)

Was 6nm angeht, soll die Dichte um 18% erhöht werden und die Kompatibilität zu 100% zu 7nm gegeben sein, was die Übertragung des Designs vereinfacht. Ob jetzt bissel mehr Takt rausspringt, ist auch nahezu irrelevant, Hauptsache größere Stückzahlen und auch günstigere Preise.

HOT
2021-08-27, 16:17:43
Glaub ich nicht. N21 wird genauso refresht. N33 wird ja erst in Q4 22 was wie es aussieht. N21 ist mMn sogar der erste Refresh.

smalM
2021-08-27, 16:28:03
Hoffentlich wird 6nm für N22 und N23 billiger, weil 500€ für die 6600XT und ~ 800€ für die 6700XT doch recht hoch sind.
Marktwirtschaft
Nachfrageüberhang
Preisfindung
Du solltest Dich vielleicht einmal damit auseinander setzen…

amdfanuwe
2021-08-27, 16:40:11
Was 6nm angeht, soll die Dichte um 18% erhöht werden und die Kompatibilität zu 100% zu 7nm gegeben sein,
Ich bezweifle, dass das Design auf 6nm angepasst wird. Die werden einfach das 7nm Design in 6nm produzieren. Wie damals mit ZEN+ von 14nm auf 12nm.
Mit dem 6nm Prozess ist der Chip dann etwas günstiger und es fallen mehr Sehr Gute Chips ab. Kann man den Takt um ein paar MHz erhöhen.
Reicht für einen Refresh und kostet AMD fast gar nichts.

Nightspider
2021-08-27, 16:44:20
Ein Shrink aller Chips halte ich für unwahrscheinlich, weil man für jeden Chip neue Masken entwerfen müsste. Schließlich schrumpft der analoge Anteil und die Caches in einem anderen Verhältnis als die Logik oder wie geht man da bei einem Shrink vor?

Und wenn man die Größen beibehält und nur den Prozess ändert gewinnt man halt auch nicht so viel.
Aber wenn ich mich nicht irre hat AMD ja gerade für den N6 Prozess high density SRAM entwickelt, mit welchem man bei Navi21 vielleicht gut Area sparen könnte.

vinacis_vivids
2021-08-27, 16:46:29
AMD N21 refresht ergibt doch Sinn, um gegen Ampere Super anzutreten, jetzt wo die Gerüchte hochgekommen sind. Muss mich also korrigieren, dass N21 in 6nm doch kommt. Vermutlich 6950XT, 6850XT, 6850 mit leicht verbesserten Takt und etwas schnelleren Speicher. Für N21-Besitzer eher uninteressant.

Ja, alles richtig, keine Designänderung, lediglich bessere Ausbeute und niedrigerer Preis.

Nightspider
2021-08-27, 16:49:55
AMD braucht das theoretisch aber nicht. AMD ist gut aufgestellt und hat 16GB Karten.

AMD kann sich auch ganz auf RDNA3 konzentrieren um NV dann nächstes Jahr platt zu machen.

HOT
2021-08-28, 00:11:45
Beim N21 würde eine neue Rev., die ja sicherlich mit N6 dann kommt, und eine etwas höhere TDP durchaus helfen, bessere Leistung zu erreichen. Vielleicht kann man ja sogar den Takt des IF$ noch etwas anpassen. Ein N21, der im Durchschnitt auf 2,5GHz laufen würde, wäre sicherlich möglich, das geht mit den kleineren Modellen ja auch. Auch 18GT-RAM könnte man allen neuen N21 spendieren. So käme man vielleicht auf 5-10% bessere Leistung, wenn man alle Register zieht. Die kleineren werden sicherlich auch refresht und bleiben dann einfach, während Ende 22 N21 dann durch N33 abgelöst wird. Der Aufwand für diesen Refresh sollte minimal sein und man bedient sich an den wachsenden N6-Kapazitäten, während man die dann schrumpfenden N7-Kapazitäten entlastet.

-/\-CruNcher-/\-
2021-08-28, 00:20:09
AMD braucht das theoretisch aber nicht. AMD ist gut aufgestellt und hat 16GB Karten.

AMD kann sich auch ganz auf RDNA3 konzentrieren um NV dann nächstes Jahr platt zu machen.

Nvidia kannst du so sicherlich nicht "Plattmachen" ihre nächsten Features stehen schon in den Startlöchern.
Und AMD wird wieder einmal hinterherhinken ;)
Intel wird schon eher kritisch werden für Jensen aber selbst das wird ihn wohl auch nicht mehr jucken mit dem vollen Cloud Move im Gepäck und der eigenen fortschreitenden zugrundelegenden Platform.

OgrEGT
2021-08-31, 10:05:01
Alleged Radeon RX 6900 XTX shows up on leaked slide, but it is probably not real

https://videocardz.com/newz/alleged-radeon-rx-6900-xtx-shows-up-on-leaked-slide-but-it-is-probably-not-real

...würde auch nicht viel Sinn machen mMn...

mboeller
2021-08-31, 10:11:09
BDer Aufwand für diesen Refresh sollte minimal sein und man bedient sich an den wachsenden N6-Kapazitäten, während man die dann schrumpfenden N7-Kapazitäten entlastet.

IMHO:
wenn es wirklich freie N6 Kapazität gibt, wird AMD die sehr viel wahrscheinlicher für Rembrandt benutzen und nicht für irgendeine GPU

bbott
2021-09-01, 12:55:28
Mir wurde gerade eine 6900XT als "NAVI21 XTX" geliefert?! Also das Radeon RX 6900 XTX Gerücht halte ich für falsch.

HOT
2021-09-01, 13:03:29
Das ist normal:

6800 -> N21 XL
6800XT -> N21XT
6900XT -> N21XTX
6900XT LC/X -> N21XTXH

Denniss
2021-09-14, 07:30:33
Mit dem aktuellsten Treiber von gestern gibts jetzt auch offiziell SAM für die RX5000-Serie.
Freiwillige vor zum Testen und Berichten !

AintCoolName
2021-09-14, 11:05:47
Ich konnte das aktiviere trotz 470 Chipsatz und Zen 3700X, bis jetzt noch nix schlimmes passiert.

Was jetzt noch fehlt wäre der Hardware GPU Scheduler, der ist trotz Windows 11 und WDDM 3.0 immer noch nicht da.

mboeller
2021-09-14, 12:22:02
auch wenn es der falsche Thread ist... kann man mit diesen Messungen zum GPU-Verbrauch irgendwas anfangen?

https://chipsandcheese.com/2021/09/09/analyzing-video-card-efficiency-part-i-power/

Leonidas
2021-09-29, 10:51:47
Sind überflugsmäßig nicht verkehrt. Die durchschnittlichen Meßwerte, welche 3DC sammelt, sind minimal solider, vor allem aber vollständiger:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten


PS: RDNA2-basierte Mobilegrafik-Refresh:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-september-2021

dildo4u
2021-10-05, 15:43:50
6600 Performance Leak vom AMD Review Guide.

https://videocardz.com/newz/amd-radeon-rx-6600-final-specifications-and-official-performance-leaked

Unicous
2021-11-01, 19:36:02
Micron Delivers High-Performance GDDR6 Memory for AMD Radeon RX 6000 Series Graphics Cards (https://investors.micron.com/news-releases/news-release-details/micron-delivers-high-performance-gddr6-memory-amd-radeon-rx-6000)

Und alle so: yay.

Mir war schon wieder entfallen, dass Nvidia sich das gesamte Micron GDDR6 Kontingent geschnappt hatte. Mal schauen ob das irgendwelche Auswirkungen auf die Lieferbarkeit bzw. Preise hat.

genervt
2021-11-01, 19:41:22
Heißt das wir sehen Karten mit höherer Speicherbandbreite als bisher?

dargo
2021-11-01, 19:47:16
Nein... es ist weiterhin 16Gbps Speicher, nur diesmal auch von Micron und nicht alleine von Samsung.


Mir war schon wieder entfallen, dass Nvidia sich das gesamte Micron GDDR6 Kontingent geschnappt hatte.
Sicher? AMD braucht ja 16Gbps GDDR6. Afaik konnte Micron bis vor kurzem nur max. 14Gbps GDDR6 liefern. Ist es nicht eher so, dass Micron endlich bei GDDR6 an Samsung aufgeschlossen hat was den max. Speed angeht?

Unicous
2021-11-01, 19:50:53
@genervt

Nö, nur AMD GPUs mit Micron Chips. Man mag mich korrigieren, aber anscheinend hat Micron seit Turing Nvidia exklusiv mit GDDR6 versorgt. AMD hatte also nur Zugriff auf Samsung und vielleicht SK hynix. Bei letzeren bin ich aber gar nicht sicher ob sie überhaupt GDDR6 liefern.


@dargo

Das mag ja stimmen (wobei Micron auch GDDR6X hat) aber mir ging es doch eben um die Exklusivität die anscheinend, seit 2018 andauerte. Gab ja auch Probleme mit den Micron Chips, deswegen hat Nvidia überhaupt erst Samsung Chips eingekauft.(e: Bei Navi 1 hat AMD maximal 14Gbps verbaut, hätte also durchaus auch auf Micron zugreifen können)

edit:

Zumindest bei Navi 2 liefert auch hynix:

In beiden Fällen handelt es sich um GDDR6-Speicher, wobei der offenbar wahlweise aus der Produktion von SK Hynix oder Samsung stammt, wie den Screenshots zu entnehmen ist.

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GPU-Z-Screenshots-zeigen-ausfuehrlichere-Eckdaten-1372055/

Nightspider
2021-11-01, 20:30:09
Ist es nicht eher so, dass Micron endlich bei GDDR6 an Samsung aufgeschlossen hat was den max. Speed angeht?

Nein, Samsung bietet doch schon länger 18gbps GDDR6, der auch bei der 6900 XTX verbaut wird.

dargo
2021-11-01, 20:44:33
Welche soll das genau sein? Selbst bei XTXH wird 16Gbps verwendet.
https://www.sapphiretech.com/en/consumer/toxic-radeon-rx-6900-xt-ee-16g-gddr6

Nightspider
2021-11-01, 21:13:10
Wenn du die zwei Suchbegriffe bei Google eingibst, erster Treffer.

Spoiler: Die AMD RX 6900 LC.

Gibts bisher nur für OEMs.

Vielleicht gibts die Kombo bei einer Refreshkarte zu kaufen.

Unicous
2021-11-01, 21:27:32
Das sieht eher nach Übertaktung aus, zumal es 18,4Gbps sind und nicht 18 und die Chips mit 1,4V laufen und nicht 1,35V.

Raff
2021-11-01, 21:29:34
Jo. Ich kann dazu nur ergänzen, dass der BIOS-String explizit "MP Memory" sagt, also Mass Production. Was auch immer das heißt. :)

MfG
Raff

Neurosphere
2021-11-01, 22:10:22
Die Frage ist ja generell ob AMD der "Super" Regie von NV irgendwas entgegenstellen will.

dargo
2021-11-01, 22:30:07
Wenn du die zwei Suchbegriffe bei Google eingibst, erster Treffer.

Spoiler: Die AMD RX 6900 LC.

Gibts bisher nur für OEMs.

Ohne ein Bild vom PCB wo man die 18Gbps Chips auch sieht glaube ich da gar nichts. Die 1,4Vdimm deuten eher auf 16Gbps OC hin. Oder hat die Karte schon jemand zerlegt und sich die Chips genauer angesehen?

gedi
2021-11-01, 22:42:11
Ohne ein Bild vom PCB wo man die 18Gbps Chips auch sieht glaube ich da gar nichts. Die 1,4Vdimm deuten eher auf 16Gbps OC hin. Oder hat die Karte schon jemand zerlegt und sich die Chips genauer angesehen?

Full ack! Da die Latenzen bei 2250Mhz wahrscheinlich eh zum Heulen sind, klingt mir der Wunderram doch eher nach etwas Umgelableten. Jede Wette, dass keine Karte 2210Mhz@Fast schafft. Und wenn, dann nur mit Performanceeinbußen

davidzo
2021-11-02, 10:49:37
Nein... es ist weiterhin 16Gbps Speicher, nur diesmal auch von Micron und nicht alleine von Samsung.


Sicher? AMD braucht ja 16Gbps GDDR6. Afaik konnte Micron bis vor kurzem nur max. 14Gbps GDDR6 liefern. Ist es nicht eher so, dass Micron endlich bei GDDR6 an Samsung aufgeschlossen hat was den max. Speed angeht?

Vorsicht, ich würde da erstmal ein paar Monate warten bevor ich dem Micron GDDR6 traue.
Die waren doch damals verantwortlich für das schnelle Ableben diverser 2080ti weil der RAM auf den Taktraten nur wenige Monate durchhielt. Die kurz später als Ersatz gelaunchten mit Samsung GDDR bestückten Karten hatten keine Probleme mehr.

Ich habe hier selbst eine 2070 OEM von HP mit demselben kaputten Micron RAM, die direkt nach ablaufen der Herstellergarantie ausgefallen ist. Leider nicht reparierbar :(
Ich würde nicht noch einmal eine Karte mit GDDR amerikanischer Produktion kaufen, die Qualität ist einfach nicht auf koreanischem Niveau.

HOT
2021-11-02, 12:10:11
Weil das hier auf kam:

Ne 5700XT mit Micron GDDR6:
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-tuf-evo/3.html
Die haben fast alle Micron. Da ist nix exklusiv. GDDR6X ist exklusiv. Micron hat halt nur 8Gb bisher im Angebot, keine 16Gb.

Bisher hat nur Samsung 16Gb GDDR6 am Start und das auch schon seit Turing. Die Profiturings sind alle mit 16Gb Samsung GDDR6 ausgestattet. AMD sind halt der ersten gewesen, die den 16 Gb GDDR6 mit N2x eingesetzt hat im Consumer Markt, natürlich alles Samsung.

18 GT/s RAM gibts bisher nicht auf dem Markt, Samsung will die bei Nachfrage aber sofort produzieren können. Ob das wirklich so ist, weiss nur Samsung.

Edit:
https://product.skhynix.com/products/dram/gddr/gddr6.go
SKHynix kommt aber mit GDDR6 auf den Markt, auch 16Gb aber nur 14 GT/s bislang. Die wollen aber hoch bis 20GT/s.

Zossel
2021-11-02, 14:14:45
Vorsicht, ich würde da erstmal ein paar Monate warten bevor ich dem Micron GDDR6 traue.
Die waren doch damals verantwortlich für das schnelle Ableben diverser 2080ti weil der RAM auf den Taktraten nur wenige Monate durchhielt. Die kurz später als Ersatz gelaunchten mit Samsung GDDR bestückten Karten hatten keine Probleme mehr.

Ich habe hier selbst eine 2070 OEM von HP mit demselben kaputten Micron RAM, die direkt nach ablaufen der Herstellergarantie ausgefallen ist. Leider nicht reparierbar :(
Ich würde nicht noch einmal eine Karte mit GDDR amerikanischer Produktion kaufen, die Qualität ist einfach nicht auf koreanischem Niveau.

Was für Schrott diese hoch gezüchteten Gamer-GPUs doch sind, mal geht das RAM kaputt, ein anderes Mal wird die Karte von bestimmten Games gehimmelt.

Und dann soll per neuen Stecker für Strom noch mehr noch mehr Leistung verbraten werden ......

HOT
2021-11-02, 14:15:53
AMD Karten gehen nicht wegen solcher Dinge kaputt. Das möchte ich gerne mal erwähnt haben. Sicherlich gibts die normalen Rückläufer, aber die AMD-Karten sind für gewöhnlich lange nicht so auf Kante gebaut, was die Stromversorgung angeht. Alle N21-Karten sind mit Infineon TDA21472 SPS ausgestattet für VCore und die werden alle von einem XDPE132G5D Controller für 16 Phasen aus gleichem Hause kontrolliert. (Es mag ultrabillige Ausnahmen geben.) Das sieht bei NV völlig anders aus.

Unicous
2021-11-02, 14:23:55
Zeitexklusivität scheint wohl doch nur ein halbes Jahr gewesen zu sein:

Das grüne Lager war bereits Exklusivabnehmer bei Microns GDDR5X-Speicher. In der Pressemitteilung wird keine Exklusivität angesprochen, im Hintergrund war allerdings mal die Rede von einer halbjährigen Zeitexklusivität, in der Micron ausschließlich Nvidia mit GDDR6-RAM beliefert und Nvidia nur Microns GDDR6-RAM einsetzt.
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/RTX-2070-Micron-GDDR6-RAM-als-Launch-Partner-1264534/

Dennoch habe ich persönlich kaum AMD GPUs mit Micron Chips "gesehen", geschweige denn hynix. Daher macht diese Pressemitteilung umso mehr stutzig. Oder Micron will Nvidia eins auswischen und beliefert aus Trotz AMD exklusiv mit 16Gbps Chips.:freak:

HOT
2021-11-02, 14:29:21
Hynix ist nagelneu, also kein Wunder. Aber fast alle 5700(XT) sind mit Micron ausgestattet. Kannst dir etliche Tests bei TPU anschauen, die haben viele Platinen fotografiert. Und alle N2x-Karten sind mit Samsung 16GT/s 16Gb-RAM ausgestattet. Da gibts kein Micron. Das liegt einfach daran, das Micron keinen 16Gb-GDDR6-RAM im Angebot hatte bisher.

Unicous
2021-11-02, 14:43:45
Was meinst du bitte mit nagelneu?:freak:

Januar 2018:

Grafikspeicher: GDDR6 ist auch von SK Hynix lieferbar (https://www.computerbase.de/2018-01/grafikspeicher-gddr6-sk-hynix/)

Falls du auf 16Gbps anspielst macht es trotzdem keinen Sinn. Eben sprichst du selbst noch von einer 5700XT mit 14Gbps Micron Chips um dann dieses Argument auf 16Gbps von hynix auszuweiten?:confused:

Nvidia hatte außer bei der 2080 Super ausschließlich 14Gbps verwendet auch hier verstehe ich nicht worauf du hinaus willst.:confused:

Was willst du denn jetzt hier mit aller Gewalt besser wissen. Ich habe doch schon akzeptiert, dass ich mit Micron@AMD GPUs falsch lag, was soll diese weirde Diskussion noch?:confused:

HOT
2021-11-02, 14:57:00
16Gb = 2GB.

Ist ja schön, dass Hynix die da angekündigt hat, aber verbaut wurden sie nicht. Also sind die entweder zu teuer oder nicht lieferbar gewesen (ich tippe auf letzteres). Die weiten ihr Angebot aber extrem aus, wie man an deren Webseite sieht. Bisher gibts eigentlich nur Samsung und Micron und bei Micron nur 14GT mit 8Gb. Ich will das nicht mit Gewalt besser wissen, ich weiss wovon ich schreibe im Gegensatz zu dir offensichtlich ;).

2018: Micron, SKHynix und Samsung stellen GDDR6 vor. Micron kann 14GT/s mit 8Gb liefern, Samsung bis 16GT/s mit 16Gb. Erstere landen auf den Turing Consumer-Karten und aber eben auch auf N1x, also war die Exklusivität wohl ne Ente, letztere landan auf Turing Profi und später N21. Das wars bisher mit GDDR6 auf dem Markt. Was ist daran so schwer zu verstehen.

Edit:
https://www.computerbase.de/2018-09/geforce-rtx-gddr6-micron/

Da war auch nichts exklusiv, das ist nur der Launchpartner gewesen, das heißt in Wirklichkeit garnichts und ist reines Marketing.
Ampere GDDR6-Karten sind übrigens mit Samsung 8Gb 14GT/s GDDR6 ausgestattet.

Edit2:
Hier ist mal ne 6600 mit 16Gb 14 GT/s GDDR6 von SKHynix:
https://www.techpowerup.com/review/powercolor-radeon-rx-6600-fighter/3.html
Es gibt sie mittlerweile also.

Thunder99
2021-11-02, 15:30:12
Eventuell auch die Verträge geschuldet.

HOT
2021-11-02, 15:41:49
Überigens lag ich falsch, es gab sehr wohl GDDR6 mit 16Gb von Micron, Asche auf mein Haupt ;).
Und zwar auf Geforce 6500 und Radeon 5500(XT) ;). Alle 14GT/s. Es ist also durchaus schon die ganze Zeit möglich Karten von Micron und Samsung mit 16Gb-Speicher auszustatten. Die großen Super-Turings wurden später mit 16GT/s Samsung GDDR6 ausgestattet, natürlich nur 8Gb.

Also auf dem Markt bisher:
14GT/s 8Gb Micron seit 2018 (Turing Launch, später 5600/5700 (XT))
16GT/s 16Gb Samsung seit 2018 (Turing Quadro Launch, jetzt N22 und N21 und sicherlich Ampere Quadro und auch, warum auch immer, alle 3060)
14GT/s 16Gb Micron ab ca. Mitte 2019 (16x0 und 5500(XT) und sicher mobil)
14GT/s 16Gb Samsung ab ca. Anfang 2019 (16x0 und 5500(XT) und sicher mobil)
14GT/s 8Gb Samsung ab 2020, annähernd alle Ampere Karten mit GDDR6
16GT/s 8Gb Samsung ab 2070/80 Super
14GT/s 16Gb skHynix sehe ich erst ab RX6600 non XT.
16GT/s 16Gb Micron https://www.techpowerup.com/288523/micron-delivers-high-performance-gddr6-memory-for-amd-radeon-rx-6000-series-graphics-cards, also Q4 2021
GDDR6X gibt bisher keine neuen Daten von Micron, keine Spur von 16Gb-Modulen bisher. Dafür spricht ja auch die 12GB-Variante der 3080 (also weiterhin 8Gb) und die 3070Ti 16GB wird wohl mit 16GT/s+16Gb GDDR6 ausgestattet.

Übrigens hat nur skHynix eine aktuelle Webseite mit Ausblick auf bis zu 20GT/s, aber nichts über 16Gb. Micron samplet noch die 16GT-Variante der 16Gb-GDDR6 (ist aktuell, gibt aber keinen Ausblick) und Samsungs Seite scheint noch von 2018.

basix
2021-11-02, 19:42:48
Du hast noch die NextGen Konsolen vergessen ;)

HOT
2021-11-02, 23:55:28
Was heißt vergessen, die werden ne Mischung aus 16Gb und 8Gb 14GT/s-GDDR6 haben.

Zossel
2021-11-05, 19:50:01
Tesla verbaut Navi-23: https://www.heise.de/news/Tesla-Model-S-und-X-Plaid-AMD-Ryzen-Vierkerner-im-Infotainment-System-6255269.html?hg=1&hgi=0&hgf=false

Per Steam und Proton sollten auch übliche Spiele laufen.

ChaosTM
2021-11-05, 20:02:28
Fast ein PS5 SOC mit etwas älterer CPU - oder ?

OgrEGT
2021-12-28, 16:50:22
AMD 6nm Navi 24 GPU pictured, coming soon to Radeon RX 6500XT graphics cards

https://videocardz.com/newz/amd-6nm-navi-24-gpu-pictured-coming-soon-to-radeon-rx-6500xt-graphics-cards

dargo
2021-12-28, 17:10:34
Mich verwundert diese SKU schon etwas. Gibt es wirklich noch einen nennenswerten Gamingmarkt für eine GPU mit nur 4GB Speicher in 2022?

robbitop
2021-12-28, 17:37:38
Low Cost halt. Sollte für Mobas und 1080p high details fast immer ausreichen. Gerade in Zeiten der Chipknappheit braucht es für die Masse möglichst günstige SKUs.

dildo4u
2021-12-28, 17:37:55
Wie die RTX 2050, das sind Modelle um Intels neue GPUs im Notebook abzuwehren.
Mit GDDR6 ist die Bandbreite immer noch Meilen vor IGPs mit DDR5.

Nightspider
2021-12-28, 18:08:08
Da Navi24 von Anfang an für N6 ausgelegt wurde, wird man auch die 18% höhere Packdichte mitnehmen und die etwas bessere Effizienz.
Es verwundert zwar fast das man trotzdem nur 16 MB IF$ verbaut aber dann wird der wohl ausreichen. Eher seltsam sind die 4GB und viele hoffen ja auf 8GB Varianten.

Lassen sich 8GB schon technisch an einem 64Bit SI realisieren?

Rein vom Preis her wären die zusätzlichen 4GB ja ein Witz.

Glaube den VRAM über DirectStorage zu erweitern, da sind wir noch viel zu weit entfernt softwareseitig.

249€ - 289€ UVP wird man wohl erwarten können.

Und in einem Jahr, wenn der Markt sich etwas normalisiert hat wird man die Karten dann für 160 Euro verkloppen.

Das werden aber schöne, kleine Laptop GPUs mit toller Effizienz.
Auch wenn 32MB IF$ noch etwas besser für die Effizienz gewesen wären.

sapito
2021-12-28, 18:15:32
Mich verwundert diese SKU schon etwas. Gibt es wirklich noch einen nennenswerten Gamingmarkt für eine GPU mit nur 4GB Speicher in 2022?


im firmen Umfeld vielleicht? bei iGP (intel) ist die Anzahl monitore incl intern (mobile) max. 3

in einer FA kann ich zB meine desktop flotte auf eine GPU reduzieren unabhängig verbauter iGPU. macht die system pflege einfacher

vinacis_vivids
2021-12-28, 18:16:57
Mich verwundert diese SKU schon etwas. Gibt es wirklich noch einen nennenswerten Gamingmarkt für eine GPU mit nur 4GB Speicher in 2022?

Es gibt genügend Nachfrage! Deswegen erscheint diese SKU.
4GB, 141mm², 16MB L3 Cache und 64bit SI ist schon ultra-billig.
Die RDNA2 uArch lässt sich somit extrem hohe Stückzahlen verbreiten.

Außerdem hat RDNA2 hervorragendes SAM daher voller Zugriff auf dem RAM.

dargo
2021-12-28, 18:58:24
Und in einem Jahr, wenn der Markt sich etwas normalisiert hat wird man die Karten dann für 160 Euro verkloppen.

Gibst du uns ein Stück von deiner Glaskugel ab? Immer wieder amüsant die Träumerei im 3DC. :tongue: Als ob sich die Lage in einem Jahr bessern würde. :ulol:

Low Cost halt.

4GB, 141mm², 16MB L3 Cache und 64bit SI ist schon ultra-billig.

Blöd nur, dass der Endkunde davon nichts hat.

mczak
2021-12-28, 19:15:03
Lassen sich 8GB schon technisch an einem 64Bit SI realisieren?

Für eine normale Bestückung mit bloss 2 gddr6 Chips an einem 64bit SI bräuchte es gddr6 Chips mit 32 gbit, die gibt es noch nicht.
Clamshell-Modus (mit 4 16 gbit Chips) würde gehen, sowas hat man aber eigentlich nie bei billigeren Produkten benutzt.

Nightspider
2021-12-28, 19:19:05
Gibst du uns ein Stück von deiner Glaskugel ab? Immer wieder amüsant die Träumerei im 3DC. :tongue: Als ob sich die Lage in einem Jahr bessern würde. :ulol:

Dachte eigentlich das du in deinem Alter mittlerweile was mit dem Wort "wenn" anfangen kannst. :rolleyes:

Ist ja nicht so das mehrere Produktionslinien und bessere Fertigungsprozesse hinzukommen. :rolleyes:

Muss ja so teuer bleiben. :rolleyes:

Hängt natürlich stark von Crypto ab.

Für eine normale Bestückung mit bloss 2 gddr6 Chips an einem 64bit SI bräuchte es gddr6 Chips mit 32 gbit, die gibt es noch nicht.
Clamshell-Modus (mit 4 16 gbit Chips) würde gehen, sowas hat man aber eigentlich nie bei billigeren Produkten benutzt.

Welche Nachteile hat der Clamshell Modus`?

mczak
2021-12-28, 19:29:36
4GB, 141mm², 16MB L3 Cache und 64bit SI ist schon ultra-billig.

Wobei ich den Chip eher gross finde - ist ja ziemlich genau ein halber Navi 23. Klar bei halben Einheiten erwartet man im Allgemeinen etwas mehr als halbe Chipgrösse (es gibt ja Teile die nicht runterskalieren), aber wenn man berücksichtigt dass der N6 ist und ausserdem AMD da wirklich alles getan hat um den kleiner zu kriegen (es werden z.B. statt 5 bloss 2 Displays unterstützt) finde ich die 141mm² eher gross.


Außerdem hat RDNA2 hervorragendes SAM daher voller Zugriff auf dem RAM.

Schon, aber das ersetzt kein VRAM - dafür reichen die 16GB/s (pro Richtung) nirgends hin.
(Die 16GB/s sind bei pcie 4.0 x8 - eine Bestätigung dass der Chip das tatsächlich kann habe ich noch nirgends gesehen, theoretisch wäre es auch denkbar dass AMD da noch mehr knausert und es bloss x4 ist aber ich gehe mal nicht davon aus. Abgesehen davon dass der Chip sicher in vielen Systemen landen wird die bloss pcie 3.0 beherrschen.)

mczak
2021-12-28, 19:41:29
Welche Nachteile hat der Clamshell Modus`?
Es ist möglicherweise komplizierter die Signale elektrisch sauber hinzukriegen? Das würde dann eventuell ein teureres (mehr Lagen) PCB benötigen. Ist aber reine Vermutung.

Zossel
2021-12-28, 20:05:55
Clamshell-Modus

Was ist das?

Nightspider
2021-12-28, 21:45:45
Quasi die Kontakte für einen VRAM Chip auf zwei Chips aufzuteilen und diese jeweils mit halber Bandbreite anzusprechen oder?

Ergibt die gleiche Bandbreite aber doppelte Speichermenge. Gabs ja früher auch schon oft.

Zossel
2021-12-28, 23:53:16
Quasi die Kontakte für einen VRAM Chip auf zwei Chips aufzuteilen und diese jeweils mit halber Bandbreite anzusprechen oder?

Ergibt die gleiche Bandbreite aber doppelte Speichermenge. Gabs ja früher auch schon oft.

Also ein stinknormaler Bus mit mehreren Teilnehmern?

basix
2021-12-29, 00:47:57
Also ein stinknormaler Bus mit mehreren Teilnehmern?

Von der Idee her ja. Und einen Bus würde ich das nicht nennen. Zumindest verstehe ich unter dem Begriff Bus etwas anderes.

Clamshell:
- Halbierte Breite des Dateninterfaces pro GDDR-Baustein --> Unterschied zu einem Bus: Beide Chips können gleichzeitig und ungestört voneinander Daten liefern. Halt mit halbierter Bandbreite pro Chip.
- Geteilte Adress- und Control-Signale
- Max. 2 Packages. Da die minimale Breite der Dateninterfaces 16bit beträgt und ein GDDR5/6 Package normalerweise mit 32bit angebunden wird.

That's it.

Hier gibt es ein einfaches Schaubild dazu: Links normaler Mode, Rechts Clamshell Mode
https://www.hardwaretimes.com/difference-between-ddr4-gddr5-and-gddr6-memory/
https://338855-1043895-2-raikfcquaxqncofqfm.stackpathdns.com/wp-content/uploads/2019/12/image-1024x304.png

Bei Workstation / Profi-Karten ist Clamshell normal. Nur so kommen z.B. die grossen Ampere-Quadros auf 48 GByte VRAM (GDDR6 gibt es mit max. 2 GByte / Package). Die 3090 verwendet ebenfalls Clamshell, da GDDR6X nur mit 1 GByte / Package verfügbar ist.
Alles in allem ist Clamshell also völlig normal und weit verbreitet. Man macht es aber nur, wenn man es auch muss.
Da man doppelt so viele GDDR-Packages auf dem PCB hat und die Steuerleitungen doppelt führen muss, steigt die Komplexität des PCBs aber doch einiges an.
Schlussendlich ist es typischerweiser also aufwändiger und teurer.

Und wenn man mit Clamshell so Kapriolen wie bei den XBSX/S macht, ist nicht der gesamte Speicher mit der selben Bandbreite angebunden (GByte Kapazität pro GByte/s Bandbreite ist nicht uniform verteilt). Die SW-Programmierer können das dann ausbaden ;)

Edit:
Es ist möglicherweise komplizierter die Signale elektrisch sauber hinzukriegen? Das würde dann eventuell ein teureres (mehr Lagen) PCB benötigen.

Wie oben geschrieben: Man benötigt mehr/längere Leitungen. Und die Steuerleitungen sind mit einer grösseren elektrischen Last beladen, da sie zwei Teilnehmer ansprechen müssen.
Also ja: Es ist komplizierter und aufwändiger.

Verglichen mit einem vollwertigen verdoppelten Interface sollte die Komplexität aber geringer sein, da nur halb so viele Datenleitungen gerouted werden müssen. (z.B. 128bit @ Clamshell < 256bit). Dies ist aber nur eine Vermutung meinerseits. Dass die Steuerleitungen zu zwei Packages geführt werden müssen, bringt ganz eigene Herausforderungen mit sich. Speziell bei HF-Signalen sowie Signalreflexionen. Das kann dann wie du sagst dazu führen, dass das PCB mehr Layer benötigt. Gerade bei günstigen Produkten will man das eher vermeiden, da eben teurer.

Nightspider
2021-12-29, 02:04:38
Eventuell dumme Frage:

Macht der kleine Chip mit dem kleinen 64 Bit SI das Routung nicht auch wieder deutlich einfacher?
Nach dem Motto:

Routing bei Clamshell mit 128Bit SI komplexer als ohne Clamshell mit 128Bit SI
Aber
Routing bei Clamshell mit 64 Bit SI einfacher als ohne Clamshell mit 128 Bit SI
?

dildo4u
2021-12-29, 08:19:43
Rein vom Preis her wären die zusätzlichen 4GB ja ein Witz.


Medium Preset scheint massiv zu helfen mit 4GB Vrma wie gesagt IGPs sind noch drei Generationen entfernt.

https://www.computerbase.de/2021-12/nvidia-geforce-rtx-3050-laptop-gpu-test/2/#abschnitt_benchmarkergebnisse_in_spielen

basix
2021-12-29, 09:14:07
Eventuell dumme Frage:

Macht der kleine Chip mit dem kleinen 64 Bit SI das Routung nicht auch wieder deutlich einfacher?
Nach dem Motto:

Routing bei Clamshell mit 128Bit SI komplexer als ohne Clamshell mit 128Bit SI
Aber
Routing bei Clamshell mit 64 Bit SI einfacher als ohne Clamshell mit 128 Bit SI
?

Das ist keine dumme Frage, etwas ähnliches habe ich in meinem Post auch erwähnt. Wie gesagt, ich hätte 64b + Clamshell einfacher eingestuft. Aber: Wie ist die Signalqualität der Steuerleitungen? Sind zusätzliche PCB Layer nötig? Oder kann das durch die geringere Interface-Breite kompensiert werden? Ich weiss es nicht. HF-Design mache ich nicht, evtl. kann ich mal einen Kollegen bei uns in der Firma fragen der sich eher mit sowas beschäftigt.

vinacis_vivids
2021-12-29, 09:29:43
Wobei ich den Chip eher gross finde - ist ja ziemlich genau ein halber Navi 23. Klar bei halben Einheiten erwartet man im Allgemeinen etwas mehr als halbe Chipgrösse (es gibt ja Teile die nicht runterskalieren), aber wenn man berücksichtigt dass der N6 ist und ausserdem AMD da wirklich alles getan hat um den kleiner zu kriegen (es werden z.B. statt 5 bloss 2 Displays unterstützt) finde ich die 141mm² eher gross.


Schon, aber das ersetzt kein VRAM - dafür reichen die 16GB/s (pro Richtung) nirgends hin.
(Die 16GB/s sind bei pcie 4.0 x8 - eine Bestätigung dass der Chip das tatsächlich kann habe ich noch nirgends gesehen, theoretisch wäre es auch denkbar dass AMD da noch mehr knausert und es bloss x4 ist aber ich gehe mal nicht davon aus. Abgesehen davon dass der Chip sicher in vielen Systemen landen wird die bloss pcie 3.0 beherrschen.)


141mm² um die wirklich alten 232mm² RX570 - RX580 zu ersetzen ist schon sehr sehr gut.

Die 4GB sind auch ausreichend, wer mehr haben will, greift halt zur sehr guten 8GB - RX6600(XT).

Bei N24 gehts wirklich rein um die Stückzahl pro Wafer und der Gegner ist ja die GTX1650 - 4GB.
Da dürfte N24 deutlich überlegen sein.

Eventuell reicht die Leistung sogar an die GTX1660 (Super) heran, was sensationell für den Gamer mit schmaler Brieftasche wäre.

Was AMD mit RDNA2 braucht, ist die exponentielle Verbreitung im Gaming-Markt um auch an die 30-40% diskrete GPUs Marktanteil zu bekommen.

Und jetzt 4-5 Monate nach N23 so schnell N24 6nm zu bringen ist sensationell.
Das stimmt auch optimistisch schnelle refreshs von N21 6nm im Jahr 2022 noch zu bekommen. Da ist großes Einsparungspotential da.

Alles in allem bin ich sehr gespannt wie hoch N24 taktet und ob die 2,5Ghz von N23 überboten werden können. Also ob 6nm nur reiner shrink ist oder auch uArch mäßig etwas an Takt zulegen kann, vllt. auf 2,6-2,7Ghz was extrem niedrige Latenzen bedeutet.

robbitop
2021-12-29, 10:05:15
Blöd nur, dass der Endkunde davon nichts hat.

Das ist relativ zu sehen. Absolut sind alle GPUs teuer. Aber diese SKU ist eben weniger teuer als andere. ;)

davidzo
2021-12-29, 11:28:25
Wobei ich den Chip eher gross finde - ist ja ziemlich genau ein halber Navi 23. Klar bei halben Einheiten erwartet man im Allgemeinen etwas mehr als halbe Chipgrösse (es gibt ja Teile die nicht runterskalieren), aber wenn man berücksichtigt dass der N6 ist und ausserdem AMD da wirklich alles getan hat um den kleiner zu kriegen (es werden z.B. statt 5 bloss 2 Displays unterstützt) finde ich die 141mm² eher gross.

AMD hat eine Tradition bei mobile Chips eher in die Fläche zu gehen und stattdessen lieber die Anzahl der Layer zu reduzieren. Siehe Polaris 11 und Navi14. Weniger Layer sind auch Kostenersparnisse ähnlich wie die Waferflache, das sieht man nur erst in den Waferdurchlaufzeiten. Der größere DIE lässt sich aber besser kühlen, was für mobile ja auch eine Rolle spielt.

Die kleinen Chips werden jedenfalls auch immer mit wafer-thinning bearbeitet vor dem packaging, bei den großen die eh nur im desktop verwendet werden spart man sich das. Ob das was mit der Layerzahl oder der erreichbaren density zutun hat bezweifle ich aber.

davidzo
2022-01-03, 17:27:52
Gerüchte zu Navi24:
https://twitter.com/greymon55/status/1478000931442618368


AMD Radeon RX 6500XT with 6nm Navi 24 GPU to feature 2815 MHz boost clock

6500xt is really 18gbps.

Videocardz hat auch Verbrauchsdaten hergezaubert: https://videocardz.com/newz/amd-radeon-rx-6500xt-with-6nm-navi-24-gpu-to-feature-2815-mhz-boost-clock

TBP
6500XT 107W
6400 53W

Die 6400 soll aber eine reine OEMkarte werden. Schade aber verständlich.
Wenn die 6500xt tatsächlich so hoch taktet, maximiert man den Gewinn. Mit 5,8Tflops ist der Abstand zur RX6600 gerademal 35%. Das reicht immer noch als 200€+ Karte um im 1660 super Revier zu wildern.

Der fast doppelt so hohe Verbrauch zur 6400 ist dem Endkunden momentan egal und da nvidia sowieso auf GA106 setzen wird für die 3050 wird diese auch nicht gerade sparsam. Den bisherigen Gerüchten nach wir die 3050 nicht nur GA106, sondern sogar dasselbe board haben, also PG190 - eine kostspielige Entscheidung die nvidia wohl unter Zeitdruck treffen musste.

Mit der 3050 8Gb bzw. 3050ti desktop wird AMD mit Navi24 keinesfalls mithalten können. Aber unterhalb der 3060 hat man ja bereits die RX6600 mit Navi23 positioniert.
Aber vergleichbare Leistung mit einer GA106-140 GPU (2304sp) mit 128bit 14gbps GDDR6 wäre eine überraschende Leistung für den kleinen Navi24.

Hauptsache die Karte ist schneller als DG2-128EU mit ebenfalls 4GB.

Nvidia und AMD scheinen beide auf ihre eigene Art vorzuhaben Intel von Anfang an den Wind aus den Segeln zu nehmen.
Mit knapp 5Tflops bei 2,4Ghz wird DG2-128EU wohl ein guts Stück langsamer bleiben, ist mit 75Watt aber auch eine andere TDPklasse.

HOT
2022-01-03, 17:38:23
Der Chip ist in N6 doch offenbar noch deutlich besser vom Takt her. Solche Taktraten schafft man mit N7P-Navis nur sehr selten. Vor allem 2,6GHz Standardtakt ist beeindruckend finde ich. Vielleicht ist doch etwas vom Refresh von N22 und N23 zu erwarten.

MMn wird 18GT/s GDDR6 der neue Standard für Mainstream, 20GT/s wird neuer Standard bei High-End und 24GT/s wird es nur in sehr teuren Produkten geben mMn, aber die Speicher werden sicherlich so verbaut werden. Auch hier ist deutlich mehr Dampf hinter als erst gedacht bei GDDR6. N24 zeigt wohin die Reise geht mMn.

Zossel
2022-01-03, 17:57:33
Die 6400 soll aber eine reine OEMkarte werden. Schade aber verständlich.

Für mich ist das nicht verständlich.

davidzo
2022-01-03, 20:17:15
Für mich ist das nicht verständlich.

Aus AMD Perspektive schon.

Die OEMs wollen garantierte Liefermengen, sonst wirkt sich das langfristig negativ auf die OEM-Beziehungen aus. Man muss also genug Chips bieten können. Entsprechend hat man das Binning so hoch angesetzt dass möglichst viele 6400er Chips bei abfallen. Performance spielt nicht so eine große Rolle, featureset, low profile und ohne PCIe-6pin aber schon. Die kann man dann nämlich in möglichst vielen Modellen anbieten, selbst wenn die nur ein 250Watt Netzteil haben oder sff bzw. usff sind, also nahezu 90% der BusinessPCs heutzutage. Die Standardkonfiguration ist immer mit IGP, aber eine upgrade diskrete Lösung sollte man immer parat haben, egal wie klein das Gehäuse ist. Momentan wird da nur die GT1030, RX550 oder GTX1650 angeboten, die zum Teil sogar deutlich langsamer als eine aktuelle IGP sind.

Für den Endkundenmarkt kann man eine Karte mit knapp über IGP-Leistung allerdings vergessen. Die ist kaum etwas wert wenn man mal von Aufrüstern absieht die momentan wegen dem Mining-boom nicht bedient werden konnten. Mit mehr Power und Takt ist das dagegen eine Karte der 200€ Klasse. Und zwar schon ohne die aktuelle preisliche Schieflage (wird in real wohl für 300-400€ gehandelt werden, analog zur 1650 und 1660).

Berniyh
2022-01-03, 20:47:58
Aus AMD Perspektive schon.

Die OEMs wollen garantierte Liefermengen, sonst wirkt sich das langfristig negativ auf die OEM-Beziehungen aus. Man muss also genug Chips bieten können. Entsprechend hat man das Binning so hoch angesetzt dass möglichst viele 6400er Chips bei abfallen. Performance spielt nicht so eine große Rolle, featureset, low profile und ohne PCIe-6pin aber schon. Die kann man dann nämlich in möglichst vielen Modellen anbieten, selbst wenn die nur ein 250Watt Netzteil haben oder sff bzw. usff sind, also nahezu 90% der BusinessPCs heutzutage. Die Standardkonfiguration ist immer mit IGP, aber eine upgrade diskrete Lösung sollte man immer parat haben, egal wie klein das Gehäuse ist. Momentan wird da nur die GT1030, RX550 oder GTX1650 angeboten, die zum Teil sogar deutlich langsamer als eine aktuelle IGP sind.

Für den Endkundenmarkt kann man eine Karte mit knapp über IGP-Leistung allerdings vergessen. Die ist kaum etwas wert wenn man mal von Aufrüstern absieht die momentan wegen dem Mining-boom nicht bedient werden konnten. Mit mehr Power und Takt ist das dagegen eine Karte der 200€ Klasse. Und zwar schon ohne die aktuelle preisliche Schieflage (wird in real wohl für 300-400€ gehandelt werden, analog zur 1650 und 1660).
Ich denke für Server sind solche Karten durchaus auch interessant.

basix
2022-01-03, 21:11:12
Für mich ist das nicht verständlich.

Neben dem was davidzo bereits geschrieben hat:
- Rembrandt wird bei 45-60W TPDs nahe an 6400er Leistung herankommen, wenn die Speicherbandbreite nicht limitiert. Ohne IF$ könnte das knapp werden, evtl. hilft hier aber auch DDR5 (Latenzen, verglichen zu DDR4 halbierte Kanalbreite). Aber dennoch: Wenn ich Rembrandt habe, ist eine 6400er faktisch nutzlos.
- Begrenzte Liefermengen. Wenn man nicht liefern kann, lieber nicht releasen. Und der geneigte Kunde greift zur teureren 6500XT, weil er was braucht. Deswegen lieber die 6500XT an die "Low End" Käufer verscherbeln.

Ich denke für Server sind solche Karten durchaus auch interessant.
Sind da nicht OEM relevanter? Privat sind hier die Stückzahlen vermutlich deutlich geringer, nicht?

amdfanuwe
2022-01-03, 22:29:45
Ich denke für Server sind solche Karten durchaus auch interessant.
Was sollen denn Server damit?
Die Boards haben noch einen VGA Chip drauf für die BIOS Einstellungen, der Rest wird über das Netzwerk erledigt.

Berniyh
2022-01-03, 23:07:06
Was sollen denn Server damit?
Die Boards haben noch einen VGA Chip drauf für die BIOS Einstellungen, der Rest wird über das Netzwerk erledigt.
Haben wirklich alle Serverboards einen VGA Chip?

davidzo
2022-01-04, 01:59:34
Haben wirklich alle Serverboards einen VGA Chip?
ja, praktisch jedes serverboard hat ein baseboard management controller. ein BMC ist eine PCIe 2D VGA-karte (bzw. chip onboard) mit virtuellem Keyboard und maus als Kombigerät, nennt sich iKVM. Das ist meistens ein kleiner ARM Soc auf dem eine spezielle VGA-firmware mit virtualisierung von keyboard, video, maus und netzwerkanbindung läuft. Seit Jahrzehnten kommen die von Aspeed (AST2400,2500, 2600), AMD hat afaik gar nichts mit iKVM im Angebot.

Und selbst wenn ich was diskretes wollte, was zwar völlig impraktikabl ist, wieso dann nicht eine rx550, r7 240 oder noch älter nehmen solang die weiterhin gebaut werden? Für server brauche ich ja nicht die Leistung von 16CUs rdna2 und teuren GDDR6 speicher :freak:

myMind
2022-01-04, 02:07:14
Haben wirklich alle Serverboards einen VGA Chip?
Die meisten. Z.B. so einen: http://www.aspeedtech.com/server_ast2500/

dildo4u
2022-01-04, 11:41:55
Der Mobile Refrech ist hauptsächlich 7nm bis auf Navi 24.


https://videocardz.com/newz/amd-introduces-radeon-rx-6850m-xt-6nm-6500m-6300m-and-low-power-6000s-mobile-gpus

MSABK
2022-01-04, 11:58:43
Hoffentlich wird es von Lenovo ein Legion 5 Pro mit AMD GPU geben.

Nightspider
2022-01-04, 12:53:16
Schade das Navi 22 nicht in 6nm refreshed wird.

AffenJack
2022-01-04, 13:54:28
Schade das Navi 22 nicht in 6nm refreshed wird.

Das weiß noch niemand. Der Mobilrefresh dieses Jahr kriegt erstmal die gleichen Chips. Es gibt weiterhin keinerlei Gerüchte zu kleineren Chips als N33, dementsprechend ist ein N6 Refresh von N22/N23 immernoch gut möglich, denn irgendwas muss AMD auch nächstes Jahr im unteren Bereich bringen. Für 2023 würde ich weiterhin einen N22 in N6 erwarten.

Nightspider
2022-01-04, 14:19:10
Ja gut aber wenn sowas dann im 4. Quartal kommt oder noch später interessierts mich auch nicht mehr.

Wobei man sich so spät die Arbeit auch sparen kann.

AffenJack
2022-01-04, 14:37:00
Allem Anschein nach bleibt man bei den kleineren Chips bis 2024 auf 6nm, das sind dann also schon nochmal 1,5 Jahre. Man spart sich ja gerade damit die Arbeit, indem man einen optimierten 6nm Chip bringt, statt ein komplett neues Design.

Loeschzwerg
2022-01-04, 17:48:37
Die RX 6500XT finde ich so abartig unnötig. Was will man denn mit 4GB @64bit mit einer 107W TBP?! Dann lieber etwas bis max. 75W mit möglichen SingleSlot bzw. LowProfile Optionen... aber die bringt man ja nur für OEM.

DrFreaK666
2022-01-04, 18:54:50
Ich habe eine GTX480. Mir würde sie sicherlich was bringen

RitterRost
2022-01-04, 21:48:13
Ich habe eine GTX480. Mir würde sie sicherlich was bringen

4GB weniger Grafikspeicher...?

edit: upps, ich hatte RX480 gelesen.

aceCrasher
2022-01-04, 22:02:57
4GB weniger Grafikspeicher...?

*GTX 480*, nicht RX 480.

DrFreaK666
2022-01-04, 22:42:57
Ja, ich meinte schon die GTX480, Fön Reloaded ^^
Mal etwas OT: Weiß jemand ob Radeons auch Topaz Gigapixel beschleunigen?

basix
2022-01-04, 22:48:45
Schade das Navi 22 nicht in 6nm refreshed wird.

Wenn N33 so rauskommt wie ich das erwarte/erhoffe, wird N22 dadurch ersetzt. Mehr Performance bei ähnlichen Kosten für den Chip.

gedi
2022-01-05, 20:10:06
Für die nächste Zukunft bin ich mal auf den Treiber-Upscale gespannt. Was ich da so in den Folien lese, sollte das Ding qualitativ bessere Ergebnisse erzielen, als FSR. Benutzen werde ich es nie, aber ein BQ-Vergleich zwischen allen 6xxx-Modellen könnte anhand der Folien interessant sein

basix
2022-01-05, 21:11:00
Was ich da so in den Folien lese, sollte das Ding qualitativ bessere Ergebnisse erzielen, als FSR.

Wie kommst du darauf? RSR = FSR. Aber ohne, dass das HUDs etc. richtig erfasst werden.

Savay
2022-01-05, 21:14:57
Mal etwas OT: Weiß jemand ob Radeons auch Topaz Gigapixel beschleunigen?

Ja.

VooDoo7mx
2022-01-06, 16:26:16
AMD hat ja in Zuge der CES mehrere neue Mobile SKUs vorgestellt unter anderen auch die S Serie (6800S, 6700S, 6600S) für dünne Notebooks mit weniger W auf der GPU.

Das wiederum auch neue Zephyrus G14 2022 gibt es mit bis zu Radeon 6800S mit 105W. Da dachte ich mir: krass, so ne GPU in ein kleines 14" Notebook einzubauen. Dann gucke ich auf die Specs und sehe: "nur" 8GiB RAM.
Dann schaue ich bei AMD nach und sehe das die 6800S nur 32CU, 32MiB Inifinity Cache und 128Bit SI hat. :umad:

Da verkauft doch AMD jetzt echt ne Navi 23 GPU mit der Performance deutlich unter einer 6600XT als 6800S im Notebook. Das finde ich jetzt mal echt ziemlich frech und grenzt schon an Verarsche. Hätte ich da nicht genau hingesehen, wäre mir das gar nicht aufgefallen.

Also liebe Kinder:
6800 : Navi 21
6800M: Navi 22
6800S: Navi 23

Das was nVidia mit der 1000 und 2000er Serie bei Notebooks gemacht hat, war echt vorbildlich, da war quasi alles gleich, bis auf weniger Takt. Bei der 3000er Serie machen sie wieder so ein Müll wie früher.
Doch das was jetzt AMD macht, ist ja an Dreistigkeit kaum noch zu überbieten. So eine 6800S wird so ihre mühen haben eine Notebook 3060 zu schlagen, obwohl der Name was ganz anderes suggeriert.

MSABK
2022-01-06, 16:29:50
Naja, soo viele Notebooks werden da eh nicht erhätlich sein. Die Frage ist auch was bringt der Chip wenn eh gedrosselt wird ohen Ende. Da ist es am Ende egal welcher Chip verbaut ist.

Das G14 sieht aber mega aus finde ich.

Lehdro
2022-01-07, 15:26:07
Das was nVidia mit der 1000 und 2000er Serie bei Notebooks gemacht hat, war echt vorbildlich, da war quasi alles gleich, bis auf weniger Takt. Bei der 3000er Serie machen sie wieder so ein Müll wie früher.
Doch das was jetzt AMD macht, ist ja an Dreistigkeit kaum noch zu überbieten. So eine 6800S wird so ihre mühen haben eine Notebook 3060 zu schlagen, obwohl der Name was ganz anderes suggeriert.
Da bin ich voll bei dir.

Daher gilt wie immer beim Notebookkauf: Man kauft das Notebook als Ganzes, nicht die einzelnen Komponenten(-namen) darin. Ist bei den mobile CPUs auch nicht anders, auch dort wird gerne mal mit der TDP Augenwischerei betrieben, so dass die namenstechnische kleinere CPU plötzlich schneller als die höherklassige ist.

dildo4u
2022-01-09, 10:45:42
Alienware erlaubt 175Watt nur für die GPU im Notebook(6850MXT) gut für 1 zu 1 Vergleich mit der 3080 Ti.

https://youtu.be/lpFZLNGpXHM?t=238

VooDoo7mx
2022-01-09, 13:26:41
Alienware erlaubt 175Watt nur für die GPU im Notebook(6850MXT) gut für 1 zu 1 Vergleich mit der 3080 Ti.

https://youtu.be/lpFZLNGpXHM?t=238

Ist weiterhin nur ein Navi 22 mit mehr Takt.
Das wird vielleicht reichen zur 3080 aufzuschließen, wird aber trotzdem keine Chance gegen den GA103 3080Ti.

w0mbat
2022-01-11, 09:59:24
Navi24 ist angeblich nur 107mm² groß in N6. Und da sind 16MB Infinity Cache drin.

Dazu kommt das winzige 64-bit Speicherinterface und nur 4GB VRAM. VRM wird bei der TDP auch sehr günstig sein.

Das Ding wird fast nichts kosten und trotzdem für mehr als 300€ über die Theke gehen :ugly:

dildo4u
2022-01-11, 10:08:37
Ist immer noch die neuste Fertigung da ist nix billig, die haben z.b mal ebend die neue Encoding Engine rausgeworfen damit die Die so klein wie möglich ist.

davidzo
2022-01-11, 10:51:39
Navi24 ist angeblich nur 107mm² groß in N6. Und da sind 16MB Infinity Cache drin.

Dazu kommt das winzige 64-bit Speicherinterface und nur 4GB VRAM. VRM wird bei der TDP auch sehr günstig sein.

Das Ding wird fast nichts kosten und trotzdem für mehr als 300€ über die Theke gehen :ugly:

Quelle?

Bisher war immer von 141mm2 die Rede, was wohl eine Schätzung seitens Videocardz ist. Die können sich aber auch gut vertan haben, vergleichen das schließlich mit Navi14 und das package von N24 ist sicher kleiner wegen 64bit SI.
Die einzige Quelle für 107 scheint TPU zu sein - deren Datenbank strotzt aber auch nur so von Fehlern, da würde ich eher annehmen dass denen die TDP von "107W" in der Zeile verrutscht ist.

141mm wäre sehr groß und von der Density wesentlich schlechter als die N7 chips N23, N22, N21. (38mtr vs 45) - bei einem kleinen chip nicht ungewöhnlich, da i/o und analogkrams nicht skaliert. Allerdings läge 107mm2 mehr in line mit den Erwartungen an TSMCs 6nm.

Hakim
2022-01-11, 10:55:43
Schon krass wo man überall den Rotstift ansetzt, De und Encoder, nur 4 Lanes der vierten Gen, wobei man dazu sagen kann das bei dem Preis sich vermutlich viele der noch pci 3.0 mobo sys Besitzer es holen könnten.

vinacis_vivids
2022-01-11, 11:19:04
Naja, es ist Navi24 - da geht der Fokus auf hohe Ausbeute pro Siliziumfläche und Ausnutzung der uArch, die nach unten sehr gut skaliert.
Quasi Ersatz für die RX470/480/570/580 der Polaris uArch, die nun mittlerweile bald 6 Jahre alt ist.

davidzo
2022-01-11, 11:21:53
Okay, habe es selbst gefunden. Kommt von Charlie Demerjan /Semiaccurate. Der flunkert zwar auch gerne mal, aber ich denke hier stimmt alles weil er sich die Info direkt von AMD geholt hat.

https://twitter.com/CDemerjian/status/1480597930780229633


Got it directly from AMD, "Process, die size, and TDP of the 6500XT?

The AMD Radeon RX 6500 XT graphics card is built using the 6nm process technology and a 107mm2 die."
Sorry about the formatting.
6:50 PM · Jan 10, 2022·Twitter Web App

Videocardz hatte die 141mm2 aus dem AMD Presserender mit allen vier Navi GPUs abgemessen :freak: - das hat dann gleich jeder abgeschrieben.
Klar dass sich der Marketingpraktikant nicht die Mühe gibt das Maßstabsgetreu darzustellen, sondern die Dies so skaliert dass es am besten auf die Folie passt :rolleyes:


Bei einem Transistorcount von 5,4bn ist das eine Density von 50,50mtr/mm2, also knapp unter Navi21 mit 51,50mtr/mm2, aber über Navi23s 46,70mtr/mm2.
Nicht schlecht für einen kleinen chip der in der Regel weniger gut skaliert. Aber auch keine Offenbarung für 6nm.

Es ist echt erstaunlich dass N24 weniger als halb soviele Transistoren hat wie Navi23, dabei ist das nur eine glatte Halbierung der render-config, Speicher und PCIe anbindung. Den Ausschlag gibt da wohl das Fehlen von VCN.
Nahezu perfekte Skalierung nach unten

- ich denke Navi24 wird der langlebigste RDNA Grafikchip bis dato. Ein echter Ersatz für Kassenschlager wie Oland / Mars der in vier Generationen von HD8000 bis R7 400 Series verbaut wurde. Mit 64bit auch der Traum der Notebook-OEMs, da er sich noch auf einfache 6 layer Platine quetschen lässt ohne viel Platz zu benötigen.


Umso merkwürdiger ist dass nvidia das in der RTX3050 mit GA106 countert. Ein 276 mm² großer Chip der komplexere PCBs, teurere power delivery, mind. 128bit SI und vieles mehr benötigt.
AMD zielt klar unter die 3050, die werden niemals auf Augenhöhe konkurrieren.
Die Preissituation ist aber einfach nur Dreist von AMDs boardpartnern, aber auch AMD selbst. Das wäre normalerweise eine 129$ karte bzw. maximal 149.

Viel brutaler als Nvidia wird es Intel ergehen. DG2-128 soll ebenfalls in N6 ca. 150mm2 groß sein, also fast 50% größer als Navi24 und hat ein 50% größeres SI welches 50% mehr DRAM benötigt. Trotzdem liegt DG2-128 von der Rohleistung in allen Bereichen außer dem Geometry processing hinter Navi24. Mit rund 70Watt verbraucht man zwar weniger als der hochgetaktete Destop Navi24, aber mehr als die 50Watt 6400 OEM.

w0mbat
2022-01-11, 11:38:55
Ist immer noch die neuste Fertigung da ist nix billig, die haben z.b mal ebend die neue Encoding Engine rausgeworfen damit die Die so klein wie möglich ist.
Ist weder N5 noch N5P, also bei weitem nicht "die neuste Fertigung". Und die neue Encoding Engine ist nicht drin, da Navi24 also mobile-GPU geplant wurde, da macht die iGPU das ganze encoding.

Linmoum
2022-01-11, 11:55:13
Die Preissituation ist aber einfach nur Dreist von AMDs boardpartnern, aber auch AMD selbst. Das wäre normalerweise eine 129$ karte bzw. maximal 149.Das Problem ist halt, herstellerunabhängig, dass der tatsächliche Marktpreis nicht automatisch geringer ausfällt, wenn es auch die UVP tut. Der bleibt ja trotzdem so hoch.

Für AMD, Nvidia und andere Hersteller lohnt es sich daher nicht, die UVP so niedrig (oder angemessen) wie möglich anzusetzen, weil sich dann vor allem die Händler die Kohle in die Taschen stecken. Wenn du die UVP aber höher ansetzt, bekommst du mehr und die Händler dafür weniger. Aus unternehmerischer Sicht nur logisch. Die Hersteller sind ja nicht doof, die wissen ganz genau, dass sich die UVP eh nicht halten lässt und die Marktpreise deutlich darüber liegen werden.

basix
2022-01-11, 12:56:21
Okay, habe es selbst gefunden. Kommt von Charlie Demerjan /Semiaccurate. Der flunkert zwar auch gerne mal, aber ich denke hier stimmt alles weil er sich die Info direkt von AMD geholt hat.

https://twitter.com/CDemerjian/status/1480597930780229633

107mm2 wären wirklich deutlich kleiner als gedacht. Deswegen doppelt schade, nicht auf 8x PCIe und einem richtigen VCN zu setzen. Dann wäre das Ding halt 115-120mm2 gross, ist immer noch sehr klein.


- ich denke Navi24 wird der langlebigste RDNA Grafikchip bis dato. Ein echter Ersatz für Kassenschlager wie Oland / Mars der in vier Generationen von HD8000 bis R7 400 Series verbaut wurde. Mit 64bit auch der Traum der Notebook-OEMs, da er sich noch auf einfache 6 layer Platine quetschen lässt ohne viel Platz zu benötigen.
Aufgrund der Einschränkungen bezüglich PCIe-Lanes und VCN: Ich hoffe nicht. RDNA4 soll einen N45 bringen. Der wird definitiv als N24 Nachfolger kommen. Ich hoffe, RDNA4 wird einen Top to Bottom Chiplet Ansatz mitbringen, dann kämen die RDNA4 GPUs evtl. zeitlich relativ nahe aufeinander. Best Case im Frühling 2024 und somit "nur" 2 Jahre nach N24.

RDNA4, wie ich es mir vorstelle:
- MCDs: 1-4 = 64-256bit --> N6 oder N4
- GCDs: 1-6 = N41-N45 (1,2,3,4,6) --> N3(?)
- IOD: 1 = VCN, Display, PCIe 5.0, ... --> N6 oder N4

Für N44/N45 kann man ja einen IOD Salvage mit 8 Lanes bringen und bei den Mobile Varianten im Extremfall wieder auf 4 Lanes runtergehen. Zumindest hätten Desktop SKUs und Nachrüster keine Limitierung in dieser Hinsicht.

Viel brutaler als Nvidia wird es Intel ergehen. DG2-128 soll ebenfalls in N6 ca. 150mm2 groß sein, also fast 50% größer als Navi24 und hat ein 50% größeres SI welches 50% mehr DRAM benötigt. Trotzdem liegt DG2-128 von der Rohleistung in allen Bereichen außer dem Geometry processing hinter Navi24. Mit rund 70Watt verbraucht man zwar weniger als der hochgetaktete Destop Navi24, aber mehr als die 50Watt 6400 OEM.

DG2-128 hat aber fünf bis sechs Trümpfe:
- 6 GByte --> Kunden, nicht OEMs. 96bit SI ist ebenfalls sehr schmal
- 8x PCIe Lanes --> Zusammen mit 6 GByte VRAM deutlich attraktiver für PC-Aufrüster
- Raytracing Leistung. Bei N24 sozusagen nicht sinnvoll brauchbar.
- XeSS --> Wird auf Xe deutlich besser performen
- Vermutlich recht potente Video Encoder/Decoder. Mir als Kunden wär das was Wert, vor allem im Notebook, wo man die GPU nicht einfach upgraden kann
- Intel als Systemseller im Rücken (CPU, GPU, Network, SSD, ...)

Bei DG2-96 geht man zudem glaube ich eh auf 64bit und 4 GByte runter.

amdfanuwe
2022-01-11, 13:12:42
- ich denke Navi24 wird der langlebigste RDNA Grafikchip bis dato. Ein echter Ersatz für Kassenschlager wie Oland / Mars der in vier Generationen von HD8000 bis R7 400 Series verbaut wurde. Mit 64bit auch der Traum der Notebook-OEMs, da er sich noch auf einfache 6 layer Platine quetschen lässt ohne viel Platz zu benötigen.

Denk ich auch.
In N6 mit 107mm² dürfte der unschlagbar billig in der Produktion sein. Da kann AMD gut über den Preis gehen.
Desktop ist da auch eher ein Nebenprodukt. Haupteinsatzgebiet dürfte embedded sein, wenn eine iGPU nicht ganz reicht.

davidzo
2022-01-11, 16:28:43
XESS und Videocodecs sind gute Argumente, andererseits muss sich ersteres erstmal beweisen und letzteres steckt bereits in jeder mobileCPU, sowohl Rembrandt als auch Tigerlake. AMD hat schon recht dass VCN in 90% der Geräte mit Navi24 nicht gebraucht wird. Ich würde mich nicht wundern wenn wir auch viele Notebooks mit Alderlake + Navi24 gibt. Das beste aus zwei Welten: Beste Videoengine + hohe ST Leistung + solide Firmware und power management + lowest Power GPU mit gutem Treiber- und Anwendungssupport.


- Raytracing Leistung. Bei N24 sozusagen nicht sinnvoll brauchbar.

In dieser Leistungsklasse ohnehin nicht brauchbar, nichtmal zum Testen.

Bei DG2-96 geht man zudem glaube ich eh auf 64bit und 4 GByte runter.

Aber wenn DG2-128 leistungsmäßig nicht an eine 6500xt herankommt, nützen auch die 6GBVRAM nichts oder dass es eine noch langsamere 4GB Variante gibt. Das Ökosystem mit Treiber- und Firmwaresupport, Boardpartnern etc. ist aber eher ein Pro-Argument für AMD und Nvidia als für den Newcomer.


Denk ich auch.
In N6 mit 107mm² dürfte der unschlagbar billig in der Produktion sein. Da kann AMD gut über den Preis gehen.
Desktop ist da auch eher ein Nebenprodukt. Haupteinsatzgebiet dürfte embedded sein, wenn eine iGPU nicht ganz reicht.

Embedded ist ein kleiner Markt und der bevorzugt ganz klar APUs.
Ich denke eher dass es eine klassische mobile GPU ist.
64bit und nur x4 Lanes ist im mobile sogar von Vorteil, da es den Idle-verbrauch niedrig hält und sehr wenig pcb real estate kostet.

AMD hatte mal einen Zeit wo sie den Markt für diskrete Notebook GPUs dominiert haben und nvidia nur eine Randfigur mit eher leistungsschwachen IGPs oder seltenen, schweren Desktop replacements war. Damals hatte man mit on-package-memory bei den radeon Mobility 7500, 9000, 9700 ein As im Ärmel das es OEMs ermöglichte innerhalb einer Modellreihe entweder Intel IGP oder optional eine diskrete AMD GPU anzubieten. Wenn die GPU niedrig genug vom Energieverbrauch ist kann man sie einfach an die CPU heatpipe mit anschließen.
Da gingen dann wie üblich bei OEMs auch Features vor Leistung, etwa Multimonitor, HW-codecs, hohe 2D Leistung und RAMDAC Qualität. Alles Bereiche in denen ATI lange Zeit führend war. - Quasi das Vorbild für Nvidias MX-Strategie im Ultramobile.

Navi24 ist in dieser Tradition eine einfache mobile "feature complete" Ergänzung für dünne und leichte Notebooks. Einfach an die CPU Heatpipe mit anschließen und in den Entrylevel IGP-Modellen wird der teil eben nicht bestückt.
Im Notebookmarkt ist die Unterscheidung zwischen IGP und diskret eben noch sehr viel wert, selbst wenn die Leistung im Endeffekt kaum besser ist als die IGP.
Im Embedded zählt eher die Kompaktheit und die einfachere Efi-Firmware der IGP gegenüber einer switchable dGPU+IGP Lösung. Wenn man mehr Leistung braucht nimmt man lieber die 35W oder 45W Variante und dürfte dann mit 12CU Rembrandt ähnliche Leistungen erreichen wie eine Radeon 6400m mit 15Watt.

amdfanuwe
2022-01-11, 16:36:35
Embedded ist ein kleiner Markt und der bevorzugt ganz klar APUs.

Klar, sieht man an den Teslas, die jetzt auch GPU verbauen.
Wer weiß, was da in Entwicklung ist und die nächsten 10 Jahre dann verkauft wird.

ryan
2022-01-17, 13:16:09
https://youtu.be/rGG2GYwnhMs


Die 6500XT kann man vergessen auf einem PCIe3 System und PCIe4 x4 bei 4GB VRAM ist auch ein Problem, jedes zweite game verliert an performance bzw. verliert 4GB gegen 8GB einiges an Performance.

Denniss
2022-01-17, 18:14:42
Bei solchen Messungen muß man auch die Zielgruppe betrachten, die 4GB 5500XT und auch die 6500XT sind nicht für aktuelle AAA-Titel mit maximaler Grafik oder hoher Auflösung gedacht.
In erster Linie hapert's da an VRAM und erst wenn der fehlende VRAM über PCIe ins RAM ausgelagert wird knallen halt die 4 Lanes rein.
Sprich wer Regler bedienen kann der hat auch mit der 4GB 5500XT und der 6500XT Spaß beim spielen.

aufkrawall
2022-01-17, 18:18:25
Sprich wer Regler bedienen kann der hat auch mit der 4GB 5500XT und der 6500XT Spaß beim spielen.
Halte ich für viel zu optimistisch. Unter 4GB VRAM-Verbrauch zu bleiben, ist auch mit niedrigsten Details in 1080p zunehmend schwierig. Außerdem bezahlt man dann absurd viel Geld und hat Probleme, die man mit einer damaligen 200€ RX 480 nicht gehabt hätte. Das ist einfach völliger Elektroschrott, für irgendein Moba mit reduzierten Details tuts auch eine Gen 12 IGP.

Nightspider
2022-01-17, 18:23:33
Hat jemand einen groben Richtwert wie viel mal schnell die 6500XT ggü Rembrandt sein wird?

Zossel
2022-01-17, 18:41:18
Viel brutaler als Nvidia wird es Intel ergehen. DG2-128 soll ebenfalls in N6 ca. 150mm2 groß sein, also fast 50% größer als Navi24 und hat ein 50% größeres SI welches 50% mehr DRAM benötigt. Trotzdem liegt DG2-128 von der Rohleistung in allen Bereichen außer dem Geometry processing hinter Navi24. Mit rund 70Watt verbraucht man zwar weniger als der hochgetaktete Destop Navi24, aber mehr als die 50Watt 6400 OEM.

Wetten, das die Intel-GPU den Intel-CPUs als Werbegeschenk beiliegt?

DrFreaK666
2022-01-17, 20:01:28
6500XT wie erwartet auf 1660Ti Niveau

bvxzm_iGMQg

y33H@
2022-01-17, 20:07:48
Und wieso sollte das kein Fake sein? wenn die Karte samt Treiber nicht zu sehen ist, hab ich da immer gehörig Zweifel ...

DrFreaK666
2022-01-17, 20:11:32
Naja, er hatte in der Vergangenheit schon öfters Recht.
Es gibt noch andere Youtuber, die ein ähnliches Bild zeigen

y33H@
2022-01-17, 20:23:31
Zwischen treffenden Zahlen und einem echten Test besteht halt ein Unterschied - ich bin bei sowas skeptisch, wenn Leute vor dem NDA angebliche Werte haben und in keinster Weise die Existenz ihrer Karte belegen.

EDIT: vor allem wenn ich sehe, dass da vor paar Tagen auch eine RTX 3050 getestet worden sein soll ...

dildo4u
2022-01-17, 20:28:27
Kein Plan für was man Benchens braucht das Ding kommt genau bei der RX5500 raus nur mit geringerem TDP.
Und die war schon 2019 überflüssig.

Raff
2022-01-17, 20:50:59
6500XT wie erwartet auf 1660Ti Niveau

... bei der Boardpower. Alles andere würde mich überraschen. ;)

Kein Plan für was man Benchens braucht das Ding kommt genau bei der RX5500 raus nur mit geringerem TDP.
Und die war schon 2019 überflüssig.

... gab es aber wenigstens auch mit 8 GiByte, was das totale Rohrkrepieren verhinderte.

MfG
Raff

DrFreaK666
2022-01-17, 21:40:30
Schaut euch meine Karte in der Sig an.
Für mich macht die 6500XT Sinn.

Und was die "angeblichen Werte" angeht: wir sind im Speku-Forum. So what??!!!

Raff
2022-01-17, 21:53:39
Erwarte einfach nicht zu viel. Ausgehend von deiner GTX 480 ist das Ding ein Monster, aber du hattest ja auch mal mindestens eine GTX 980 Ti.

MfG
Raff

Lehdro
2022-01-17, 21:56:02
Die 6500XT gibt es im Desktop nur, weil der Markt derzeit so ist wie er eben ist. Das Ding ist rein konzeptionell ein GPU Boost für Rembrandt in Lowend Notebooks die unbedingt eine dGPU brauchen die aber bitte auch nicht alles leerlutschen soll. Nur dann macht die Konfiguration mit x4 4.0 Lanes, keinen Mediaencodern (übernimmt Rembrandt) und 4 GiB halbwegs Sinn. Das Ding ist ein MX450 o.ä. / Alchemist Killer, für die AMD Notebooks in der Preisklasse.

Im Desktop musst man schon hart stochern um den Ding irgendeinen Sinn abzugewinnen.

DrFreaK666
2022-01-17, 21:59:41
Erwarte einfach nicht zu viel. Ausgehend von deiner GTX 480 ist das Ding ein Monster, aber du hattest ja auch mal mindestens eine GTX 980 Ti.

MfG
Raff

Ja, ich hatte eine 980Ti. Und ich bin eigentlich davon ausgegangen, dass die 6500XT in etwa so schnell sein wird.
Wenn ein Großteil meiner Steam-Library wieder läuft, dann reicht mir das schon.
Neuere Games interessieren mich kaum

Nightspider
2022-01-17, 22:09:50
Weil hier vorhin geschrieben wurde Navi24 wird ein langes Leben haben.

Am Ende ist die 5nm APU in einem Jahr schon genauso schnell und die APU das Jahr darauf sogar schneller.

Ob Navi24 da jetzt so viele Jahre produziert wird bleibt abzuwarten.

Jetzt kann man damit halt den Gewinn pro Wafer maximieren im GPU Bereich und mehr wartende Zocker halbwegs befriedigen.

Dampf
2022-01-17, 22:11:04
Das Potential der Karte wird man auch erst später sehen, so wie auch bei der Series S.

In reinen Next Gen Titeln wird die Karte dank dem aktuellen Featureset die 8 GB 5500XT und die RX 580 komplett vernichten und damit wird sie dann auch zu einem interessanten Kauf für den preisbewussten Gamer.

dildo4u
2022-01-17, 22:17:07
Das macht genau wegen dieser Xbox kein Sinn die stellt das neue Minimum dar und hat 8 GB GDDR6.

Raff
2022-01-17, 22:17:28
Wie soll eine 4-GiByte-Grafikkarte überhaupt irgendwas vernichten? Das reicht schon bei der aktuellen Spiele-Generation hinten und vorne nicht. So ein Modell kann nur mithalten, wenn alle Next-Gen-Effizienzfeatures verwendet werden (oder alternativ keine Texturen ;)).

MfG
Raff

y33H@
2022-01-17, 22:34:19
In reinen Next Gen Titeln wird die Karte dank dem aktuellen Featureset die 8 GB 5500XT und die RX 580 komplett vernichten und damit wird sie dann auch zu einem interessanten Kauf für den preisbewussten Gamer.Ich fürchte, du liegst falsch.

vinacis_vivids
2022-01-17, 22:35:46
SAM = Smart access memory
Infinity Cache

Beides exklusiv von AMD entwickelt auf Hardwareebene um auf den Speicherhunger und Bandbreitenhunger zu reagieren.

Von der "Brute Force" Technik wie bei der Vega uArch, oder auch Turing bzw. Ampere will AMD weggehen und tut es bereits.

Deswegen reichen auch 64bit SI,4GB bei der 6500XT um die 192bit SI, 6GB der 1660Ti auszugleichen. Dabei wird auch viel effizienter mit den Ressourcen umgegangen bei 107mm² Silizium statt verschwenderische 284mm² bei Nvidia.

Dampf
2022-01-17, 22:38:48
Das macht genau wegen dieser Xbox kein Sinn die stellt das neue Minimum dar und hat 8 GB GDDR6.

Geteilter Speicher auf der Xbox.

Diese 7,5 GB für Spiele werden geteilt zwischen GPU und CPU. Wenn du dir mal ansiehst welche Textureinstellungen die Series S in den Spielen fährt, dann wirst du zu dem Schluss kommen, dass in den meisten Spielen 4 GB als Videospeicher nicht überschritten werden. Jedenfalls nutzt sie Textureinstellungen, die man schon mit 6 GB weit übertreffen kann. Und das ausnahmslos in allen Spielen.

Microsoft hat für die Xbox Series X 3,5 GB als CPU Speicher empfohlen, der wird sich auf der Xbox Series S nicht ändern. Die Rechnung kannst du dir ja selbst machen.

Nightspider
2022-01-17, 22:41:31
Da müssen die Spiele aber erstmal dafür programmiert werden, massiv von einer superschnellen SSD zu streamen statt VRAM vollzuballern.

Das Problem ist eher das es schon hunderte Spiele gibt, die nicht mit 4GB VRAM klarkommen und sich das auch nicht nachträglich ändern wird.

Dampf
2022-01-17, 22:45:05
Da müssen die Spiele aber erstmal dafür programmiert werden, massiv von einer superschnellen SSD zu streamen statt VRAM vollzuballern.

Das Problem ist eher das es schon hunderte Spiele gibt, die nicht mit 4GB VRAM klarkommen und sich das auch nicht nachträglich ändern wird.

Doch, die kommen alle klar mit 4 GB. Nur eben nicht auf max. Für max settings wurden die Karten auch nie konzipiert.

https://www.youtube.com/watch?v=rGG2GYwnhMs

Für Series S und die 6500XT werden in Next Gen Titeln zukünftig ebenfalls mittlere Einstellungen anvisiert. Dafür wurden sie von AMD erschaffen. Nur dass diese mittlere Einstellungen dann deutlich besser aussehen als heutige Titel auf Ultra, da sie von dem Next Gen Featureset Gebrauch machen.

Und dafür reichen auch 4 GB. Deswegen hat die Series S rund 4GB als effektiven VRAM. Und deswegen hat die neue Einsteigerklasse von AMD ebenfalls 4 GB.

vinacis_vivids
2022-01-17, 22:53:54
Das Credo bei AMD ist schon länger die bestehenden Ressourcen optimal und effizient zu nutzen statt immer nur mehr zu wollen.
Die Profi-Tools dafür gibs es bereits wie AMD GPU-Profiler und AMD Memory-Visualizer.
Das Umdenken dauert halt auch seine Zeit bis die Tools sich durchsetzen.

Der direkte Zugriff auf der Hardwareebene via DX12, Vulkan und OpenCL ist viel viel schneller als über die langsamen und trägen Treiber-Bibliotheken via DX11 oder Nvidia Treiber.

AMD hat auch erstmals überhaupt die Marktmacht solche hardwarenahen Tools durchzusetzen was bei Konsolen schon lange gang und gäbe ist (insbesondere Sony PS4, PS5 oder auch XBOX (X))

aufkrawall
2022-01-17, 22:55:22
AMD sollte erstmal das VRAM-Management ihres Treiber verbessern, wenn sie schon solche VRAM-Krüppel verkaufen...

basix
2022-01-17, 23:04:09
Mal abwarten. Sollten die Tests aus diesem YT Video stimmen, ist es weniger schlimm wie erwartet, zumindest mit einem PCIe 4.0 System. Bei DOOM Eternal kackt man ab und bei RDR2 sieht man Frametime Spikes. Die anderen Spiele scheinen relativ zur 6600XT so zu performen wie man es in etwa erwarten kann.

Aber für eine richtige Beurteilung fehlen noch richtige Tests ;)

marc-05
2022-01-18, 10:02:32
Selbst die 6600XT ist schon bei PCi-E x8 verhungert da machts x4 Speed nicht besser.
Bei dein Stats ist die für mich die 6500XT der Hardware Scheiß 2022 , Bravo AMD Preis geht an euch .
Die Konkurrenz wird sich ins Fäustchen lachen .

y33H@
2022-01-18, 10:10:23
Die RX 6600 XT verhungert doch nicht an Gen4 x8, insbesondere nicht angesichts von 8GB Videospeicher ... bei der RX 6500 XT gilt: nur mittlere Schatten/Texturen, dann ist's fein.

vinacis_vivids
2022-01-18, 10:18:28
Selbst die 6600XT ist schon bei PCi-E x8 verhungert da machts x4 Speed nicht besser.

Wozu bei der unteren Mittelklasse Schaltungen, Transistoren und Energie verschwenden?

Das sind alles 1080p Karten, da bringt PCIe x16 auch nichts.
Der neue und deutlich effizientere Infinity Cache macht ohnehin viele alte Techniken obsolet (zu breites SI, zu viel Bandbreite, zu viel Energieverbrauch).

Die verfügbare Energie und vorhandenen Transistoren werden dann eher für den Takt verwendet und da ist die Navi uArch mit ~2,8Ghz konkurrenzlos.

marc-05
2022-01-18, 10:19:00
Gen 4 nicht aber wie verbreitet ist PCI-E 4.0 5 % vielleicht ?

y33H@
2022-01-18, 10:19:50
Auch bei Gen3 nicht, weil du primär die 8GB erstmals voll bekommen musst.

marc-05
2022-01-18, 10:39:13
Hab Test bei Igor im Kopf
https://youtu.be/VheMa7YKQHw?t=310

y33H@
2022-01-18, 10:49:24
Tja, kommt die Differenz jez dadurch, dass rBAR fehlt oder durch Gen3?

Die paar Prozentpunkte als "verhungern" zu bezeichnen finde ich halt irreführend, zumal Metro Exodus offenbar der Worst Case in Igors Benchmarks ist ... bei den anderen Spielen sind's laut ihm nur 3-6%.

EDIT

In Metro mit rBAR dann 15PP statt 18PP

marc-05
2022-01-18, 10:54:26
Naja drop ist nicht ohne ,was mit kommenden Games oder Spiele wo man Mods bis Decke reinknackelt , interlässt faden beigeschmack.Wird so ne Bremse nicht kaufen wollen.

basix
2022-01-18, 11:06:32
Ich weiss nicht, ob der typische 6500XT User Ultra Settings fährt oder "Mods bis Decke reinknackelt", vor allem nicht bei neuesten Spielen. Bei solchen Settings wird man per se etwas höher ins Regal greifen.

Was bei kommenden Games passiert: Keine Ahnung. Es ist wohl unbestreitbar, dass man lieber PCIe x8 und auch 8 GByte VRAM gesehen hätte. Jetzt haben wir halt das. Für alle anderen gibt es die 6600(XT) oder auch RTX 3050+

Leonidas
2022-01-18, 11:30:43
Radeon RX 6x50 Serie kommt wohl:
https://videocardz.com/newz/amd-rumored-to-launch-radeon-rx-6x50xt-navi-21-22-cards-with-18gbps-memory-in-q2-2022

y33H@
2022-01-18, 12:06:18
Naja drop ist nicht ohne ,was mit kommenden Games oder Spiele wo man Mods bis Decke reinknackelt , interlässt faden beigeschmack.Wird so ne Bremse nicht kaufen wollen.Genau das ist die Zielgruppe ... nicht.

Denniss
2022-01-18, 12:31:16
Ich hab übrigens SotTR mit ner RX460 2GiB auf nem PCIe2 system durchgespielt.
Wenn man die Regler bedienen kann sind auch 2GiB kein Problem, ist halt weniger hübsch.
Nur bei der letzten großen Stadt musste ich noch ein wenig VRAM sparen da die etwas mehr fraß als erhofft.

DrFreaK666
2022-02-01, 21:37:51
Eine 6600 kostet aktuell in etwa 200€ mehr als eine 6500XT.
Wie realistisch ist es, dass AMD eine Karte dazwischen auf den Markt bringt (6600 LE oder ähnlich)?
2022 sollen ja noch Refresh-Karten erscheinen.
Die 6600 ist laut CB sogar doppelt so schnell :eek:

=Floi=
2022-02-02, 00:35:59
Bei NV ist es das selbe. Eine leistungsstufe sind 50/100% unterschied.

dildo4u
2022-02-02, 07:51:55
Eine 6600 kostet aktuell in etwa 200€ mehr als eine 6500XT.
Wie realistisch ist es, dass AMD eine Karte dazwischen auf den Markt bringt (6600 LE oder ähnlich)?
2022 sollen ja noch Refresh-Karten erscheinen.
Die 6600 ist laut CB sogar doppelt so schnell :eek:
Die 6600 ist billig genug herzustellen du willst nicht weniger Vram und die Karte brauchen keine sonderlich aufwendige Stromversorgung/Kühler.
Diese Karten waren als 250€ Modelle geplant aber AMD hat die Preise angehoben weil sie so spät kamen und der GPU Markt schon am Arsch war.
Du musst drauf hoffen das Intel im Sommer den Markt flutet wir wissen das sie Modelle in dem Bereich haben werden.

dargo
2022-02-02, 08:27:51
Diese Karten waren als 250€ Modelle geplant aber AMD hat die Preise angehoben weil sie so spät kamen und der GPU Markt schon am Arsch war.

Was schreibst du da wieder für einen Unsinn? AMD hat da gar nichts angehoben. :rolleyes:

Berniyh
2022-02-02, 08:30:00
Eine 6600 kostet aktuell in etwa 200€ mehr als eine 6500XT.
Wie realistisch ist es, dass AMD eine Karte dazwischen auf den Markt bringt (6600 LE oder ähnlich)?
2022 sollen ja noch Refresh-Karten erscheinen.
Die 6600 ist laut CB sogar doppelt so schnell :eek:
Selbst wenn eine 6600 LE auf den Markt kommen würde, dann gäbe es eigentlich nur eine Chance, dass die nicht auch im Preis nach oben schießt und dass ist beschnittener VRAM.
Bei der 6500XT konnte man das evtl. noch begründen weshalb die nur 4GB hat, aber eine 6600 mit nur 4-6GB würde durch den Dreck gezogen wie kaum ein anderes Produkt.
Also dann 8 GB und dann gehts auch schon wieder Richtung 500€ oder so …

davidzo
2022-02-02, 11:15:13
Gen 4 nicht aber wie verbreitet ist PCI-E 4.0 5 % vielleicht ?
Aufrüster sind nur ein sehr kleiner Teil der Kundschaft. Die meisten kaufen einen ganzen Rechner oder eine ganze neue Plattform. PCIgen4 haben wir jetzt seit Mitte 2019, also fast 3 Jahre - der Anteil an potentiellen GPUkunden wird über 60% sein.


Bei der 6500XT konnte man das evtl. noch begründen weshalb die nur 4GB hat, aber eine 6600 mit nur 4-6GB würde durch den Dreck gezogen wie kaum ein anderes Produkt.

Glaube ich nicht. Ich denke aktuell würde man AMD dafür loben wenn sie eine Einsteigerkarte brächten die für 250$ 90% der Leistung einer 6600 bringt (und damit 80% mehr als eine 6500xt :freak:)
Eine 6600 192bit mit 6GB, x8 lanes PCIgen4 aber gleicher Rohleistung wäre die perfekte 1080p Karte für 250$ und genau die Überbrückungskarte die viele Gamer jetzt suchen. Die 3050 hat zwar 8GB, ist aber nicht schneller als eine 1660ti / 1660 super.
Da fehlt es klar an rasterizing-Leistung, sie spielt eher im Territorium von 6Gb Karten als 8GB. Eine 6600LE mit 1792Shadern und 192bit wäre schneller als ne 3050 und immer noch günstiger in der Herstellung.


Also dann 8 GB und dann gehts auch schon wieder Richtung 500€ oder so …
Ich kann mir nur vorstellen dass es bei AMD intern auch viele leute gibt welche die 6500xt lieber mit 8GB gelauncht hätten. Die sind ja nicht blöd und haben in ihren eigenen Tests gesehen wie die Karte unnötig abschmiert.
Da könnte ja selbst die Rembrand IGP schneller sein in Szenarios wo die 4GB und das Interface limitieren.
Nur gibt es halt keine 32Gbit GDDR6 chips und ein neues PCBlayout mit 2x chips pro Channel erhöht die BOMkosten und muss erst entwickelt werden. Es würde mich aber nicht wundern wenn AMD solche boards intern schon hat und zu gegebener Zeit nachschiebt (also wenn die OEM Chennel mit 6500mobile und 6400er GPUs geflutete sind).

dargo
2022-02-02, 13:00:39
Glaube ich nicht. Ich denke aktuell würde man AMD dafür loben wenn sie eine Einsteigerkarte brächten die für 250$ 90% der Leistung einer 6600 bringt (und damit 80% mehr als eine 6500xt :freak:)
Eine 6600 192bit mit 6GB, x8 lanes PCIgen4 aber gleicher Rohleistung wäre die perfekte 1080p Karte für 250$ und genau die Überbrückungskarte die viele Gamer jetzt suchen.
Ähm... eine 6600XT hat nur 128Bit SI, da kann eine 6600 keine 192Bit bekommen. :wink:

Tangletingle
2022-02-02, 13:54:12
Was schreibst du da wieder für einen Unsinn? AMD hat da gar nichts angehoben. :rolleyes:
AMD hat also nicht den msrp für die Leistungsklasse geändert? :confused: :uponder:

dildo4u
2022-02-02, 13:56:20
Was schreibst du da wieder für einen Unsinn? AMD hat da gar nichts angehoben. :rolleyes:
Natürlich die 3060 hat mher Vram,besseres RT und DLSS und AMD hat eine höhere UVP angesetzt.

AMD Radeon RX 6600 im Test: Eine verhaltene Vorstellung für 339 Euro


https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/

Die 3060 kam deutlich früher daher konnte NV nicht genau so zugreifen.
Die 6600 ist offensichtlich der Nachfolger der 5600XT, also nominal unter 300€.

DrFreaK666
2022-02-02, 14:54:07
Natürlich die 3060 hat mher Vram,besseres RT und DLSS und AMD hat eine höhere UVP angesetzt.

AMD Radeon RX 6600 im Test: Eine verhaltene Vorstellung für 339 Euro


https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/

Die 3060 kam deutlich früher daher konnte NV nicht genau so zugreifen.
Die 6600 ist offensichtlich der Nachfolger der 5600XT, also nominal unter 300€.

Was soll das Fettgedruckte und der Vergleich mit Nvidia? Die 3060 kostet mindestens 150€ mehr

Edit: AMD bringt wohl noch eine 6500 für 130$ UVP auf den Markt. Nach den Tests der 6500XT würde ich mir das nochmal überlegen

dildo4u
2022-02-02, 15:51:00
Das selbe gilt auch für die 2060 12GB, bessere RT + DLSS für Vergleichbare Preise.
Realistisch sollten aktuell 3050 400 kosten,6600 450 und eine Karte mit 12GB 500€.
Mir wären + 4GB locker 50€ Wert.

DrFreaK666
2022-02-02, 16:05:20
Trotzdem sind wir hier im AMD-Thread

Thunder99
2022-02-02, 17:41:42
Einmal mehr zeigt sich 1.5GB Chips würde viel helfen.
Anderseits 5500XT mit 8GB und 6500XT mit 4GB ist ein Fail.

Es wird ja von einem Refresh spekuliert. Ohne die TDP zu erhöhen kann man doch nicht die Performance erhöhen, siehe auch 6900XT"X"

Der_Korken
2022-02-02, 19:54:00
Einmal mehr zeigt sich 1.5GB Chips würde viel helfen.

Was sollen die bringen, wenn die Karte schon 2GB-Chips verbaut hat?

Imho hätte der Karte ein 96bit-Interface gut getan und dafür hätte man den IF$ nochmal halbieren können, weil die Bandbreite ja dann da ist. Man hätte günstigere Speicherchips bauen verbauen können (14Gbps@96bit sind immer noch 17% schneller als 18Gbps@64bit, mit 16Gbps@96bit hätte man auch den kleineren IF$ mehr als kompensiert) und 6GB ohne Tricks. Mit 6GB dürfte man in vielen Spielen über die kritische Schwelle hüpfen, wo man aktuell noch von den 5 Jahre alten Polaris-Karten vernascht wird. So wie sie jetzt ist, ist das wirklich ein Rohrkrepierer und nicht mal einer uralten RX470/480/570/580/GTX1060 vorzuziehen.

basix
2022-02-02, 22:01:59
Ein halbierter IF$ hätte so seine Attraktivität gehabt:
- 8MByte = ~7mm2 (laut AMD 32MByte = 27mm2)
- 32bit SI = ~8mm2
- x4 CPIe = ~2mm2

Man hätte also mit 110mm2 anstatt 107mm2 einige grosse Negativpunkte der Karte weggebügelt. Was ich mich dann noch frage: Wieso IF$ nicht ganz weglassen? Dann wären die Video-En/Decoder auch noch dringelegen oder der Chip nochmals kleiner. Klar, im Mobile Bereich ist die Effizienz dann evtl. etwas niedriger, wenn man 96bit SI und 3x VRAM-Packages verbaut.

davidzo
2022-02-03, 00:01:55
Ähm... eine 6600XT hat nur 128Bit SI, da kann eine 6600 keine 192Bit bekommen. :wink:
mein fehler, meinte natürlich 96bit. Also analog zu DG2-128/6G

HOT
2022-02-03, 08:28:05
Weil das ein reines mobilprodukt ist und der Verbrauch so geringer ist. Der Fehler sind die 4GB.

basix
2022-02-03, 08:45:37
Weil das ein reines mobilprodukt ist und der Verbrauch so geringer ist. Der Fehler sind die 4GB.

Ist schon klar. War wohl nie geplant als Desktop GPU. Aber mit relativ geringen Anpassungen am Produkt hätte man beide Märkte sehr gut bedienen können. Einziger Nachteil: Leicht erhöhter Verbrauch bei Mobile (PCIe wird clock-gated, VRAM kann man idlen/runtertakten oder GPU komplett abschalten da iGPU läuft)

Der_Korken
2022-02-03, 08:52:48
Für Mobile knippst man einfach einen Speicherkanal komplett aus und verbaut nur 4GB statt 6, wenn der dritte VRAM-Chip wirklich so ein Problem im idle ist. Da man den Takt eh massiv senken muss und somit auch die Rohleistung, wäre sich das vielleicht ausgangen.

HOT
2022-02-03, 09:41:37
Ist schon klar. War wohl nie geplant als Desktop GPU. Aber mit relativ geringen Anpassungen am Produkt hätte man beide Märkte sehr gut bedienen können. Einziger Nachteil: Leicht erhöhter Verbrauch bei Mobile (PCIe wird clock-gated, VRAM kann man idlen/runtertakten oder GPU komplett abschalten da iGPU läuft)
Die Anpassung wäre 8GB RAM, das wäre doch weit besser als deine Lösung, denn die hätte wieder nur 6GB und ist somit wieder anfällig für Speichermangel.

Für Mobile knippst man einfach einen Speicherkanal komplett aus und verbaut nur 4GB statt 6, wenn der dritte VRAM-Chip wirklich so ein Problem im idle ist. Da man den Takt eh massiv senken muss und somit auch die Rohleistung, wäre sich das vielleicht ausgangen.

Nein für Mobil ist das so einfach die beste Lösung. Da packst einfach 12GT/s RAM dran, der fast nix verbraucht und fertig. Der Fehler sind die 4GB sonst nix. Die 4PCIe-Lanes reichen für das Produkt dicke aus, egal ob 3.0 oder 4.0. Es muss halt genug Speicher vorhanden sein, das löst schlichtweg alle Probleme.

Und es wird ja auch so kommen, AMD sieht es ja offenbar grade ein, dass 4GB ne echt schlechte Idee war.

basix
2022-02-03, 13:12:48
Die Anpassung wäre 8GB RAM, das wäre doch weit besser als deine Lösung, denn die hätte wieder nur 6GB und ist somit wieder anfällig für Speichermangel.

Jein. 8GByte wären sicher toll. Aber es ist ein auf niedrige Kosten getrimmtes Produkt und auf 1080p Gaming fokussiert.

Da machen dann die +2 GByte halt schon etwas an Kosten aus und bei minimalen Reduktionen der Settings (High anstatt Ultra) reichen die 6GByte in den allermeisten Spielen. 8GBye sind immer besser, aber 6 -> 8 ist deutlich weniger schlagkräftig als 4 -> 6. Zumindest bei 1080p. Mann muss auch so sehen, das 8GByte in 1440p nur in den seltensten Fällen limitieren. Dann sollten 6GByte bei 1080p eigentlich recht gut passen (solange kein RT im Spiel ist).

Bei 64bit ist Infinity Cache zudem Pflicht. Und bei 8 GByte wäre es Clamshell Mode und 4x VRAM Packages. Da scheinen mir 96bit ohne IF$ + x8 PCIe + Video Beschleunigung bei evtl. 115-120mm2 als deutlich sinnvoller auf den Gesamtmarkt gesehen. Für die +10% Chipfläche und +2GByte hätte man gut 229$ verlangen können und niemand hätte sich beschwert. Marge für AMD wäre vermutlich etwa ähnlich ausgefallen.

amdfanuwe
2022-02-03, 13:39:09
und niemand hätte sich beschwert. Marge für AMD wäre vermutlich etwa ähnlich ausgefallen.
Bei der Planung vor 2-4 Jahren war man wohl von 100-150€ Preisklasse ausgegangen und die 6600 für 200€. Da hätte sich auch keiner beschwert.

HOT
2022-02-03, 13:58:09
Jein. 8GByte wären sicher toll. Aber es ist ein auf niedrige Kosten getrimmtes Produkt und auf 1080p Gaming fokussiert.

Da machen dann die +2 GByte halt schon etwas an Kosten aus und bei minimalen Reduktionen der Settings (High anstatt Ultra) reichen die 6GByte in den allermeisten Spielen. 8GBye sind immer besser, aber 6 -> 8 ist deutlich weniger schlagkräftig als 4 -> 6. Zumindest bei 1080p. Mann muss auch so sehen, das 8GByte in 1440p nur in den seltensten Fällen limitieren. Dann sollten 6GByte bei 1080p eigentlich recht gut passen (solange kein RT im Spiel ist).

Bei 64bit ist Infinity Cache zudem Pflicht. Und bei 8 GByte wäre es Clamshell Mode und 4x VRAM Packages. Da scheinen mir 96bit ohne IF$ + x8 PCIe + Video Beschleunigung bei evtl. 115-120mm2 als deutlich sinnvoller auf den Gesamtmarkt gesehen. Für die +10% Chipfläche und +2GByte hätte man gut 229$ verlangen können und niemand hätte sich beschwert. Marge für AMD wäre vermutlich etwa ähnlich ausgefallen.

Ach bitte, nichts ist billiger als 64Bit. Weil man jetzt 2 DRAMs mehr verbauen muss macht das doch den Bock nicht fett, dafür ist die Karte doch billiger. Du kannst es drehen und wenden wie du willst, 8GB mit der Chipconfig ist einfach ideal (auch mobil i.Ü.) und so wirds ja auch kommen. Zudem verkauft sich 8GB auch noch besser als 6, es ist also auch marketingtechnisch ein großer Vorteil. Deine 8x PCIe und 96Bit sind nur auf den erste Blick ideal, aber
- es verteuert das PCB, dafür kannst halt jetzt 2 Speicherchips mehr verbauen
- der Chip wird nicht kleiner
- der Stromverbrauch ist egal, ob du jetzt 2 12GT/s Chips+16MB IF$ mehr verbaust oder 96Bit machst, spielt keine Rolle
- PCIe-Interface ist bei 8GB egal, weil bei den Detailstufen eh wenig Verkehr darüber läuft

Du kannst dir also aussuchen:
96Bit+16MB IF$+8x PCIe mit 6GB

oder
64Bit+32MB IF$+4x PCIe mit 8GB

Die kosten und performen exakt gleich, aber die 8GB sind trotzdem besser.

Leonidas
2022-02-03, 14:10:31
Genaueres zum Radeon RX 6x50 Refresh:
- kein 6nm
- betrifft nur Navi 21/22
- kommt Juni/Juli
https://www.3dcenter.org/news/geruechtekueche-amds-rdna2-refresh-radeon-rx-6x50-im-junijuli-auf-basis-der-bekannten-7nm-chips

HOT
2022-02-03, 14:19:36
Wir kennen das ja, AMD belässt ja Produkte lange im Markt. Die 6k-Serie wird sicherlich parallel zu RDNA3 weiter laufen, die Preise werden etwas reduziert, dann passt das schon und man DUV-Fertigung gleichzeitig weiternutzen und auslasten, gut für alle Beteiligten.

Man wird zudem den 18GT/s Speicher günstig oder gar günstiger bekommen haben als bei den bisherigen Verträgen und dann lohnt sich sich doch auch das über das Marketing weiterzugeben.

basix
2022-02-03, 14:56:45
Deine 8x PCIe und 96Bit sind nur auf den erste Blick ideal, aber
- es verteuert das PCB, dafür kannst halt jetzt 2 Speicherchips mehr verbauen
- der Chip wird nicht kleiner
- der Stromverbrauch ist egal, ob du jetzt 2 12GT/s Chips+16MB IF$ mehr verbaust oder 96Bit machst, spielt keine Rolle
- PCIe-Interface ist bei 8GB egal, weil bei den Detailstufen eh wenig Verkehr darüber läuft

+4x PCIe ist deutlich weniger aufwändig als 64bit @ Clamshell, glaub mir ;) Ich bin mir nicht mal sicher, ob single sided Bestückung mit Clamshell überhaupt geht/sinnvoll ist. Bei den XBoxen macht man das zwar. Und Clamshell wird dir unweigerlich den Verbrauch des Speicherinterfaces nach oben treiben, obwohl man bei 64bit bleibt.


Du kannst dir also aussuchen:
96Bit+16MB IF$+8x PCIe mit 6GB

oder
64Bit+32MB IF$+4x PCIe mit 8GB

Die kosten und performen exakt gleich, aber die 8GB sind trotzdem besser.
Kleine Notiz: N24 hat nur 16 MByte IF$ ;) Die Differenz zwischen den zwei Lösungen stimmt aber.

Und kosten tut die 8GByte Lösung zu 100%iger Sicherheit mehr:
- Ähnliche Chipgrösse
- 4x Packages vs. 3x Packages (Platz auf dem PCB, sekundäre Bauteile, Bestückungskosten)
- 1.33x VRAM
Der einzig potentielle Nachteil ist mMn der Energieverbrauch. Aber wie gesagt, VRAM und PCIe kann man runtertakten oder die GPU gleich ganz abschalten.

Bei 96bit würde ich den IF$ ganz weglassen. Das spart ~13-14mm Die Size. Ist also sogar eine Flächenreduktion, wenn man das mit +32bit und +4x PCIe gegenüberstellt. Effektive Bandbreite bei 1080p ist bei 96bit vs. 64bit + 16MByte sehr ähnlich. Die 64bit/4 GByte Version ist von Seiten Bandbreite etwas schwach auf der Brust, bei 12CU und reduzierten Taktraten bei einer 6400er aber auch kein Beinbruch.
Und es ist auch nicht so, dass man den IF$ nicht entfernen kann. Bei den Konsolen klappt es ja auch.

Was allenfalls ein technisches Pro-Argument für IFä ist: Latenzen vs. hohe Taktraten. Könnte sein, dass beiN24 ohne Infinity Cache so hohe Taktraten nicht viel bringen würden. Mindestens PS5 Taktraten sollte man aber umsetzen können (2.23GHz)

BavarianRealist
2022-02-03, 15:19:57
Genaueres zum Radeon RX 6x50 Refresh:
- kein 6nm
- betrifft nur Navi 21/22
- kommt Juni/Juli
https://www.3dcenter.org/news/geruechtekueche-amds-rdna2-refresh-radeon-rx-6x50-im-junijuli-auf-basis-der-bekannten-7nm-chips

Sieht ganz danach aus, dass es sich bei diesen "Refreshes" um nichts Anderes als um selektierte Dice handelt: vermutlich sortiert AMD aktuell die besten Stück aus, um sie dann wenn genügend Selektierte da sind, teurer zu verkaufen, bevor die RDNA3 kommen.

Es deutet auch darauf hin, dass AMD für RDND2 schlichtweg zu wenige 7nm-Kapazitäten hat, sodass sich hier ein Invest in eine Verbesserung (Respin) der GPUs einfach nicht lohnt. Die 7nm-Wafer gehen vermutlich vor allem an Zen3-Chiplets (hier gibt es ja ein neues B2-Stepping) und eben an die Rembrandts (auch der 6nm-Prozess ist letztlich Teil der 7nm-Kapazitäten).

unl34shed
2022-02-03, 15:50:59
Die Aussagen passen nicht zusammen. Man selektiert Dice und hält einen Teil zurück, produziert aber gleichzeitig nicht genug?

Zergra
2022-02-03, 16:13:01
AMD wird das ganze eher für eine Preisanpassung nutzen.... -> minimal mehr Takt, dafür höhere Preise und die alten laufen langsam aus.

Leonidas
2022-02-03, 16:14:32
Die Aussagen passen nicht zusammen. Man selektiert Dice und hält einen Teil zurück, produziert aber gleichzeitig nicht genug?

Genug hat AMD keineswegs. Zurückhalten für RX 6x50 kann trotzdem in gewissem Maßstab sein - man braucht einfach die besten Dies für diese Serie. Aber noch ist das ein ungelegtes Ei und wir wissen nicht einmal, ob Radeon RX 6x50 überhaupt mehr Chiptakt mitbringt.

Und damit willkommen auf Seite 1000 dieses altgedienten Threads ;)

Berniyh
2022-02-03, 16:58:26
Ist es denn sicher, dass hier nicht doch 6nm zum Einsatz kommt?
Würde doch eigentlich viel mehr Sinn machen?

Leonidas
2022-02-03, 17:07:54
Sicher ist nix. Generell gilt aber: Neue Chips fallen einigermaßen vorher auf. Tape-Out und Validierung brauchen Zeit.

PS: Nochmals neue Infos zum Radeon RX 6x50 Refresh:
https://www.3dcenter.org/news/news-des-3-februar-2022

horn 12
2022-02-06, 12:35:05
https://videocardz.com/newz/amd-radeon-rx-6950xt-rumored-to-have-a-boost-clock-over-2-5-ghz-and-tbp-of-350w

Wird wohl schneller werden als die RTX 3090 TI
Liquid Kühlung oder doch 3-Slot Lüfter im Referenz Design
Mann wird dies Spannend bis RDNA 3 kommt.

Leonidas
2022-02-07, 08:22:42
Ich würde eher sagen, mit Glück auf das Niveau 3090. Die 3090Ti liegt außerhalb dessen, was die 6950XT errreichen kann.

Berniyh
2022-02-07, 08:40:54
So langsam sieht es ja so aus, als wenn sich die Preise ein bisschen in Richtung "normaler" bewegen würden.
Zumindest für die 6700er und 6800er Serien. Da sind die Preise in den letzten Wochen schon ordentlich runter.
Bei den beiden 6600ern scheint es jetzt auch einzusetzen.

Bei der 6900 tut sich aber noch recht wenig.

HOT
2022-02-07, 09:13:38
Die sind noch 7nm, weil AMD die DUV-Fertigung bis zum letzten ausnutzen wird. Man könnte ja relativ einfach auf 6nm umswitchen, da N6 zu N7 kompatibel ist, aber es hat halt keinen Sinn, weil man die 6nm für Rembrandt, Instinct und anderes Zeug braucht.

MSABK
2022-02-07, 09:24:54
So langsam sieht es ja so aus, als wenn sich die Preise ein bisschen in Richtung "normaler" bewegen würden.
Zumindest für die 6700er und 6800er Serien. Da sind die Preise in den letzten Wochen schon ordentlich runter.
Bei den beiden 6600ern scheint es jetzt auch einzusetzen.

Bei der 6900 tut sich aber noch recht wenig.

Naja, normal würde ich 800-900€ für eine RX6800 betrachten.

amdfanuwe
2022-02-07, 09:32:11
Naja, normal würde ich 800-900€ für eine RX6800 betrachten.
Lol, ist teuer schon so normal, dass das als günstig gilt?
AMD preist die RX 6800 mit 601€ an.
https://www.amd.com/de/direct-buy/de
Normal würde ich da eher 550€ - 699€ ansehen.
Schaut man sich die Prozessorpreise an, ist der AMD-Shop eher als teuer anzusehen.

Berniyh
2022-02-07, 09:44:04
Naja, normal würde ich 800-900€ für eine RX6800 betrachten.
Hab mal den relevanten Part für dich hervorgehoben:
So langsam sieht es ja so aus, als wenn sich die Preise ein bisschen in Richtung "normaler" bewegen würden.

Da steht nix davon, dass es jetzt normal wäre.

MSABK
2022-02-07, 09:50:28
Lol, ist teuer schon so normal, dass das als günstig gilt?
AMD preist die RX 6800 mit 601€ an.
https://www.amd.com/de/direct-buy/de
Normal würde ich da eher 550€ - 699€ ansehen.
Schaut man sich die Prozessorpreise an, ist der AMD-Shop eher als teuer anzusehen.

Bei der UVP konnte Amd damals wahrscheinlich nicht davon ausgehen was für eine gewaltige Nachfrage enstehen wird. Da würde ich die exhte UVP für die aktuelle Zeit eher bei 750-800€ einordnen.

Iscaran
2022-02-07, 12:10:43
Bei der UVP konnte Amd damals wahrscheinlich nicht davon ausgehen was für eine gewaltige Nachfrage enstehen wird. Da würde ich die exhte UVP für die aktuelle Zeit eher bei 750-800€ einordnen.

Welche "Nachfrage" denn - kein Gamer zahlt diese Preise aktuell? Wozu auch.
Btw. die UVP ist 579$...nach Umrechnung in € kommen da halt 600€ raus. Spielt aber keine Rolle da AMD wohl nicht mal selbst RX 6800 er auf "Lager" hat.
Der Mining-Hype ist so kaputt...

600€ ist früher Enthusiasten-Segment gewesen, denke nicht, dass sich das fundamental geändert hat. Die Preise sind halt einfach nur Mining-Diktiert.

DrFreaK666
2022-02-07, 12:23:48
Welche "Nachfrage" denn - kein Gamer zahlt diese Preise aktuell? ...

Trotzdem gibt es eine Nachfrage. Gamer sind nicht das einzige Zielgruppe, so scheiße das für uns auch sein mag

Iscaran
2022-02-07, 13:09:58
Trotzdem gibt es eine Nachfrage. Gamer sind nicht das einzige Zielgruppe, so scheiße das für uns auch sein mag

Na klar gibt es Nachfrage nach Schneebällen im Schneeballsystem Mining.
https://www.heise.de/hintergrund/Rekord-Abermillionen-Grafikkarten-schuerfen-die-Kryptowaehrung-Ethereum-6351753.html

Aber es gibt eben keine "Gamer" Nachfrage mehr...

Da GPUs nunmal Schneebälle erzeugen, wird der Schneeballmarkt (aka Mining) JEDE GPUs die man dem System anbietet (=Markt) aufsaugen.
Das der Preis (fast) keine Rolle mehr spielt sieht man ja aktuell.

EDIT: Beispiel RX 6800: ca 62 MH/s und bei 165 W.

Selbst mit einem Strompreis von 60 cent/kWh wirft so eine GPU Gewinn ab.
https://hardware-helden.de/grafikkarten-hashrate-liste-2021/
https://www.cryptocompare.com/mining/calculator/eth?HashingPower=62&HashingUnit=MH%2Fs&PowerConsumption=165&CostPerkWh=0.6&MiningPoolFee=1
Entsprechend orientiert sich der GPU Marktpreis an einer Amortisationszeit von geschätzt 2 Jahren? (Vielleicht weniger)...

Solange NIEMAND aktiv was gegen diesen Mining-Abuse macht, wird es keinen "GPU-Markt" für gamer mehr geben...nur noch für Enthusiasten die bereit sind extrem Geld hinzulegen.

bloodflash
2022-02-07, 13:23:35
Na klar gibt es Nachfrage nach Schneebällen im Schneeballsystem Mining.
https://www.heise.de/hintergrund/Rekord-Abermillionen-Grafikkarten-schuerfen-die-Kryptowaehrung-Ethereum-6351753.html

Aber es gibt eben keine "Gamer" Nachfrage mehr...

Da GPUs nunmal Schneebälle erzeugen, wird der Schneeballmarkt (aka Mining) JEDE GPUs die man dem System anbietet (=Markt) aufsaugen.
Das der Preis (fast) keine Rolle mehr spielt sieht man ja aktuell.
Überschlägt man die Zahlen aus dem Heiseartikel, ist alleine der Anstieg der Hashrate bei Ethereum im letzten Jahr für mind. 25% aller verkauften Grafikkartenstückzahlen von AMD und nVidia verantwortlich :eek:

Klar schürfen auch ein paar Gamer, aber es gibt auch noch andere Coins...

Ravenhearth
2022-02-07, 15:09:36
Im Rückblick bin ich doch froh, meine RX 6800 vor einem Jahr für 869€ bekommen zu haben. Die war seitdem nicht mehr so "günstig" :freak:

Iscaran
2022-02-07, 17:06:21
Überschlägt man die Zahlen aus dem Heiseartikel, ist alleine der Anstieg der Hashrate bei Ethereum im letzten Jahr für mind. 25% aller verkauften Grafikkartenstückzahlen von AMD und nVidia verantwortlich :eek:


So siehts aus und Ethereum ist ja nur 1 Coin, selbst bei Bitcoin macht man noch gewinn mit GPUs, usw.

Den verantwortlichen Minern / Coindeveloper muss endlich mal klar werden, dass es SO nicht weitergehen kann und darf.

Das ist ein Fass ohne Boden und eine "Ökosauerei" gegen die selbst die bisherige Ölwirtschaft wie Greenwashing aussieht.

Berniyh
2022-02-07, 17:32:08
Die Frage ist doch eigentlich auch eher: warum sollten die sich auf "nur" 25% der GPUs beschränken?
Wenn jede GPU Gewinn abwirft macht das doch nicht so viel Sinn?

Oder um es anders zu formulieren: irgendwie fällt es mir schwer zu glauben, dass 25% der GPUs "verschütt" gehen und dadurch die Preise so explodieren bzw. zeitweise ja auch die Verfügbarkeit extrem besch…eiden war.