PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD steckt bei Navi 41 zurück, angeblich nur 120 Shader-Cluster


Leonidas
2023-08-05, 15:22:25
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-amd-steckt-bei-navi-41-zurueck-angeblich-nur-120-shader-cluster

madshi
2023-08-05, 15:58:26
Ich denke, Du hast das neuste RedGamingTech-Video noch nicht gesehen? Ob die Informationen da drin Hand und Fuß haben, ist natürlich noch eine andere Frage, aber dort sagt er, daß Navi41 und Navi42 *komplett* gestrichen sind:

https://www.youtube.com/watch?v=7qifm8fhVrI&t=1025s

Gast
2023-08-05, 16:04:38
Mögliche Gründe warum es kein Higend-Chip gibt.
- zu teuer in der Entwicklung / Zu wenig verkauft / unrentable sein
- Chiplet-Ansatz skaliert nicht gut genug
- Zu wenig Personal der HW
- Zu wenig Personal der Software Abteilung
- Algemein kommen die Treiber nicht schnell genug auf Vordermann
- es wird sonst trozdem Nvidia gekauft
- Intel hat genug AMD Leute abgeworben. Muss AMD erst wieder aufbauen
- Algemein hinkt AMD bei der Software nach. Schlägt im Highend-Bereich mehr durch als im unteren Segment.
- TSMC zu teuer, AMD kann die Preise nicht so durchdrücken wie Nvidia
etc.

GerryB
2023-08-05, 16:17:21
Die EU lässt vermutlich kein 8k-TV´s zu, damit reicht auch Weniger für 4k@FSR2-3.

Gast
2023-08-05, 17:33:09
Kartellabsprachen um die Preise hoch zu halten!
Aber echt amd kriegt so viel Kohle kit epyc une scheinbar nun insgic m3xx ein, da sollte die Entwicklung kein problem sein.
Am ehesten wollen sie die cowos Kapazitäten für die instinct Karten nutzen und opfern halt das high end gaming. Somit gibt es dann wiederum keine gcd/mcd Karten für rdna4, sondern erst für rdna 5 wieder wenn tsmc, dann vermutlich auch Intel und Samsung mehr Kapazität haben.
Schin jetzt ist es eigentlich dumm von AMD n31 und n32 herzustellen wenn die instinct Karten um weitaus mehr Profit verkauft werden. Amd hatte n32 ganz streichen sollen und die n21 Karten in dem Bereich weiter laufen lassen. Wäre eh billiger für die.

Platos
2023-08-05, 17:54:20
Die EU lässt vermutlich kein 8k-TV´s zu, damit reicht auch Weniger für 4k@FSR2-3.

Sind doch schon zugelassen für 2023 von Samsung z.B

GerryB
2023-08-05, 18:32:14
Wow!
Hatte gedacht die GenZ will net soviel W beim TV.

Platos
2023-08-05, 18:58:56
Ne, die sind damit beschäftigt sich mit Leuten rumzuschlagen, die Leute nach einer Generation kategorisieren:rolleyes:

Gast
2023-08-05, 19:32:03
Hmm, viele verkennen nach wie vor den Umstand, dass AMD noch nie plante, in direkte Konkurrenz zum Titan-Territorium (resp. den zu x090Ti umbenannten Titans) zu treten.
RDNA2 war da nur ein glücklicher Zufall, entstanden aus AMDs (und bei RTX4000 durch NVidia kopierten) genialen Idee des Infinity-Caches und einer stromhungrigen, eher spärlich ausgestatteten, schlechten NVidia-Generation bei RTX3000.

Sollte RDNA4 RTX5080(Ti) erreichen oder schlagen, wäre das daher sehr erfreulich.

Weiter oben ist für AMD letztlich eh kein Blumentopf zu gewinnen, da ist der Platzhirsch viel zu stark in die Köpfe eingebrannt. Ich sehe schon rein aus betriebswirtschaftlichen Gründen keinen Sinn, dass AMD sich das antun sollte, de facto lediglich Preisdrücker für NVidia-Enthusiasten zu spielen.
Man sieht das ja auch bei Ryzen: AMD dreht mittlerweile technisch teils gewaltige Kreise um Intel, trotzdem geht es immer noch sehr zäh selbst im Mainstream-Massenmarkt.

Die EU lässt vermutlich kein 8k-TV´s zu, damit reicht auch Weniger für 4k@FSR2-3.

Hä?!
8K, resp. UHD2-TVs gibt's schon seit Jahren von Samsung auf dem EU-Markt...

GerryB
2023-08-05, 19:45:21
Gibts bei Denen also auch Stromverschwender?
-erstaunlich-

Sorry, für meine Voreingenommenheit durchs gängige TV,
hätte die GPU-Enthusiasten eher bei älteren Bürgern verortet.

... musst Dich aber jetzt net gleich mit mir rumschlagen deswegen, ... ich habs verstanden

Platos
2023-08-05, 22:14:26
Gibts bei Denen also auch Stromverschwender?
-erstaunlich-

Sorry, für meine Voreingenommenheit durchs gängige TV,
hätte die GPU-Enthusiasten eher bei älteren Bürgern verortet.

... musst Dich aber jetzt net gleich mit mir rumschlagen deswegen, ... ich habs verstanden

Es gibt und wird (solange es keine Änderung in den Regelungen gibt) fried fröhlich weiterhin 8k TVs geben und was nicht alles sonst noch.

Die Regelungen sind für die Katz, denn Samsung beispielsweise liefert die TVs je nach Region einfach mit verschiedener Helligkeit aus. Für die EU eben mit ganz niedriger Stufe ^^

Dabei weisen sie (laut Artikeln) dann direkt bei der Inbetriebnahme darauf hin, dass das der "Ökomodus" ist und man auch wechseln kann ;)

Samsung zufolge sollen Besitzer bei der Ersteinrichtung auch darauf hingewiesen werden, das standardmäßig der dunklere Eco-Modus aktiviert ist und sie auf Wunsch den Bildmodus auch wechseln können.

https://www.giga.de/news/samsung-trickst-die-eu-aus-fernseher-koennen-weiter-verkauft-werden/

Die EU kriegt es hald nicht hin. Aber das war ja irgendwie klar. Die Regelungen gelten a) nur für SD und b) gibt es keine Regelung, die vorschreibt, wie viel Strom der TV verbrauchen darf. Die Regelungen schreiben nämlich nur vor, wie viel er im Auslieferungszustand verbrauchen darf. Nützt also quasi gar nichts. Speziell dann, wenn man direkt bei der Inbetriebnahme auf einen Wechsel vom
"Öko-Modus" auf einen anderen hinweist.

Ich nehme an, da war sehr viel Lobbyarbeit dahinter, denn für so dumm halte ich selbst die EU-Politiker nicht. Denn das müsste man eigentlich sein, wenn man solche Regelungen einführt ohne Druck von Lobbys.

Ich meine, es ist doch klar, dass genau das passiert, wenn man a) nur den sd-Modus in die Regelung nimmt und b) es sich auch nur um den Auslieferungszustand handelt. Ist doch klar, dass dann jeder einfach einen extra-Modus nur für die Auslieferung "erfindet". Mit Förderung der Energieeffizienz hat das dann aber nicht mehr viel zu tun.

Danke dieser Regelung kann man eig. jeden TV auf den Markt bringen, solange der Auslieferungszustand die Regelungen erfüllt.

Stell dir mal vor, Autos müssten nur im Auslieferungszustand die Abgaswerte erfüllen und direkt beim ersten Starten wird darauf hingewiesen, dass man aber auch den "völlig-scheiss-egal"-Modus reinhauen kann :freak:

N0Thing
2023-08-05, 22:29:57
Performance grob auf 4090 Niveau, aber trotz 3nm 350-450 W Verbrauch? Das wäre ziemlich schade.

Aber mal abwarten, wie es am Ende ausgeht. 6-12 Monate vor dem Release von RDNA3 gingen die Gerüchte von 600W für die Nvidia Ada-Genration und der 2,x Performance für RNDA3 umher, auch von den in der News genannten Leakern, wenn ich mich nicht irre..

Gast
2023-08-05, 23:51:30
AMD hat momentan nur den Navi 33 im Notebook. Scheinbar wurde das Chipletdesign nicht für gut Befunden für das Notebooksegment. Vielleicht kommen deswegen erst mal kleine monolitsche chips in 4nm für den Notebooksegement und später bringt man die auch im Desktop als Next Gen.

Aber wenn das alles 2024 passiert, dann ist doch alles ok. Nvidia soll doch angeblich erst 2025 Next-Gen bringen. Bis 2025 kann AMD dann immer noch den "BIG-Chip" nachschieben. 2024 konzentriert man sich auf die kleineren Chips, die man in das Notebooksegment bringen kann.

Gast
2023-08-06, 03:07:42
Sieht eher nach back to business.

RDNA2 vs. Ampere war lediglich die Ausnahme weil AMD den enormen Vorsprung in der Fertigung hatte.

Mit selben Waffen hatte AMD seit Maxwell kein Produkt mehr das mit Nvidias top end konkurrieren konnte.

Leonidas
2023-08-06, 04:46:48
Ich denke, Du hast das neuste RedGamingTech-Video noch nicht gesehen? Ob die Informationen da drin Hand und Fuß haben, ist natürlich noch eine andere Frage, aber dort sagt er, daß Navi41 und Navi42 *komplett* gestrichen sind:

https://www.youtube.com/watch?v=7qifm8fhVrI&t=1025s

In der Tat. Das werde ich ergänzen müssen. Vielen Dank für den Hinweis!

Gast Ritis
2023-08-06, 07:17:19
Hä? wo hatte bitteschön AMD angekündigt 144 CU bei RDNA4 zu bringen???
Und wie war das noch gleich mit den 3.5GHz?

Ach nee klar, war doch von so nem Leaker der jetzt gehängt werden muss weil der falsche Leaks gestreut hatte.
So ne alberne Schmonzettengeschichte… ;D

Wir hängen noch einige Jahre in dieser Konsolengeneration im Gamedesign fest. Was es für PC nicht braucht ist noch mehr Rasterleistung. Von daher wären zumindest weniger CU mit mehr RT oder AI nicht so verkehrt wenn am Ende wieder was für unter 1000$ raus kommen soll, das Vorteile in portierten Games bringt.

Leonidas
2023-08-06, 07:34:33
wo hatte bitteschön AMD angekündigt 144 CU bei RDNA4 zu bringen???

Niemals. Es gab allerdings auch nie die Behauptung, AMD hätte dies getan. Es gab Gerüchte, dass AMD dies tun wollte - aber keine Behauptung einer Ankündigung dergleichen.

Linmoum
2023-08-06, 09:04:48
Und wie war das noch gleich mit den 3.5GHz?Die sind mit RDNA3 problemlos möglich, wie man schon seit relativ kurz nach dem Launch weiß - nur halt nicht in Spielen. Was es umso kurioser macht bei einer Architektur, die in erster Linie dafür konzipiert wird.

Gast
2023-08-06, 10:28:28
Die sind mit RDNA3 problemlos möglich, wie man schon seit relativ kurz nach dem Launch weiß - nur halt nicht in Spielen. Was es umso kurioser macht bei einer Architektur, die in erster Linie dafür konzipiert wird.
Leider nur wenn man das Design auf 600w prügelt. Genau das ist der Hinkefuss. Nvidia baut zwar ähnliches Zeug gelingt es ihnen aber mit intelligenter Software das zu mindern und trotzdem schneller rauszukommen.

NVidia hat genau umgesetzt was Koduri seinerzeit mal äußerte, das Potential liegt vielmehr in der Software als in der Hardware. Immer weiter sinnlos aufzustocken endet mit den Kosten. Anscheinend hat das nach der Trennung AMD kaum weiter verfolgt. Zu Koduris Zeit haben sie ihm die Mittel dafür gestrichen. Das wiegt nun um so schwerer. Nvidia kann man nicht mehr einholen.

Lehdro
2023-08-07, 15:03:04
Leider nur wenn man das Design auf 600w prügelt.
Genau das stimmt halt nicht, weswegen Linmoum das auch extra so formuliert hat. Abseits vom Gaming, also beim Compute (https://www.computerbase.de/2023-01/rx-7900-xtx-oc-rtx-4080-oc-benchmark/#abschnitt_rdna_3_verbraucht_zu_viel), verhält sich RDNA3 so wie man es von einem angeblichen Hochtaktdesign erwarten würde. Nur halt beim Gaming nicht, was ein absolutes Kuriosum darstellt - weil es eine Architektur ist die primär dafür entwickelt wurde.

Dass RDNA3 damit zum scheitern verurteilt war ist dann nur noch logisch. Möglich dass der Chipletansatz mit mehreren GCDs bei RDNA4 ähnliche Probleme bereitet, weswegen man das gleich auf Eis legt.

Gast
2023-08-07, 16:07:16
Abseits vom Gaming, also beim Compute (https://www.computerbase.de/2023-01/rx-7900-xtx-oc-rtx-4080-oc-benchmark/#abschnitt_rdna_3_verbraucht_zu_viel), verhält sich RDNA3 so wie man es von einem angeblichen Hochtaktdesign erwarten würde.


Logisch, dass beim reinen Compute ohne Benutzung der grafikspezifischen Chipteile der Verbrauch sinkt bzw. damit innerhalb des Powerlimits mehr Platz für höhere Taktraten vorhanden ist.


Nur halt beim Gaming nicht, was ein absolutes Kuriosum darstellt - weil es eine Architektur ist die primär dafür entwickelt wurde.


Das ist kein Kuriosum, sondern völlig normal dass der Energieverbrauch sinkt wenn weniger vom Chip benutzt wird.