Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 2. Dezember 2024
Leonidas
2024-12-03, 07:54:53
Link zur News:
https://www.3dcenter.org/news/news-des-2-dezember-2024
nonharderware
2024-12-03, 08:26:44
Wenn RDNA 4 wirklich derart zulegt (was ich sehr hoffe), wieso hat man dann eigentlich den 4090-Konter nicht umgesetzt?
Wenn die 5080 jetzt wirklich in der Nähe der 4080(S) bleibt, hätte diese "RX 8900 XTX" (Preispunkt vorausgesetzt) eine tolle Option für die Lücke zwischen 5080 & 5090 werden können ...
Leonidas
2024-12-03, 08:38:27
Das wäre in der Tat unverständlich. Ergo darf man über diese Prognosen doch noch ein Fragezeichen hängen.
nonharderware
2024-12-03, 08:48:40
Das wäre in der Tat unverständlich. Ergo darf man über diese Prognosen doch noch ein Fragezeichen hängen.
Könnte AMD "kurzfristig" (sagen wir bis zum Sommer 2025) eigentlich einen Konter nachschieben?
Bspw. zwei Chips kombinieren (wie früher mit den X2 Modellen)?
Exxtreme
2024-12-03, 08:52:49
Wenn RDNA 4 wirklich derart zulegt (was ich sehr hoffe), wieso hat man dann eigentlich den 4090-Konter nicht umgesetzt?
Weil praktisch niemand einen 4090 Konter kaufen würde.
dildo4u
2024-12-03, 08:54:54
Angeblich war die High-End Lösung ein Chiplet Monster auf dem Level mit Workstation Modellen die sie für 10000€ verkaufen könnten da kommt kein Gameing Konter.
https://www.pcgamer.com/sorry-how-many-chiplets-were-amd-trying-to-jam-into-that-cancelled-next-gen-gpu
Wenn RDNA 4 wirklich derart zulegt (was ich sehr hoffe), wieso hat man dann eigentlich den 4090-Konter nicht umgesetzt?
Weil der Konter höchstwahrscheinlich Multichip war, und damit die Effizienz flöten geht.
Sieht ja gar nicht schlecht aus, jetzt noch ein brauchbarer DLSS-Konkurrent dann wären AMD-Grafikkarten für Spieler tatsächlich kaufbar.
Platos
2024-12-03, 12:09:00
Bei Grafikkarten sind solche Effizienzmeldungen (für mich persönlich) immer etwas nutzlos. Man weiss nie, ob es jetzt daran liegt, dass die Architektur wirklich durchgehend effizienter ist oder aber nur auf einem effizienteren punkt betrieben wird.
Für Leute, die Untervolten, ist das immer so ne Sache. Da muss die ganze Kurve effizienter sein...
Aber grundsätzlich höhrt es sich ja schon gut an, aber solange man keine Preise kennt, weiss man auch nicht, ob die Karte gut wird.
Der_Korken
2024-12-03, 12:45:47
Die Aussagen sind nicht so ganz deckungsgleich. In Raster auf 4080(S)-Level und dann, dass die Performance schon immer auf 7900XT gewesen sein soll. Da sind mal eben 20% dazwischen. An 7900XT-Performance habe ich persönlich bei den Specs schon immer geglaubt, da beim Takt einfach so extrem viel Luft ist bei RDNA3 und N31 pro CU massivst mehr Transistoren verbaut hat, ohne dass da irgendwas bei rumgekommen wäre. 4080-Niveau finde ich aber schon etwas sehr optimistisch. Das wäre mit 64CUs imho nur dann möglich, wenn der Takt nochmals höher ausfällt als bisher gedacht, d.h. 3,5Ghz+, und/oder wenn das Dual-Issueing massiv aufgebohrt wurde, sodass in deutlich mehr Fällen Doppel-Instruktionen ausgeführt werden.
Woran ich aber nie geglaubt habe, waren die Chipgrößen von 240mm² und kleiner. Das tue ich auch weiterhin nicht.
Wenn RDNA 4 wirklich derart zulegt (was ich sehr hoffe), wieso hat man dann eigentlich den 4090-Konter nicht umgesetzt?
N48 ist laut Gerüchten nur ein Notnagel. RDNA4 sollte eigentlich ein Chiplet-Design im Stile der MI300 werden, d.h. ein oder mehere Base-Dies mit Memory Controller, IF-Cache und Command Processor und oben drauf dann reine Compute-Dies mit ausschließlich Shader Engines, CUs und ROPs drin (und wahrscheinlich ein lokaler L2). Dies hat man mutmaßlich entweder aus wirtschaftlichen oder technischen Gründen verworfen und stattdessen einen monolithischen Mainstream-Chip zusammen gekloppt, damit man was zum Verkaufen hat. Das würde auch erklären, warum RDNA4 so spät kommt.
Einen weiterne, noch größeren RDNA4-Chip zu basteln, war wohl einfach nicht drin. Die Entwickler dafür kann man stattdessen auch an der nächsten Gen (wahrscheinlich UDNA1) arbeiten lassen, damit dieses pünktlich und fehlerfrei erscheint. Für N48 erwartet AMD offenbar noch genug Verkaufszahlen, um den Aufwand zu rechtfertigen.
Bei Grafikkarten sind solche Effizienzmeldungen (für mich persönlich) immer etwas nutzlos. Man weiss nie, ob es jetzt daran liegt, dass die Architektur wirklich durchgehend effizienter ist oder aber nur auf einem effizienteren punkt betrieben wird.
N31 wird schon extremst effizient betrieben. Die 7900XTX läuft mit 2,5Ghz und 900mV und ist mit ausgehebelten Limits auf über 3,5Ghz taktbar. Die 6900XT dagegen lief mit 2,3Ghz und 1100mV und hat Ach und Krach vielleicht 2,8Ghz geschafft, wenn man sie komplett durchgeprügelt hat. Der 6900XT kann man auch problemlos etwas Saft wegnehmen, während der 7900XTX da direkt abfällt. Auch am Teillastverhalten sieht man das gut: Im FPS-Cap geht die 6900XT mit dem Verbrauch stark nach unten, die 7900XTX nur mittelmäßig - das geht manchmal so weit, dass der Effizienzgewinn durch RDNA3 und 5nm unter Teillast fast verschwindet! Die 7900XTX wäre bei gleichem Betriebspunkt eine 400/450W-Karte geworden, aber damit hätte sich AMD mit ihrer 1,5xPerf/W-Ankündigung komplett lächerlich gemacht. Jeglicher Effizienzgewinn, der jetzt von RDNA4 kommt, muss quasi ausschließlich aus der Architektur (und ein kleines bisschen aus der Fertigung) kommen und ist somit recht hoch zu bewerten.
Bei Grafikkarten sind solche Effizienzmeldungen (für mich persönlich) immer etwas nutzlos. Man weiss nie, ob es jetzt daran liegt, dass die Architektur wirklich durchgehend effizienter ist oder aber nur auf einem effizienteren punkt betrieben wird.
Das betrifft aber jetzt nicht nur Grafikkarten sondern alle Produkte.
ja dann hat es amd endlich geschaft mit mittelklassequotings den 1k verkaufspreis zu reissen. wer bitte glaubt das man diese karte dann für unter 1k anbietet. lol.
natürlich veranstaltet man jetzt schon einen hype dsrum und macht aus dieser schwäche wieder etwas ganz besonderes, das jeder haben muss.
wenn interessiert in 2025 noch die leistung einer 4080. auch diese karte nimmt keine 320w. meine läuft je nach preset bei 2800mhz mit schlappen 55% auslastung, was das pt angeht. ja ihr lest richtig, 180w im mittel. da kommt amd mit diesen veraltetem schrott lange nicht hin.
das sind wieder diese märchen die von leuten verbreitet werden die nie nvidia hardware kaufen würden. vermutlich prügelt sich diese karte dann mit der 5070 umher, wird unter real raytracing (nicht amd light rt) und dlss vs fsr schlechter sein. aber hauptsache man holt den strohmann schon jetzt raus und verbraucht dann weniger als eine 4080. eine 5080 wird das teil unangespitzt in den boden rammen.
ich habe jahrelang amd karten gekauft und kann aus meiner persönlichen erfahrung heraus nur davon abraten, es gibt mindestens immer einen vom marketing dargestellten vorteil, der letztlich nur ein pferdefuss ist für den man viei geld bezahlt. wenn interessiert dann raytracingleistung der 7900xtx im bestcase spekuliert bei bis zu +40% in 2025 noch. das wird vermutlich die 5060ti reissen, die deutlich weniger kostet und auch deutlich weniger verbraucht.
das ist das problem der ganzen neueren käufergen, ein influencer faselt irgendwas weil er dafür vom hersteller im werbevertrag viel held bekommt und die rennen los, glauben jeden scheiss und pressen wie irre auf den verkaufsbutton. lemminge...nannte man diese früher.
Dino-Fossil
2024-12-03, 13:32:26
Gerüchte zu AMD-GPU-Releases laufen doch eigentlich immer wieder nach dem gleichen Muster ab. Erst heißt es, AMD käme viel früher als nVidia (hatten wir), dann ist nVidia doch wieder fast komplett raus bevor AMD mal zu Potte kommt (deutet gerade alles darauf hin).
Dann wird AMD wahlweise die nVidia-Killer Mega-GPU angedichtet, oder die neue Gen ist plötzlich bei einem Feature fantastisch viel besser, als alles was es vorher gab (sehen wir gerade). Hinterher mag die Karte zwar solide sein, aber der Hype-Zug entgleist unweigerlich (kommt vermutlich).
Meine 2ct:
Ich denke AMD bringt mit RDNA4 brauchbare GPUs für die Mittelklasse, die ein paar Fixes und vielleicht hier und da vernünftige Verbesserungen haben, aber die Karten nicht neu mischen werden. Leider auch nicht bei Preis-Leistung. Etwas besseres Perf/Watt, evtl. spürbar mehr Zuwachs bei RT-Fähigkeiten, mglw. mehr Performance für KI-Gedöns (FSR4). Allerdings keine massive Verschiebung des Status-quo. Und selbst wenn - die Leute kaufen doch eh wieder nVidia.
Leonidas
2024-12-03, 14:12:11
Könnte AMD "kurzfristig" (sagen wir bis zum Sommer 2025) eigentlich einen Konter nachschieben?
Bspw. zwei Chips kombinieren (wie früher mit den X2 Modellen)?
2x nein.
Schneller Chipentwurf, Tape-Out, Validierung dauern mindestens ein Jahr, eher länger.
Alternative X2: Klappt nicht, SLI & CrossFire sind Software-seitig tot.
Spagatt ? :-)
Besser ein "t" weniger. Gefixt.
Gerüchte zu AMD-GPU-Releases laufen doch eigentlich immer wieder nach dem gleichen Muster ab.
Und selbst wenn - die Leute kaufen doch eh wieder nVidia.
This! und immer wieder gleiche Leier, AMD wird Nvidia vernichten, wie denn bitte, die hängen mittlerweile 3 Gens zurück und das ist auch ganz klar sichtbar.
Wer denen das noch abkauft, ist selbst Schuld. Es hat ja einen Grund das sie dann lieber nVidia kaufen. AMD taugt einfach nichts und hat viele Nachteile, ist zuweilen langsamer und in der Bildquali schlechter, will aber das gleiche Geld dafür haben., weil sie so Pseudosachen wie mehr VRAM ins Layout packen. Mehr VRAM den die GPU nie füllen kann, weil viel zu lahm. Dabei auch immer Gen unter dem Anspruch der Konkurrenz (lahmen und billigen Gddr6) damit man viel Gewinn drüber einfahren kann. HBM ist im Consumer sang und klanglos gescheitert. Wurde ja auch hier als der heilige Gral beworben.
Die sollen ihren Krempel in China verticken, dafür reicht es. Genau das werden sie machen und genau dafür gibt die 8000 Serie, Mittelklassezeugs das in China am oberen Ranking steht und deshalb dort für viel Kohle vertickt werden kann. Kommt davon wenn ein amerikanisches Unternehmen im Hintergrund nur noch von Chinesen geführt wird. Hoffe Trump räumt mit diesem Haufen mal so richtig auf. Stehen ja auch im Verdacht über zig dunkle Kanäle in Indien und China weiter an den Russen Asics für Raketen und Drohnen vertickt zu haben. Hurra AMD, so toll.
Immer toll bejubeln und das Geld in den Hintern blasen damit sie weiter machen können.
Für'n Zwani im Monat, wer braucht da die 8800xt/x? Die 7900xtx +25% Effizienz sind immer noch knapp 300w, für eine Mittelklassekarte, ja klar AMD. In dem Monat wo man in Urlaub fährt und oder nicht zockt, einfach abmelden.
https://www.nvidia.com/de-de/geforce-now/
Effizienz=100% weil das Teil mit RTX4080 Leistung auf einer iGPU mit 1080p/60hz läuft, 100mbit und mit mehr auf 120Hz! Ruhig, leise, ohne höheren Stromverbrauch, kühl. Diese überteuerten Gamingkarten braucht keiner mehr. Für den Preis kannst du wahrscheinlich besser und 4 Jahre lang so zocken, im Wohnzimmer bequem am Flat TV auch auf 4K skaliert.
Android, Windows, Linux, Mac, alles wird unterstützt. Diese AMD Karten braucht kein Mensch und kein Mensch braucht nVidia RTX Karten für Mond-Preise. Bullshit³. Gibt viel bessere Alternativen für Gamer als sich teuer einzukaufen und sich Jahre zu ärgern. Kostengünstig auf Hardware die sich jeder leisten kann.
Einfach mal ausprobieren, man wird sich wundern.
Der_Korken
2024-12-03, 20:24:39
Gerüchte zu AMD-GPU-Releases laufen doch eigentlich immer wieder nach dem gleichen Muster ab. Erst heißt es, AMD käme viel früher als nVidia (hatten wir), dann ist nVidia doch wieder fast komplett raus bevor AMD mal zu Potte kommt (deutet gerade alles darauf hin).
Dann wird AMD wahlweise die nVidia-Killer Mega-GPU angedichtet, oder die neue Gen ist plötzlich bei einem Feature fantastisch viel besser, als alles was es vorher gab (sehen wir gerade). Hinterher mag die Karte zwar solide sein, aber der Hype-Zug entgleist unweigerlich (kommt vermutlich).
Du hast noch die Gerüchte vergessen, dass der AMD-Chip noch irgendwelche ungenutzen Recheneinheiten hat und AMD nach der XT noch eine volle XTX bringen kann, um Nvidia doch noch zu überholen.
Gastein
2024-12-03, 22:07:43
Die AMD Karten hatten doch immer ein gutes P/L Verhältnis. Egal wie die Listenpreise sind, der Handel pendelt das immer so ein, dass die Radeons mehr Bäng4Buck liefern. Das ist das Image-Problem.
Wer meint er muss unbedingt die neuesten RT Effekte haben glaubte auch er konnte den Witcher nicht ohne speziell flatternde Haare spielen wollen.
Dann ist halt nichts mit günstig und man lässt sich ausnehmen. Die Geschichte wird aber jeden Tag lächerlicher, genauso wie die Anfänge von RT...
Auch DLSS das nur auf modernsten Top-Karten in aktueller Version funktioniert. Wen ich ne neue GPU kaufe will ich doch nicht hochskalieren müssen. Auf solche Ideen kommen wohl nur RT-Fetischisten. Dabei reicht das was die PS5 kann allemal aus und aktuelle Mid-Range ist schon leistungsfähiger.
Wenn nun die nächste RDNA Generation wirklich das mittlere Segment neu aufmischen könnte wäre das auf jeden Fall positiv.
Warten wir erst mal ab wie "gierig" die Preise festgesetzt werden. Aber auch dann, wenn AMD zu günstig anbietet wird der Handel die Hand aufhalten. So viel werden die gar nicht produzieren können dass es dann nicht automatisch zu knapp würde, bei den ganzen Leuten die heute noch auf Pascal und wenns hoch kommt auf ner 3060er Gurke unterwegs sind und den Irrsinn der letzten 5 Jahre einfach mal nicht mehr mitmachen wollten oder konnten.
Für'n Zwani im Monat, wer braucht da die 8800xt/x? Die 7900xtx +25% Effizienz sind immer noch knapp 300w, für eine Mittelklassekarte, ja klar AMD. In dem Monat wo man in Urlaub fährt und oder nicht zockt, einfach abmelden.
Jemand der sich nicht die inhärente Latenz vom Streaming antun will.
Jemand der sich nicht die inhärente Latenz vom Streaming antun will.
Die ist bei einem MMO schlimmer als hier. Kannst es umsonst testen.
Die ist bei einem MMO schlimmer als hier. Kannst es umsonst testen.
Nicht jeder spielt MMOs, und in der Regel sind die einzelnen Latenzen seriell, und jede weitere macht es noch schlimmer.
Nicht jeder spielt MMOs, und in der Regel sind die einzelnen Latenzen seriell, und jede weitere macht es noch schlimmer.
Und die gibt es bei AMD Karten natürlich nicht, weil da die rote Sonne strahlt. Man Bro schreibst du einen Quark...du würdest es auch nicht installieren und nutzen wenn es null Latenz hätte, einfach weil es grün ist!
Bist du derjenige der geschrieben hat AMD Karten hätten ein gutes P/L. Ich habe meine rx6800 für 850 gekauft und das war diese Karte nie und nimmer wert, gutes P/L. Das ist so lächerlich. Die 7900 Serie war komplett überteuert für das was sie leistet, die XTX war stellenweise teurer als eine 4080 und leistet unter RT 70% weniger, säuft dabei auch noch knapp 400w. Irgendwann hat AMD dann ein Einsehen gehabt und der Markt preiste diesen Krempel dann so ein, was es real leistet, also deutlich unter UVP.
Nun werden dann mal gleich 300w als Effizienz verkauft. Womöglich verbraucht sie tatsächlich nur 220w, irgendwie von Seasonic getriggert (Bullshithype im Auftrag von AMD), ist aber schneller als eine 4080. Wer sowas glaubt der hat sie nicht mehr alle. Aber Glaube versetzt ja bekannterweise Berge. Eine GPU setzt Leistung bemessen am Energiebedarf zu 100% in Abwärme um, wenn sie nur 220w braucht leistet sie auch genau das, nix was einer 4080 gefährlich werden könnte.
Die Ganzen prozentulen Pseudorechenbeispiele zur 7900xtx versus 8800xt dienen doch nur dazu die Balken viel länger aussehen zu lassen als sie sind. Der neuste Gag des AMD Guerilla-Marketing dabei, vergleicht bitte unsere neue Gen mit dem Vorgänger der Konkurrenz, nicht mit der neuen Gen der Konkurrenz und die Presse hilft da kräftig mit im Auftrag von AMD.
Zur 4080 sind es dann 5% schneller im Raster und 20% langsamer unter RT, wobei die 5080 das Ding einsaugt, zerrödelt und an der Blende wieder rauspustet. Aber Hauptsache gutes P/L in 3nm. Ihr werdet euch wundern! Da Intel Foundry jetzt mehr oder weniger tot ist, wird TSMC an der Preisschraube drehen ohne Rücksicht, dass dann an den meistbietenden Verkaufen und genau das wird von den Herstellern die dort ordern, weitergegeben und bei euch landen. Gutes P/L ja, wers glaubt.
Nur so, serielle Schnittstellenlatenzen sind in dem Fall komplett unerheblich wenn die Rechenzeit dafür vorhanden ist. Wie man das löst, lies es dort nach. Das das für Einige hier viel zu hoch ist, da gebe ich dir Recht. Frage mich gerade wo du das abgeschrieben hast und dann auch noch in verkehrter Reihenfolge gepostet? Die Latenz die dann abgebildet wird, kann dabei schon bei der Art der Messung durch das Messverfahren selbst entstehen, weil es keine Größe in der Datenübertragung dieser Prozesse ist. Aber ja, ihr macht das schon. Verlass dich ruhig auf AMDs Treiber, die cheaten das schon irgendwie.
Dino-Fossil
2024-12-04, 15:32:59
Bist du derjenige der geschrieben hat AMD Karten hätten ein gutes P/L. Ich habe meine rx6800 für 850 gekauft und das war diese Karte nie und nimmer wert, gutes P/L. Das ist so lächerlich.
Warum hast du sie denn dann für den Preis gekauft?
Gast Ritis
2024-12-04, 17:01:42
Warum hast du sie denn dann für den Preis gekauft?
Naja - wer das Kunststück vollbringt für eine RX6800 so viel Geld hinzulegen hat auch nicht wirklich den Zeitpunkt gewählt an dem der Handel sich normalisiert hatte. Nach der Pandemie war die eigentlich zwischen 650 und 700 Euro gependelt. 850 hätte ich zumindest nicht bezahlt, vermutlich hat es zu dem Zeitpunkt bei dem Preis bei den grünen unter 900 überhaupt nichts spielbares im Angebot gehabt.
Aber klar, wenn man sich über mangelnde RT-Performance aufregt ist man auch auf angeblich tollste Tesselation-Haaranimationen angewiesen gewesen um beim Spielen glücklich zu werden. Es gibt nunmal Leute, die können keinen Spass haben wenn sie an Grafikdetails zweifeln müssen. Andere wiederum können auch mit Vampire Survivors gut unterhalten werden, mich würde diese Grafik allerdings dann auch abschrecken ;D
Lehdro
2024-12-04, 18:38:27
Gerüchte zu AMD-GPU-Releases laufen doch eigentlich immer wieder nach dem gleichen Muster ab. Erst heißt es, AMD käme viel früher als nVidia (hatten wir), dann ist nVidia doch wieder fast komplett raus bevor AMD mal zu Potte kommt (deutet gerade alles darauf hin).
Dann wird AMD wahlweise die nVidia-Killer Mega-GPU angedichtet, oder die neue Gen ist plötzlich bei einem Feature fantastisch viel besser, als alles was es vorher gab (sehen wir gerade). Hinterher mag die Karte zwar solide sein, aber der Hype-Zug entgleist unweigerlich (kommt vermutlich).
Traditionen sind wichtig in den heutigen Zeiten! ;D
Und die gibt es bei AMD Karten natürlich nicht, weil da die rote Sonne strahlt.
WTF hat das mit Gamestreaming zu tun?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.