PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19./20. August 2023


Leonidas
2023-08-21, 09:02:07
Link zur News:
https://www.3dcenter.org/news/news-des-1920-august-2023

Redirion
2023-08-21, 10:08:41
die Preisklasse darüber ist ähnlich interessant mit RDNA2 vs Ada Lovelace. Hardware Unboxed hat dazu (bisher nur als Video) einen Test:
https://www.youtube.com/watch?v=5KZ-jY_OqUA&t=162s

6800XT gegen nur minimal günstigere 4060 Ti 16GB. Abgesehen vom besseren Stromverbrauch bietet die 4060 Ti keinerlei Vorteile. Selbst beim Ray Tracing unterliegt sie mangels Rohleistung bis auf CP2077 in allen Games.

Gastronom
2023-08-21, 10:23:31
Finde AMDs Strategie zuerst die kleinen Monolithen bei Navi 4x zu bringen smarter als den release bei Navi 3x.

Mit ihrem grössten Produkt haben sie nicht wirklich was reissen können, die kleinen Chips kamen erst recht spät.

Bin mir aber sicher, dass es noch Navi 42/41 geben wird. Wenns AMD es gebacken bekommt den Chipletansatz in den Griff zu bekommen dann mit Chiplets, ansonsten halt grössere Monolithen.
Die Entscheidung ist wohl noch nicht getroffen worden.
Gar nichts zu bringen wäre fatal, dann wären sie irgendwann Nummer 3 hinter Intel.

Exxtreme
2023-08-21, 10:48:08
Der Chiplet-Ansatz ist nicht wirklich das Problem. RDNA3 ist ja nicht schlechter als RDNA2 und in etlichen Bereichen viel besser. Für mich sieht es eher so aus als ob AMD gleich zwei Mal hart überrascht wurde. Einerseits von der RTX 4090. Gegen die haben sie keinen Konter und es wird auch keinen geben da RDNA3 dazu nicht in der Lage ist. Und das zweite Thema ist der Stromverbrauch. AMD hat wohl nicht gedacht, dass sie die einzige Firma sind, denen man hohen Stromverbrauch übel nimmt.

Gast
2023-08-21, 11:08:39
Der Chiplet-Ansatz ist nicht wirklich das Problem. RDNA3 ist ja nicht schlechter als RDNA2 und in etlichen Bereichen viel besser. Für mich sieht es eher so aus als ob AMD gleich zwei Mal hart überrascht wurde. Einerseits von der RTX 4090. Gegen die haben sie keinen Konter und es wird auch keinen geben da RDNA3 dazu nicht in der Lage ist. Und das zweite Thema ist der Stromverbrauch.


Der Chipletansatz ist einer der Gründe für den nicht konkurrenzfähigen Stromverbrauch.


AMD hat wohl nicht gedacht, dass sie die einzige Firma sind, denen man hohen Stromverbrauch übel nimmt.

Eher umgekehrt, AMD hat immer wieder betont das Stromverbrauchsrennen nicht mitmachen zu wollen, obwohl sie eigentlich die roten und nicht die grünen sind 🤣

Womit man aber wohl nicht gerechnet hatte ist, dass man damit soweit hinten ist, man hatte wohl eher erwartet zwar hinten zu sein, aber nur weil NV die Stromleitung wesentlich stärker aufdreht.

Exxtreme
2023-08-21, 11:19:45
Der Chipletansatz ist einer der Gründe für den nicht konkurrenzfähigen Stromverbrauch.


Nein. Navi33 ist monolithisch und trotzdem kein Stromverbrauchswunder im Vergleich zu Ada. Ja, ich weiss N6, aber soviel macht das da auch nicht aus da Navi31 z.T. auch 6N ist.


Eher umgekehrt, AMD hat immer wieder betont das Stromverbrauchsrennen nicht mitmachen zu wollen, obwohl sie eigentlich die roten und nicht die grünen sind 🤣

Womit man aber wohl nicht gerechnet hatte ist, dass man damit soweit hinten ist, man hatte wohl eher erwartet zwar hinten zu sein, aber nur weil NV die Stromleitung wesentlich stärker aufdreht.

Nein, es geht um die öffentliche Wahrnehmung. Ampere frisst noch beträchtlich mehr Saft als RDNA3, juckt aber so ziemlich niemanden wenn man sich die Verkaufszahlen anschaut. Bei AMD ist das aber eine Todsünde. :) Und hintendran liegt man gegen eine RTX 4090. Und das Ding ist eine ziemlich Kopf-durch-die-Wand-Lösung wenn man sich alleine die Größe und das Gewicht der Grafikkarte anschaut. Gegen eine RTX 4080 sieht eien RX 7900XTX sehr gut aus. Ja, in RT Grafikdemos nicht. Aber das ist wiederum ein spezielles Thema.

GerryB
2023-08-21, 11:59:54
man könnte analog der 6700 ne 6750 GRE -10GB bringen
(ob das zum Preis der 6700xt möglich wäre, who knows)

um die 8GB-4060Ti beim Preis zu treffen

6750 GRE schneller als 6750xt gänge ja nur über mehr W+MHz
(da scheint mir das Ende der Fahnenstange aber bereits erreicht, ... außer vllt. übers Binning ala XTXH)

Gast
2023-08-21, 12:01:33
Ja, ich weiss N6, aber soviel macht das da auch nicht aus da Navi31 z.T. auch 6N ist.



Genau das macht viel aus, N6 ist praktisch ein kostenoptimierter N7, N5 ein neuer Nodesprung.



Nein, es geht um die öffentliche Wahrnehmung. Ampere frisst noch beträchtlich mehr Saft als RDNA3, juckt aber so ziemlich niemanden wenn man sich die Verkaufszahlen anschaut.


Hä? Ampere ist gegen RDNA2 angetreten, und da geben sich beide nichts nennenswertes beim Verbrauch.


Und hintendran liegt man gegen eine RTX 4090. Und das Ding ist eine ziemlich Kopf-durch-die-Wand-Lösung wenn man sich alleine die Größe und das Gewicht der Grafikkarte anschaut.


Genau das ist das peinliche, selbst der voll ausgefahrene Topchip wird vom vom zweitgrößten der Konkurrenz praktisch erreicht, und vom stark beschnittenenen Topchip der Konkurrenz regelrecht deklassiert.

Und dass die FE der 4090 vergleichbar gut oder sogar besser ausgestattet ist, als früher Customs ist sicher kein Nach- sondern ein großer Vorteil.

Gast
2023-08-21, 12:10:12
Nein. Navi33 ist monolithisch und trotzdem kein Stromverbrauchswunder im Vergleich zu Ada. Ja, ich weiss N6, aber soviel macht das da auch nicht aus da Navi31 z.T. auch 6N ist.

Natürlich ist es das und der Vergleich N31/N33 illustriert das perfekt.

Praktisch alle Fortschritte die N5 hätte bringen sollen, wurden vom Chipletdesign aufgefressen.

Raff
2023-08-21, 12:16:55
die Preisklasse darüber ist ähnlich interessant mit RDNA2 vs Ada Lovelace. Hardware Unboxed hat dazu (bisher nur als Video) einen Test:
https://www.youtube.com/watch?v=5KZ-jY_OqUA&t=162s

6800XT gegen nur minimal günstigere 4060 Ti 16GB. Abgesehen vom besseren Stromverbrauch bietet die 4060 Ti keinerlei Vorteile. Selbst beim Ray Tracing unterliegt sie mangels Rohleistung bis auf CP2077 in allen Games.

Dafür musst du dir kein Video ansehen, gibt's alles in "Nah und gut"-Qualität aus deutschen Landen: https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/Tests/Geforce-4060-Ti-16GB-Test-Benchmark-Release-8GB-vs-16GB-1424743/ :)

MfG
Raff

GerryB
2023-08-21, 12:31:01
Hä? Ampere ist gegen RDNA2 angetreten, und da geben sich beide nichts nennenswertes beim Verbrauch.


Jein, anfänglich betrachtet may be, als die 6900 noch 999€ gekostet hat.
Aber falls man derzeit ne neue 3080 bekäme, ist ne 6900@270W sinnvoller.
(bei ähnlichem Preis)

Im Prinzip sahs sogar ne Zeitlang so aus, das nur die 3070Ti in dem Preissegment zu bekommen war.
(und die ist Brechstange pur, daher wohl das Gefühl, das Ampere säuft)

Gast
2023-08-21, 12:58:10
Aber falls man derzeit ne neue 3080 bekäme, ist ne 6900@270W sinnvoller.
(bei ähnlichem Preis)


Aber wegen dem VRAM und nicht der Effizienz.

Die Effizienzunterschiede sind wie du hier schön zeigst bei vergleichbarem Powerlimit und Chipgröße vernachlässigbar gering, dass alleine wegen DLSS und der RT-Leistung bei gleichem Preispunkt die 3080 vorzuziehen wäre, wäre da nicht der geringe VRAM.

Gastronom
2023-08-21, 13:00:18
Der Chiplet-Ansatz ist nicht wirklich das Problem. RDNA3 ist ja nicht schlechter als RDNA2 und in etlichen Bereichen viel besser. Für mich sieht es eher so aus als ob AMD gleich zwei Mal hart überrascht wurde. Einerseits von der RTX 4090. Gegen die haben sie keinen Konter und es wird auch keinen geben da RDNA3 dazu nicht in der Lage ist. Und das zweite Thema ist der Stromverbrauch. AMD hat wohl nicht gedacht, dass sie die einzige Firma sind, denen man hohen Stromverbrauch übel nimmt.

Die 4800er GPU hat glaub ich 375mm2 Chipfläche und bietet fast so viel Rasterleistung wie AMDs Chipletansatz mit über 500mm2 Chipfläche. Da Frag ich mich schon was das bringen soll? Sind beides N5 Derivate.

Stromverbrauch im Spiel ist mir egal, da ich nur ein paar Stunden pro Woche zocke. Stromverbrauch im Idle ist mir aber nicht egal, da meine Monitore eigentlich immer an sind. Und da war RDNA2 richtig gut, RDNA3 aber nicht.

GerryB
2023-08-21, 13:24:24
Die kleinen L3-Cache -MCD´s wird AMD sooo preiswert bekommen, das die kaum ne Rolle spielen.
Wennschon dennschon dann 4080 abzgl. 50% L2-Cachefläche vs. 7900xtx 304mm² GCD vgl.!
(keine Ahnung wieviel Fläche der L2 bei Ada so hat)

Bezgl. Vram denke ich das der GDDR6 bei AMD preiswerter ist als der GDDR6x bei NV, somit AMD
leicht mehr drauf packen kann.

Summasummarum wird AMD keine Miesen machen.

FeuerHoden
2023-08-21, 13:50:52
Die 6700 XT hat zwar mehr RAM als die 4060 Ti. Die Architektur von nVidia geht mit RAM aber effizienter um. Ein Teil des "mehr an RAM" dürfte somit also verpuffen.

Raff
2023-08-21, 13:57:15
Nvidia kann keine Lücke von 50 Prozent mit Secret Sauce überkleistern -> eine RTX 4060 Ti "9GB" ist speicherseitig einer RX 6700 XT in jedem Fall unterlegen.

MfG
Raff

Gast
2023-08-21, 14:24:52
Nein, es geht um die öffentliche Wahrnehmung. Ampere frisst noch beträchtlich mehr Saft als RDNA3, juckt aber so ziemlich niemanden wenn man sich die Verkaufszahlen anschaut.
Wo denn? Während RDNA3 wie am maxPT klebt, nehmen Nvidia Karten real deutlich weniger und takten deutlich höher als Nvidia selbst angibt. Man fährt also das Potential des 12Pin und deren maxPT von bis 600w noch nicht mal aus, wenn das passiert geht bei AMD das Licht aus.

RDNA3 frisst vor allem im Idle und im Mittelbereich ohne Ende, und oben heraus hängen sie am max PT wobei da nicht mal UV hilft, weil die Karten das Blackscreens und Timeouts produzieren.

Öffentliche Wahrnehmung und reales Verhalten scheint was anderes zu sein. Ich vermute mal du hast nie eine im Rechner gehabt. Du schreibst genau das Gegenteil von dem was real passiert.

Nvidia säuft wen man RT zuschaltet und das galt auch für Ampere, weil dann die Rechenlast extrem ansteigt was in einem Bruteforcesenario wie RT aber normal ist. Man aber auch deutlich mehr leistet als AMD. Unter Raster sind Ampere und ADA, AMD effizienztechnisch meilenweit überlegen, auch RDNA2 war kein Verbrauchswunder sondern ließ sich noch gut undervolten, man verlor aber Leistung. Das geht bei RDNA3 kaum, weil man wieder prügelt ohne Ende. Mit der Brechstange an der 4070ti vorbei, lol um dabei schlappe 70-100w real mehr zu verbrauchen.

Selbst VSync@60Hz braucht RDNA3 doppelt so viel wie Nvidia (7900xtx/7900xt/7900GRE vs 4090= 95w vs 55w!!!!!!!). 55w ist soviel wie AMD im Idle verpulvert.

Wie kann man dann so einen Quatsch schreiben? RDNA3 und damit Chiplet ist der reinste Schrott für Gamer. Komplett gescheitert! Es geht nur um Kostenreduktion auf Seiten von AMD um Margen zu steigern, nicht um Ersparnisse oder besondere Leistung beim Anwender. Wenn man bedenkt was AMD selbst dafür bewirbt, erfüllen sie nicht einen einzigen Punkt den das Marketing diesbezüglich angibt. Kannst dir den Schwachsinn auf der AMD Site gerne mal durchlesen. Dabei erfindet man das Premiumsegment weil man Highend von Nvidia nicht in allen Bereichen erreicht: https://www.amd.com/de/technologies/rdna

Ihr solltet endlich mal aufhören AMD ständig Vorschusslobeeren einzuräumen, die Zeiten in denen die mal was für den Gamer getan haben sind längst vorbei. Die kassieren genauso ab wie andere Firmen, liefern aber zum Teil deutlich weniger oder viel mehr Nischenprodukte wie RDNA3. Dabei halten sie den Entwicklungstrend massiv auf und schließen andere Technologienansätze direkt aus! Siehe DLSS das ja nun mal FSR bei der Qualität überlegen ist. Man brauchte ja kein AI, nein man kann alles über unified Hardwareshader, lol.

Die Strategie bei AMD entwickelt sich dabei immer mehr zu Intel und Nvidia in den Anfang 2005 bis 2015-ziger Jahren, inklusive marketingtechnischer Manipulation der eigenen Kundschaft.

Aber AMD darf das ja...

Meine 3090 mit 60Hz UHD@VSync nahm sogar weniger als meine 6800xt und stutterte nicht ständig durch die Gegend, wobei sich der Treiber alle Nase lang mit einer Fehlermeldung zurücksetzte. "Wir haben festgestellt sie nutzen nicht unser Standardprofil"...euer sche*ß Profil ist mir egal. Sowas von nervig, nach jedem Neustart setzt sich der Treiber zurück.

AMD kann man wenn zurechnen, dass sie den CPU Markt kostentechnisch für den Anwender revolutioniert haben, aber auch da verlangen sie nun gleiche Preise für gleiche Leistung und Hardware, manchmal liefern sie dort mit Zen auch deutlich weniger. Man sehe sich einfach die Preise bei Mainbords vom Schlage 650e und 670e an. Für schnödes Midrange wie seinerzeit, verlangt man dort mittlerweile Highend- oder Enthusiastpreise. AMD hat dort die Preise fast zu verdoppelt, mit Pseudoausstattungen wie PCIe5 und DDR5 die bisher kein Mensch braucht und keinem Gamer real etwas bringen. Gleiches trifft auf diesen Bullshit zu, die RDNA3 Serie für 8K zu bewerben um dann DP2.1 drauf zu packen. Sinnloser Quatsch der die Hardware zusätzlich verteuert und den ldleverbrauch steigert. "Wir liefern dort das beste Erlebnis...", welches denn? Hohen Speichertakt und damit hohen Verbrauch?

Im GPU Markt haben die noch nie was Bedeutendes getan außer ständig unsinnige VRAM Mengen im Markt durchzusetzen, die die Preise immer weiter hochgejubelt haben. Dazu muss man auch wissen, das sie immer mehr Speicher brauchen als die Konkurrenz, weil die Hardware selbst nicht in der lange ist die Daten auf bestimmte Speichermengen komprimieren zu können. Es liegt also im Interesse von AMD, dass Speichermengen weiter steigen um einen Makel an der Hardware zu kaschieren.

Das letzte Highlite lieferte noch ATI in Form von Cypress, danach kamen nur Enttäuschungen auf den Markt, mit viel Herausgerede das es das nächste Mal besser wird. So etwas ist bis auf höhere Speichermengen im Markt durchzusetzen nie eingetreten. Man war der Konkurrenz immer unterlegen und verliert so wie derzeit immer mehr Marktanteil. Wenn es Konsolenchips von AMD nicht gäbe wären sie komplett bedeutungslos für den Markt, aber auch da findet ein Umdenken statt, gibt es immer mehr Spezialisierungswünsche im Bereich dedizierter Technologien, weil das was AMD liefern kann über kurz oder lang nicht mehr reichen wird. Nicht zuletzt konnte AMD die gewünschten Auslieferungsmengen dabei nie erfüllen.

Gast
2023-08-21, 14:28:21
Nvidia kann keine Lücke von 50 Prozent mit Secret Sauce überkleistern -> eine RTX 4060 Ti "9GB" ist speicherseitig einer RX 6700 XT in jedem Fall unterlegen.

MfG
Raff
AMD braucht mehr VRAM, warum schreibst du das nicht dazu, ist doch heuchlerisch sowas! Dabei werden AMD geförderte Spiele auf dessen Speichermengen optimiert weil man dann schon weiß das Nvidia damit ein Problem hat und erst nachträgliche Treiberanpassungen abhelfen, was die Entwickler dann erst nach Launch vornehmen. Das ist Manipulation vom feinsten.

Warte mal auf den Schrott von Bethesda in Form von Starfield.

Leonidas
2023-08-21, 14:34:17
AMD braucht mehr VRAM,

... aber nicht in diesem Maßstab, wie es hier zwischen den Zeilen tönt. Es bedeutet nicht, 8 GB NV benötigt 12 GB AMD. Auch nicht 10 GB, sondern eher 9 GB. Der Unterschied ist da, aber gering.

Gast
2023-08-21, 14:46:19
Die kleinen L3-Cache -MCD´s wird AMD sooo preiswert bekommen, das die kaum ne Rolle spielen.
Wennschon dennschon dann 4080 abzgl. 50% L2-Cachefläche vs. 7900xtx 304mm² GCD vgl.!
(keine Ahnung wieviel Fläche der L2 bei Ada so hat)

Bezgl. Vram denke ich das der GDDR6 bei AMD preiswerter ist als der GDDR6x bei NV, somit AMD
leicht mehr drauf packen kann.

Summasummarum wird AMD keine Miesen machen.

Mit keine miesen machen bin ich deiner Meinung.
Meine Vermutung ist halt, das AMD selbst noch nicht so überzeugt ist von seinen Cipletdesign, sonst gäbe es nicht solche Gerüchte.

Bei der 4080er würde ich eben nicht 50% L2 cache abziehen, sondern spannender fände ich wie groß währe ein AMD 7900 XTX mit gleichem GCD, IO und L3 cache als Monolith in N5 gefertigt, und was kostet letztendlich mehr?
Das Packaging wird wohl auch nicht gratis sein, ebenso der Energieverbrauch der Verbindungen.

Gast
2023-08-21, 15:06:12
Was hätte Nvidia denn stattdessen bei Samsung in 8nm produzieren sollen?

GerryB
2023-08-21, 15:38:08
AMD braucht mehr VRAM ...
wenn mehr Vram da ist, wird mehr belegt, das Alleine besagt noch gar nix, nur wenn in Summe Vram+Ram-Nutzung große Unterschiede auftreten, dann ...
und
DAS ist auch stark von den Gameengines abhängig.

Das NV manche Texturen erst später aufploppen lässt, bedeutet net automatisch, das NV sparsamer ist, man macht nur Handstände damits net ruckelt, wo vllt.AMD eher sagt, ... kauf halt ne Graka mit mehr Vram.
(solange dann AMD die Alternative mit mehr Vram zum selben Preis anbieten kann, ... haben die Jungs Alles richtig gemacht)

Gast
2023-08-21, 15:46:03
Habe ich es gesagt oder habe ich es gesagt?

https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Stable-Diffusion-Radeon-Grafikkarten-zehnmal-schnell-Windows-1427098/

Dabei wird es nicht bleiben und wird schon bald die Preise treiben.

Leonidas
2023-08-21, 15:51:52
Was hätte Nvidia denn stattdessen bei Samsung in 8nm produzieren sollen?

Nichts. Aber Samsung ist sicherlich nicht in der Position gewesen, NV irgendwelche feste Abnahmemengen diktieren zu können. Und dies ganz sicher nicht zum nahenden Auslauf dieser Produkte. Darauf würde sich nichtmal der kleinste Chip-Entwickler einlassen.

Gastxyz
2023-08-21, 16:26:47
Diskurs: Der Makel von RDNA2 war das sie ab WQHD einbrachen, wo Nvidia Ampere erst auslasten konnte. Ampere 3080+ war also für deutlich höher aufgelösten Content konzipiert, also höhere Pixelmengen und dafür braucht man nunmal mehr Energie. AMD kann es wie man es nun sieht auch nicht besser. Die 3090ti klammere ich dabei komplett aus, die Karte brauchte niemand, war eher ein limitierter Fanartikel um die 6950 bzw die 6900xtxh zu schlagen. Raff hat ja gleich mal seine 3900 verkauft um dann im Durchschnitt +3-5% zu kaufen, für Mondpreise.

Eine 4090 braucht unter 4K RT nicht mal mehr DLSS, die können nativ 60fps RT Ultra raushauen. Das kostet natürlich. Ich finde das beachtlich, wo AMD nur umher doktert und nichts im Portfolie hat um an diese Leistung ran zu kommen.
***********
Zum Thema: AMD will tatsächlich die 6750 umlabeln und als GRE bringen? 3-4 Jahre nach Launch, nicht wirklich oder? Damit will man gegen nVidia und AI DLSS antreten?

Man glaubt es kaum noch, die müssen noch Berge von RDNA2 rumliegen haben. Bitte diesen umgelabelten Müll nicht in Europa launchen.
***********
Leo Speicher: Naja in RotTB (Lara Craft, einer der Speicherfresser) haute meine Vega2 13,8GB raus, während die 2080ti mit gut 10GB auskam und deutlich schneller war (+30%). nVidia kam also mit deutlich weniger Speicher aus, fast 4 GB. Verstehe das wer will, beschleunigt hat die höhere Speichermenge AMD also nicht. Optimierung ist immer noch wichtiger und scheint das viselle Ergebnis nicht negativ zu beeinflussen.

Gast
2023-08-21, 16:52:20
217w gegen 151w, ich wüsste was ich mache wenn die Karte unter UHD sogar noch schneller ist (jedenfalls steht es so in der Auflistung von Leonidas +7% für die 4060ti). AMD steht da sicher nicht auf dem Karton.

Weiss nicht was AMD damit noch will. 50% höherer Verbrauch. Da hört es ja auch nicht auf. Netzteil, Abwärme, Zusatzlüfter usw.. NVidia ist damit insgesamt deutlich preiswerter oder genauso teuer, aber viel effizienter.

16GB Versionen gab es vor kurzem auf MF-MS für 450 und die 8GB Version gerade für 379: https://www.notebooksbilliger.de/kfa2+geforce+rtx+4060+ti+1+click+oc+8gb+grafikkarte+806729?nbbct=4001_geizhals

Gast Ritis
2023-08-21, 17:41:16
@Leo: das "in dieser Konstellation massiv an Mehrwert ein" müsste wohl ein "in dieser Konstellation massiv ein Mehrwert an" sein.


Zur 4060er vs GRE Diskussion überrascht mich wie wenig die Probleme von VRAM <16GB in die Bewertungen der unterschiedlichen 4060er eingegangen sind.

Eine GRE mit weniger als 16GB VRAM sollte man heute auch nicht mehr kaufen.
Nachladeprobleme oder automatische Reduktion der Assests durch die Engine sind da in Zukunft vorprogrammiert. Da wird sich ein GRE mit nur 12GB nur mit sehr performanter Basis bei PCIe, SysRAM und SSD einigermassen gut anfühlen. Da gibt man doch sicherlich lieber die zusätzlichen Euro aus und muss da kein Gedanken mehr verschwenden.

Wird überhaupt noch konsequent auf aktives rBAR getestet? Bisher ist DirectStorage auf PC noch "underwhelming".

Nvidia kann beim VRAM-Verbrauch auch keine Magie. Die Assets werden dann per Treiber womöglich je nach GPU nicht mehr lossless geladen, damit das immer noch so passt. Wer achtet beim Benchen schon auf Details in Texturen....

Leonidas
2023-08-21, 20:04:01
@Leo: das "in dieser Konstellation massiv an Mehrwert ein" müsste wohl ein "in dieser Konstellation massiv ein Mehrwert an" sein.

Jo, gefixt.

Gast
2023-08-22, 13:56:43
Die 4800er GPU hat glaub ich 375mm2 Chipfläche und bietet fast so viel Rasterleistung wie AMDs Chipletansatz mit über 500mm2 Chipfläche. Da Frag ich mich schon was das bringen soll? Sind beides N5 Derivate.
Sind sie eben nicht. Die MCDs sind alle N6, also 7nm Derivate. Und die machen bei AMD fast die Hälfte der Chipfläche aus.
Dazu kommt dann noch, dass der Chiplet Ansatz eine höhere Ausbeute bietet.
Und wenn Chiplet bei Grafikkarten so eine blöde Idee wäre, warum hat NVidia und Intel dann angekündigt, das auch machen zu wollen? Weil die auch blöd sind?`Wohl eher nicht...

Gast
2023-08-22, 14:20:05
Wo denn? Während RDNA3 wie am maxPT klebt, nehmen Nvidia Karten real deutlich weniger und takten deutlich höher als Nvidia selbst angibt. Man fährt also das Potential des 12Pin und deren maxPT von bis 600w noch nicht mal aus, wenn das passiert geht bei AMD das Licht aus.

RDNA3 frisst vor allem im Idle und im Mittelbereich ohne Ende, und oben heraus hängen sie am max PT wobei da nicht mal UV hilft, weil die Karten das Blackscreens und Timeouts produzieren.

Öffentliche Wahrnehmung und reales Verhalten scheint was anderes zu sein. Ich vermute mal du hast nie eine im Rechner gehabt. Du schreibst genau das Gegenteil von dem was real passiert.

Nvidia säuft wen man RT zuschaltet und das galt auch für Ampere, weil dann die Rechenlast extrem ansteigt was in einem Bruteforcesenario wie RT aber normal ist. Man aber auch deutlich mehr leistet als AMD. Unter Raster sind Ampere und ADA, AMD effizienztechnisch meilenweit überlegen, auch RDNA2 war kein Verbrauchswunder sondern ließ sich noch gut undervolten, man verlor aber Leistung. Das geht bei RDNA3 kaum, weil man wieder prügelt ohne Ende. Mit der Brechstange an der 4070ti vorbei, lol um dabei schlappe 70-100w real mehr zu verbrauchen.

Selbst VSync@60Hz braucht RDNA3 doppelt so viel wie Nvidia (7900xtx/7900xt/7900GRE vs 4090= 95w vs 55w!!!!!!!). 55w ist soviel wie AMD im Idle verpulvert.
Wenn man in seiner eigenen Blase lebt und Fakten ignoriert, dann stimmt vielleicht der Stuss, den du da schreibst. Sonst ist es halt nur selten dämliches Geschwurbel...
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/13/
In Raster auf QHD und UHD ist RDNA2 klar effizienter als Ampere, hat Igor wunderbar aufgezeigt. Und in dem Test sind nicht mal so tolle Karten wie 3070TI und Co drin.
Und bezüglich Idle Leistungsaufnahme:
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Die 7900XTX braucht quasi gleich viel/wenig als eine 4080. Nur die GRE muss noch optimiert werden, die anderen RDNA3 sind da inzwischen auf NVidia Niveau.
Und das nächste deiner "Märchen" widerlegt: Ada braucht nur in RT viel, in Raster deutlich weniger:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/39.html
In Raster braucht die 4080 sogar mehr als in RT, bei der 4090 liegt man mit Raster auch deutlich über 400W:
https://www.techpowerup.com/review/msi-geforce-rtx-4090-gaming-x-trio/37.html

Kleiner Hinweis noch bezüglich "Verbrauchswunder" und RDNA2: Im Test von Igor ist die RX 6800 in DXR sogar effizienter als eine 3080 FE oder 3090 FE. So viel zu meilenweit überlegen... teilweise nicht einmal in RT!

Gast
2023-08-22, 14:25:57
Diskurs: Der Makel von RDNA2 war das sie ab WQHD einbrachen, wo Nvidia Ampere erst auslasten konnte. Ampere 3080+ war also für deutlich höher aufgelösten Content konzipiert, also höhere Pixelmengen und dafür braucht man nunmal mehr Energie. AMD kann es wie man es nun sieht auch nicht besser. Die 3090ti klammere ich dabei komplett aus, die Karte brauchte niemand, war eher ein limitierter Fanartikel um die 6950 bzw die 6900xtxh zu schlagen. Raff hat ja gleich mal seine 3900 verkauft um dann im Durchschnitt +3-5% zu kaufen, für Mondpreise.
Äh, nein. Schau dir die Skalierung von Ampere, RDNA2 und Turing über die Auflösungen an. RDNA2 und Turing liegen da quasi gleich, Ampere bricht einfach bei Auflösungen unter QHD ein, weil es die Shader nicht mehr vernünftig ausgelastet bekommt. Das ist ähnlich, wie bei AMDs Vega, nur nicht ganz so krass.

Gast
2023-08-22, 14:31:51
Mit keine miesen machen bin ich deiner Meinung.
Meine Vermutung ist halt, das AMD selbst noch nicht so überzeugt ist von seinen Cipletdesign, sonst gäbe es nicht solche Gerüchte.

Bei der 4080er würde ich eben nicht 50% L2 cache abziehen, sondern spannender fände ich wie groß währe ein AMD 7900 XTX mit gleichem GCD, IO und L3 cache als Monolith in N5 gefertigt, und was kostet letztendlich mehr?
Das Packaging wird wohl auch nicht gratis sein, ebenso der Energieverbrauch der Verbindungen.
Naja, statt der 529mm^2 wäre man dann halt vielleicht bei 480-500mm^2. Dafür wäre der Chip in N5 70% größer, dazu schlechtere Ausbeute. Die MCDs bekommt AMD vermutlich fast geschenkt, da N6 und super klein je Chip. Das dürfte gegenüber einem Monolithen vermutlich selbst mit Packaging die preiswertere Lösung sein, zumindest aber nicht schlechter. Und man lernt für die Zukunft.

Gast
2023-08-22, 15:30:08
Die 7900XTX braucht quasi gleich viel/wenig als eine 4080.

Kleiner Hinweis noch bezüglich "Verbrauchswunder" und RDNA2: Im Test von Igor ist die RX 6800 in DXR sogar effizienter als eine 3080 FE oder 3090 FE. So viel zu meilenweit überlegen... teilweise nicht einmal in RT!
??? Die 6800 sieht in RT keinen Stich gegen die 3080. Ich habe selbst eine. Die ist bis zu 35% langsamer als eine 3090.

Eine xtx ballert auch mal mehr als eine 4090 raus. Aber wer Fakten ignoriert ja...478w die nitro+ und sieht keinen Stich gegen die 4090! PT ist 350w das der 4080FE 320 sie nimmt aber in Raster deutlich weniger, 260-280w.

Alles eine Frage der Wahrnehmung und sehr viel roter Bias vor allem hier. Oder willst du Ergebnisse von Techpowerup als unwahr bezeichnen, die decken sich gar mit dem denen der Pcgh.

RNDA3 ist Spritschlucker sondern gleichen. Nun schmeißt AMD dann noch den 4DNA2 Midrange in den Ring, der gallte 70-100w mehr schluckt. Aber AMD darf das die arme Firma...

Aber nehme die rote Verblödung weiter ihren Lauf. Genau da ist weder etwas billig, noch sparsam, noch moderner. Sie bieten einfach nur mehr billigen VRAM, weil AMD auch mehr davon braucht.

Gast
2023-08-22, 15:42:32
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/37.html

Exxtreme
2023-08-22, 16:24:42
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/37.html

Wobei dieses Review ziemlich alt ist. AMD hat den Stromverbrauch weitgehend in den Griff bekommen.

Gast
2023-08-22, 23:06:28
RDNA ist für Raster gut, RT sind sie nirgends eine Alternative, weder bei der Effizienz noch beim Preis. Warum hier so massiv auf dem VRAM als zukunftsweisend verwiesen wird, aber RT völlig ausgeklammert, muss mir mal einer erklären? Es kommt kaum noch ein Spiel das nicht mit RT erscheint. Da kann man halt nur NV kaufen.

@Exxtreme
Die Ergebnisse des Link vom Gast decken sich aber mit den Ergebnissen des Test der 7900GRE von der PCGH und der ist nicht "alt". Im Mittel und mit Framelimiter ist RDNA3 eine Katastrophe, genauso was Multimedia angeht. Vermutlich liegt es an der Teilung der Chiplets des MCM. Da lässt sich einfach nicht soviel abschalten wie in einem Monolyth, wenn etwas nicht gebraucht wird. Selbiges Problem gabs doch bei den Zen4 non x3d. Die saufen doch auch ohne Ende. Dazu kommt das AMD immer noch 7nm umher dödelt. n6 irgendwas ist nichts anderes. Toller Name für billigere Wafer.

AMD wird hier einfach schöngeredet, wie das die AMD Fanbojs immer machen.

Leonidas
2023-08-23, 01:23:03
RDNA ist für Raster gut, RT sind sie nirgends eine Alternative, weder bei der Effizienz noch beim Preis. Warum hier so massiv auf dem VRAM als zukunftsweisend verwiesen wird, aber RT völlig ausgeklammert, muss mir mal einer erklären? Es kommt kaum noch ein Spiel das nicht mit RT erscheint..

Das sind gute Pro-Argumente. Aber es wird hierbei missachtet, dass viele RT-Games nur kleinen oder mittelmäßigen RT-Einsatz zeigen, wo AMD gut mitkommt. Der Durchschnitt ist hierbei wenig hilfreich, jener wird durch die starken RT-Games zugunsten von NV verschoben. Nur ist halt das Problem: Starker RT-Einsatz (nur lösbar mit NV) bedeutet üblicherweise auch sehr niedrige Frameraten - bedeutet im Endeffekt höchste Chance darauf, das man das zwar bencht, aber in der Praxis ein niedrigeres Setting nutzt (oder RT in dem Titel ganz aus macht). Zusammengefasst: NV ist dort Klasse, wo RT -50% kostet, nur sind solcherart extrem fressenden BQ-Settings in aller Regel unbeliebt und werden gern deaktiviert. NV ist dort gut, wo die höchste Chance auf Deaktivierung des Features besteht.

Platos
2023-08-23, 07:44:55
Es gibt doch eig. keine einzige Grafikkarte dieser Generation, die Zukunftssicher ist und annehmbare Preise hat. Annehmbar aus Sicht von jemandem, der etwas von P/L hält.

Gast
2023-08-23, 12:32:05
RDNA ist für Raster gut, RT sind sie nirgends eine Alternative, weder bei der Effizienz noch beim Preis. Warum hier so massiv auf dem VRAM als zukunftsweisend verwiesen wird, aber RT völlig ausgeklammert, muss mir mal einer erklären? Es kommt kaum noch ein Spiel das nicht mit RT erscheint. Da kann man halt nur NV kaufen.


RT ist keine Zukunftsperspektive für irgendeine Grafikkarte.

Je weiter Spiele fortschreiten, desto weniger der vorhandenen Grafikkarten werden die nötige Performance für Raytracing mitbringen, und damit Raytracing für Spielbarkeit deaktivieren müssen.

Da Raytracing auch noch zusätzlich VRAM kostet, beschleunigt sich das nur.

Und das trifft vor allem auf Karten in dem ±8GB Segment zu die aufgrund von VRAM-Mangels Raytracing gar nicht aktivieren können, da bringt es dann auch nichts wenn das Raytracing 10x schneller ist.

Es ist also genau das Gegenteil, Karten mit geringem VRAM Ausbau und guter RT Leistung waren beim Launch zum Vorteil, je weiter die Zeit an denen nagt, desto geringer wird aber deren Vorteil, bis dann irgendwann die Karten mit großem VRAM-Ausbau im Vorteil sind, da ganz einfach irgendwann der Punkt erreicht ist an dem beide kein RT mehr aktivieren können, die Karte mit viel VRAM kann aber immerhin noch max Texturen anzeigen.

Gast
2023-08-24, 22:04:24
Wobei dieses Review ziemlich alt ist. AMD hat den Stromverbrauch weitgehend in den Griff bekommen.

Wirklich?

Man liest immer noch bei jedem Treiber "fixes" in der Richtung, und mal das es funktioniert hat und mal dass es nicht funktioniert.

Scheint mir immer noch ein ziemliches Glücksspiel zu sein.