Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 10. Juli 2024


Leonidas
2024-07-11, 09:18:11
Link zur News:
https://www.3dcenter.org/news/news-des-10-juli-2024

dildo4u
2024-07-11, 09:39:43
Der 7950X ist 100€ teuer und langsamer als 14700k laut PCGH, der 9900X scheint zumindest Performance zu fixen Preise muss man abwarten.

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/2

14700k MC 19272

https://browser.geekbench.com/processors/intel-core-i7-14700k


Alle Modelle drüber sind imo uninteressant egal ob AMD oder Intel.

Zossel
2024-07-11, 09:42:34
Generell erscheint es als möglich, dass über ein größeres Benchmark-Feld gesehen AMDs Zen 5 eventuell einen (etwas) größeren Sprung bei der Singlethread- als der Multithread-Performance hinlegt, dafür aber eben bei der Energieeffizienz sehr deutlich davonzieht.

Würde zu der Auslegung für Server passen, die ZenX CPU-Dies sind ja primär für Server ausgelegt.

Aroas
2024-07-11, 09:55:42
Der 7950X ist 100€ teuer und langsamer als 14700k laut PCGH...

Aber eben nur in den von PCGH angestrengten Benchmarks.
Benchmarks sind aber nur ein Indikator, nicht aber wirklich aussagekräftig zur realen Leistung in Produktivsoftware.
Man müsste sich also eher mal tatsächliche Anwendungsfälle anschauen um zu sehen, ob die Intel CPU tatsächlich besser ist als die 100€ teurere AMD Version.

Leider schlüsselt PCGH da auch nicht die Einzelergebnisse auf, damit man sehen könnte, wo evtl. ein größerer Ausreißer dabei ist.

Ich glaube nicht, dass sich diese 100€ mehr für die AMD CPU halten könnten, wenn der 14700K wirklich durchgängig die bessere CPU wäre.

EDIT: Das ganze Diagramm kann irgendwie auch gar nicht stimmen. Denn schon der 7800X3D hat beim Gaming keine Probleme selbst den 14900K zu toppen. PCGH sieht hier aber laut dem Diagramm einen Gleichstand.

Gastanjette
2024-07-11, 09:56:53
14700k MC 19272

Alle Modelle drüber sind imo uninteressant egal ob AMD oder Intel.

die CPU ist leider völlig unbrauchbar, passt die doch nicht auf den AM5 Sockel.

dildo4u
2024-07-11, 10:04:14
EDIT: Das ganze Diagramm kann irgendwie auch gar nicht stimmen. Denn schon der 7800X3D hat beim Gaming keine Probleme selbst den 14900K zu toppen. PCGH sieht hier aber laut dem Diagramm einen Gleichstand.
PCGH testet Ryzen nicht mit DDR5 6000(sondern Spec 5200 vs Intel Spec 5600) und natürlich hängt es davon ab welche Games man testet.

F. Gastro
2024-07-11, 11:23:51
Aber eben nur in den von PCGH angestrengten Benchmarks.
Benchmarks sind aber nur ein Indikator, nicht aber wirklich aussagekräftig zur realen Leistung in Produktivsoftware.
Man müsste sich also eher mal tatsächliche Anwendungsfälle anschauen um zu sehen, ob die Intel CPU tatsächlich besser ist als die 100€ teurere AMD Version.

Leider schlüsselt PCGH da auch nicht die Einzelergebnisse auf, damit man sehen könnte, wo evtl. ein größerer Ausreißer dabei ist.

Ich glaube nicht, dass sich diese 100€ mehr für die AMD CPU halten könnten, wenn der 14700K wirklich durchgängig die bessere CPU wäre.

EDIT: Das ganze Diagramm kann irgendwie auch gar nicht stimmen. Denn schon der 7800X3D hat beim Gaming keine Probleme selbst den 14900K zu toppen. PCGH sieht hier aber laut dem Diagramm einen Gleichstand.

Jo, das hat irgendwie Methode bei diesem Medium. AMD wird gefühlt in einem schlechteren Licht dargestellt, aber natürlich ganz subtil, damit man sich rausreden kann.

Gast
2024-07-11, 12:14:42
interessanterweise sogar durchgehend die größeren nVidia-Modelle vor den kleineren. Hier spielt sicherlich mit hinein, dass auch für Enthusiasten-Grafikkarten FullHD-Benchmarks mit in die Kalkulation eingeflossen sind, resultierend in einem untypisch niedrigen Durchschnitts-Verbrauch der GeForce RTX 4090 von nur 355 Watt

Das wäre komplett untypisch. Klar sinkt in CPU-Limitierten Szenarien die Leistungsaufnahme, aber normalerweise bei weitem nicht so stark wie der oft gar nicht mehr vorhandene Performancevorteil.

Das Verwenden niedriger Auflösungen schwächt somit die errechnete Effizienz starker Grafikkarten.

Dass größere Grafikkarten am Ende effizienter sind ist dagegen gar nicht mal so unüblich, wenn diese nicht mit der Brechstange aufs letzte Prozent an Performance getrimmt werden.

Breitere GPUs mit niedrigerem Takt sind üblicherweise effizienter als kleinere GPUs mit höherem Takt.

Gast
2024-07-11, 12:17:08
Entgegen der bisherigen Erwartungen, Intel können den Stromdurst seiner eigenen Prozessoren zukünftig etwas zügeln, soll Arrow Lake-S laut Leaker Jaykihn über einen höheren ICCmax-Wert als der Raptor Lake Refresh verfügen: 347A anstatt 307A wie beim Vorgänger.

Das sagt überhaupt nichts über die Leistungsaufnahme aus.

Arrow-Lake-S basiert auf der ersten GAA Generation, welche, für welche anzunehmen ist, dass die Versorgungsspannung ähnlich der ersten FINFET-Generation sinken wird.
Für die selbe Leistungsaufnahme muss also mehr Strom fließen.

Leonidas
2024-07-11, 12:21:36
Das wäre komplett untypisch. Klar sinkt in CPU-Limitierten Szenarien die Leistungsaufnahme, aber normalerweise bei weitem nicht so stark wie der oft gar nicht mehr vorhandene Performancevorteil.

Typisch gesehen hast Du Recht. Die 4090 ist hier der Sonderfall, welche unter FHD drastisch weniger verbrauchen kann, weil sie einfach ständig im CPU-Limit hängt. Die Verbrauchs-Differenz gegenüber höheren Auflösungen ist in diesem speziellen Fall größer man unter FHD an Performance-Aufschlag gegenüber den kleineren Karten verliert.

Raff
2024-07-11, 12:27:48
Ada beherrscht einen effizienteren Teillastbetrieb (Full HD auf einer RTX 4090 ist eine solche Teillast) als RDNA 3 & Co. Nicht vermeidbare Teillast stärkt somit die teillasteffizientere Architektur.

Jo, das hat irgendwie Methode bei diesem Medium. AMD wird gefühlt in einem schlechteren Licht dargestellt, aber natürlich ganz subtil, damit man sich rausreden kann.

Schlicht und ergreifend Quatsch. Einige lernen wohl nie, dass PCGH daten- und nicht gefühlsgetrieben arbeitet. Woran man das erkennt? An den unzähligen Daten. ;)

MfG
Raff

Gast
2024-07-11, 12:57:32
Nicht vermeidbare Teillast stärkt somit die teillasteffizientere Architektur.



Klar, aber nicht innerhalb der selben Architektur. Auch wenn die 4090 sehr gut mit Teillast umgehen kann, verbraucht sie in der Regel in 1080p immer noch mehr als eine kleinere Ada, hat dann aber keine Performancevorteile mehr und somit eine schlechtere Effizienz.

Ätznatron
2024-07-11, 13:03:41
Jo, das hat irgendwie Methode bei diesem Medium. AMD wird gefühlt in einem schlechteren Licht dargestellt, aber natürlich ganz subtil, damit man sich rausreden kann.

Ich denke nicht, dass das nur gefühlt so ist. Zieht sich meiner Erfahrung nach tatsächlich wie ein roter Faden durch die PCGH-Berichterstattung, alle Beteuerungen von Seiten PCGH hin oder her.

Raff
2024-07-11, 13:55:58
Bleibt Quatsch. Ich weiß das zufällig aus erster Hand. ;)

MfG
Raff

Ätznatron
2024-07-11, 14:16:47
Bleibt Quatsch. Ich weiß das zufällig aus erster Hand. ;)

MfG
Raff

Ist ja in Ordnung, wenn du das so siehst. Würde ich an deiner Stelle ja auch schreiben. ;)

Trotzdem bleibt ein Geschmäckle.

Raff
2024-07-11, 14:33:39
Dafür gibt es eine ganz einfache Erklärung: Wer das so sieht, liest nicht alles zum Thema, sondern selektiv. Ich hatte nach den wiederholten Lobhudeleien rund um den 7800X3D (Aufrüstbericht, Effizienz-Tuning etc.) eigentlich mal wieder anderslautende Kommentare erwartet. Aber diese Artikel stecken weitestgehend hinter der Paywall. Nichtsdestotrotz bleibt unterm Strich: Spezifikationen -> Daten -> keine Gefühle -> kein Geschmäckle. :)

MfG
Raff

maximus_hertus
2024-07-11, 18:49:26
Jo, das hat irgendwie Methode bei diesem Medium. AMD wird gefühlt in einem schlechteren Licht dargestellt, aber natürlich ganz subtil, damit man sich rausreden kann.

AMD stellt sich selber ins schlechte Licht, wenn sie nur 5200 freigeben.

Die PCGH treibt einen unheimlichen Aufwand, um so korrekte Ergebnisse wie möglich zu erhalten. Ich gehe sogar soweit, dass man sehr sehr lange suchen muss, um jemanden zu finden, der ähnlich Aufwendig testet (dazu gehört weit mehr als einfach ein paar Benchmarks laufen zu lassen. Z.B. das verifizieren, Check ob alles Sinn ergibt, etc.).

Ich weiß auch ehrlicherweise nicht, warum es auf einmal ein Thema ist, dass Zen 4 ohne X3D in Games spürbar hinten liegt? Das ist doch nciht erst seit gestern der Fall?

Ob man die ausgesuchten Spiele als sinnvoll erarchtet (also den PArcours), die Settings etc., darüber kann man sicherlich diskutieren (wobei die PCGH die Messlatte sehr hoch hängt, da man eben nicht nur eine Handvoll Games testet, sondern einen richtig fetten Parcours hat).

Ob es einem gefällt oder nicht, Raptorlake ist ein sehr starker Gaming-Prozessor und auch (i7K und i9K) sehr stark bei Anwendungen. Das man sich vieles mit Bulldozer+ Stromverbrauch erkauft, ist natürlich auch korrekt.

Wenn ich eine ausgiebige Info zum Status Quo brauche, kaufe ich eine PCGH (z.B. zum Zen 5 Launch) und erhalte Tonnen von Zahlen und ich habe dann die Möglichkeit, selber für mich diese zu interpretieren. Für den einen ist Faktor A ganz wichtig, für den nächsten der Stromverbrauch und und und.

Ich muss z.B. mit einem PCGH Fazit nicht "d'accord" gehen, da ich (für mich) andere Schwerpunkte als wichtige ansehe und dadurch automatisch zu einem anderen Fazit kommen würde.


So oder so, ich bin mir ziemlich sicher, dass viele gar nicht wissen, WAS für einen Aufwand man betreiben muss, um einen solchen Launch zu stemmen.

latiose88
2024-07-11, 20:26:45
ui es geht also auch um Spiele. Wie sieht es aus wenn man nur in full HD zockt plus ohne raytracing + ohne dlls,mit framlimit die des Hz des Bildschirms entspricht also sprich 60 Hz =60 fps und 144 Hz = 144 fps.
wie schneidet denn da die rtx 4090 zu den kleinen gpus ala 75 Watt rtx 3050 in der Form aus. Ist dann die rtx 4090 genauso sparsam wie die 75 Watt gpu weil mehr fps kann sie aufgrund des Limits ja nicht mehr ziehen.
bin gespannt ob dann die rtx 4090 weniger verbraucht als eine 75 Watt gpu oder ist dies nicht möglich.

ich bin so einer der das beste zum wenig Strom wie möglich sucht.
die limits die setze ich wirklich. habe sogar meine gpu zwar nur eine gtx 1650 noch gedrosselt. weil mir das stromsparen nicht gereicht hat.
50 Watt denke ich mal brauche ich höchstens. Das wird nicht leicht sein das zu toppen. Ich habe auch nie vor mir mehr als 1080p zu holen.
sollte die rtx 4090 aber das überbieten können und beim Preis auch gut, dann wäre das ne Option. Ich bezweifle aber das die starke gpu das überbieten wird. Ich spielte sogar mit dem Gedanken mir eine 30 Watt gpu zu holen. Wobei die ist dann leider zu schwach für selbst diese starke Beschränkung. Aber mit 720p kommt die 30 Watt gpu durchaus besser zurecht. Dann holt man sich halt einen 720p Bildschirm der das nativ kann und schon hat man bei gpu eh keine Problem mehr.

Bei games 720p mit fps limit wird es bei cpu spannend weil dann die meisten cpus am Limit von mir hängen würden. Da macht ne starke CPU dann keinen Sinn mehr.
und ja den Gedanken hatte ich mal im Kopf gehabt. denke mal für ne rtx 4090 wird dann im idle hängen weil die last zu gering wäre.
soweit ich das sehe macht es bei mir also keinen Sinn mir so eine starke gpu zu holen. Bei der CPU sieht es villeicht mit dem ganzen anderst aus weil ich ganz sicher im CPU Limit hänge.

Gast
2024-07-12, 07:08:41
ui es geht also auch um Spiele. Wie sieht es aus wenn man nur in full HD zockt plus ohne raytracing + ohne dlls,mit framlimit die des Hz des Bildschirms entspricht also sprich 60 Hz =60 fps und 144 Hz = 144 fps.
wie schneidet denn da die rtx 4090 zu den kleinen gpus ala 75 Watt rtx 3050 in der Form aus. Ist dann die rtx 4090 genauso sparsam wie die 75 Watt gpu weil mehr fps kann sie aufgrund des Limits ja nicht mehr ziehen.
bin gespannt ob dann die rtx 4090 weniger verbraucht als eine 75 Watt gpu oder ist dies nicht möglich.

Eine RTX3050 wird heute keine 60FPS mehr erreichen und die 4090 schneller sein.

Ansonsten hängt es im Detail davon ab wie weit die jeweiligen Karten vom Limit entfernt sind.

Je weiter sich die 4090 bei gegebener statischer Framerate vom GPU-Limit entfernt ist, und je näher der Kontrahent bei selber Framerate immer noch im eigenen Limit ist, desto höher sind die Chancen dass die 4090 weniger braucht.

Schnitzl
2024-07-12, 09:58:15
ui es geht also auch um Spiele. Wie sieht es aus wenn man nur in full HD zockt plus ohne raytracing + ohne dlls,mit framlimit die des Hz des Bildschirms entspricht also sprich 60 Hz =60 fps und 144 Hz = 144 fps.
wie schneidet denn da die rtx 4090 zu den kleinen gpus ala 75 Watt rtx 3050 in der Form aus. Ist dann die rtx 4090 genauso sparsam wie die 75 Watt gpu weil mehr fps kann sie aufgrund des Limits ja nicht mehr ziehen.
bin gespannt ob dann die rtx 4090 weniger verbraucht als eine 75 Watt gpu oder ist dies nicht möglich.

ich bin so einer der das beste zum wenig Strom wie möglich sucht.
die limits die setze ich wirklich. habe sogar meine gpu zwar nur eine gtx 1650 noch gedrosselt. weil mir das stromsparen nicht gereicht hat.
50 Watt denke ich mal brauche ich höchstens. Das wird nicht leicht sein das zu toppen. Ich habe auch nie vor mir mehr als 1080p zu holen.
sollte die rtx 4090 aber das überbieten können und beim Preis auch gut, dann wäre das ne Option. Ich bezweifle aber das die starke gpu das überbieten wird. Ich spielte sogar mit dem Gedanken mir eine 30 Watt gpu zu holen. Wobei die ist dann leider zu schwach für selbst diese starke Beschränkung. Aber mit 720p kommt die 30 Watt gpu durchaus besser zurecht. Dann holt man sich halt einen 720p Bildschirm der das nativ kann und schon hat man bei gpu eh keine Problem mehr.

Bei games 720p mit fps limit wird es bei cpu spannend weil dann die meisten cpus am Limit von mir hängen würden. Da macht ne starke CPU dann keinen Sinn mehr.
und ja den Gedanken hatte ich mal im Kopf gehabt. denke mal für ne rtx 4090 wird dann im idle hängen weil die last zu gering wäre.
soweit ich das sehe macht es bei mir also keinen Sinn mir so eine starke gpu zu holen. Bei der CPU sieht es villeicht mit dem ganzen anderst aus weil ich ganz sicher im CPU Limit hänge.

schau mal hier: Computerbase - Leistungsaufnahme ... etwas runterscrollen für Spiele (https://www.computerbase.de/2024-01/nvidia-geforce-rtx-4080-super-review-test/4/#abschnitt_leistungsaufnahme_spiele_youtube_desktop)

ich selbst hab die letzten Monate immer wieder rumprobiert wie ich mit möglichst wenig Aufwand die 7800XT auf möglichst wenig Watt/Verbrauch bringe.
- Powertarget im Treiber auf -10% (mehr geht nicht und nein ich fange jetzt nicht wieder an mich aufzuregen :freak: )
- leichte Begrenzung bei max Spannung und max Frequenz
- fps-Begrenzung in Spielen

Am Meisten bringt letzteres (wenn es das Spiel anbietet) - jedoch ist das dann natürlich Spielabhängig, d.h. in meinem Fall mit D2R konnte ich dank Freesync auf max 70fps runtergehn, ohne dass ich was merke. Muss dazusagen dass das für mich der wichtigste Punkt ist, das Spiel muss einwandfrei und fluffig laufen, lieber brauche ich 10 oder 20 W mehr als das es irgendwo hakt oder sonstiges....

Fazit: von 240-250W hab ich jetzt bei fordernden Spielszenen unter 150W, im normalen Spiel 120-130W

disclaimer: natürlich ist das ein "dankbares" Spiel, bei z.B. Cyberpunk, Starfield oder Shootern wird das nicht möglich sein - da wirds ggf. sogar schwierig unter 200W zu kommen. Da ich sehr wenig Zeit hab (andere hätten das für was ich Monate gebraucht hab, in einer Woche gemacht) werde ich da erst Ende des Jahres dazu kommen da weiterzutesten...

lange Rede kurzer Sinn: bei einer 4090 mit Afterburner (ich weiss nicht ob die nVidia App die obigen Begrenzungen schon anbietet) und einem fps-lock auf z.B. 90fps kommt man vermutlich auf 60W runter, evtl. sogar weniger?
wenns mir mal langweilig wird, kauf ich die 4070tiS und probiers da aus wie weits runter geht :D

Radeonfreak
2024-07-12, 10:26:00
Schlicht und ergreifend Quatsch. Einige lernen wohl nie, dass PCGH daten- und nicht gefühlsgetrieben arbeitet.

MfG
Raff

Bei David Ney und seinem Hass auf den 7950x3d hab ich da so meine Zweifel.
Das trieft doch aus jedem Beitrag.

latiose88
2024-07-12, 13:33:29
Eine RTX3050 wird heute keine 60FPS mehr erreichen und die 4090 schneller sein.

Ansonsten hängt es im Detail davon ab wie weit die jeweiligen Karten vom Limit entfernt sind.

Je weiter sich die 4090 bei gegebener statischer Framerate vom GPU-Limit entfernt ist, und je näher der Kontrahent bei selber Framerate immer noch im eigenen Limit ist, desto höher sind die Chancen dass die 4090 weniger braucht.
Ja das mag sein das die rtx 3050 heute bei aktuellen Games es nicht mehr schafft,aber ich schrieb das ich nur alte Games habe.Ich habe jedoch keine RTX 4090 um zu schauen wie sparsam sich diese GPU bei den alten Games bezüglich des Stromverbrauchs verhält.
In alte Games wie mindestens 6 Jahre und älter mit nur 1080p @ 144 & 60 FPS bzw 72 fps .Wie weit lässt sich die GPU bei Takt und Speichertakt maximal senken und schafft die rtx 4090 unter 60 Watt oder ist dies nicht mehr möglich trotz dieser Limitierung?

Lehdro
2024-07-12, 16:18:08
Bei David Ney und seinem Hass auf den 7950x3d hab ich da so meine Zweifel.
Das trieft doch aus jedem Beitrag.
Wobei viel von der Kritik im Auslieferungszustand durchaus valide ist, die CPU ist so eher sinnfrei. Das man mit minimalem Aufwand aber sehr schnelle, praktikable Werte erreichen kann zeigt CapFrameX öfter mal auf Twitter. Der testet das Ding immer als CCD0, CCD1 (per Affinity über CFX) und mit automatischer Zuweisung per Treiber. Spoileralarm: Es gibt bei Spielen meist mehr Unterschied zwischen automatischer Zuweisung und @Cache CCD only, als man vermuten sollte. Treibermodus kann tatsächlich manchmal punkten, auch wenn oft das Cache CCD alleine an der Spitze ist. Es bleibt also eine CPU für Leute die selber Handanlegen wollen, oder das zumindest machen würden um das Optimum herauszuholen.

Gast
2024-07-13, 11:20:06
der vorgänger zum 9900x war der 7900x und das ist, und bleibt eine komplett unnütze cpu. genau hier wird jezt zum 9900x ein kleines wunder im vorfeld gehypt.

holzauge sei wachsam und ja, die ernüchterung wird kommen.

wer bitte kauft einen 7900x oder 7900x3d? kein mensch. wer anwendungsleistung will kauft den 7950x, wer gamingleistung will kauft den 7800x3d. der 7900 egal in welcher variante musste in den tests nach erscheinen massiv federn lassen, genau das ist amds problem, er verkauft sich zurecht nicht. damit kannst du mittlerweile aus den lagerbeständen heraus ganze strassen pflastern. niemand ordert noch den 7900, egel welche variante. es braucht nicht mal den 14700k um aufzuzeigen, dass diese cpu eigentlich komplett überflüssig ist. es ist die überteuerte resteverwertung für amd, die für amd wichtig ist und nichts weiter, weil man waferkapazitäten bei tsmc teuer zahlen muss, die lassen sich alles vergolden. den 7900x und 9900x braucht kein mensch. nur so, dafür das diese dices ausschuss sind, ist der 7900x dazu noch ziemlich teuer. ist all der schrott der bei epyc aussortiert wird.

natürlich wird nun der 9900x massiv mit wunderbenchmarks im vorfeld gehypt, amds marketing ist so primitiv. 7950 und 7800 sind vollwertige dice aus der epyc fertigung, die amd bei der 9000 serie für was anderes braucht, teuer im ai blasen hype als epyc verscherbeln.

übrigens, die pcgh bewirbt sogar die zen cpus und verbaut sie auch in pcgh pc kisten, warum sollte man da in tests intel bevorzugen. selten so einen bullshit gelesen.

ziemlich lustig ist übrigens das man singlecore ja nicht braucht, die zukunft ist multicore, so amd. aha deshalb erhöht man jetzt die singlecoreleistung und lässt multicore da wo es ist, ja lol. quatschköpfe bei amd.

Gast
2024-07-14, 11:55:05
7950 und 7800 sind vollwertige dice aus der epyc fertigung....
Die des 9900x anfänglich auch und genau das, ist das Problem. Während es anfänglich "vollwertige" mit einer deutlich besseren ViD sind, sind es später absolute Krücken, nämlich dann wenn man genug Ausschuss gesammelt hat und vollwertige CCDs nicht cutten muss. Diese Dinger halten den Boostclock usw. bei niedriger elektischer und thermischer Belastung viel öfter und länger als der Ausschuss der vom Rand eines Wafers kommt. Es ist der Züchtung des Siliziums geschudelt, dass das so ist. AMD nennt es dann Serienstreuung, ich nenne es gezielten Betrug am Kunden. Man launcht mit ach so tollen Ergebnissen, um einem dann später Ausschuss teuer unterzujubeln.

Das Problem ist, niemand überprüft es nachträglich. Weder Stabilität, noch Haltbarkeit, noch das dynamische Taktverhalten.

Und aufgrund der Bauweise mit einzelenen Asic fällt es AMD ziemlich leicht das so zu machen.

Lehdro
2024-07-14, 13:53:33
AMD war selber über die Verkäufe vom 3900X und 5900X erstaunt was auch der Grund ist, dass die anderen x9xxer CPUs immer mit so hohen Preisen starten sollen. Man weiß es einfach nicht besser und nimmt es halt mit.

Dass die CPUs allerdings designtechnisch für die meisten Anwendungsfälle nur die zweite Wahl sind, zeigte sich immer erst später. Wenn man sich aber die Preise vom 7900X und dem 7900X3D anschaut, weiß aber mittlerweile scheinbar jeder was los ist. 6 Core Chiplets sind eher nicht so mega...