PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. September 2023


Leonidas
2023-09-07, 07:13:09
Link zur News:
https://www.3dcenter.org/news/news-des-6-september-2023

GerryB
2023-09-07, 08:06:02
Das die Kleine erstmal nicht so läuft liegt wohl an noch vorh. RDNA2.
Später kann sich Das noch ändern. (und auch der Preis)

Momentan treibt AMD quasi die Käufer zu RDNA2-Restbeständen.

Die reine Wahl zw. 7700xt und 7800xt könnte man als Aufrüster auch an seinem vorh. NT festmachen.
Wenn die Kleine damit läuft, gibts keine Zusatzkosten. Evtl. würde die Größere schon ein neues NT brauchen.

Loeschzwerg
2023-09-07, 08:18:05
7700XT und 7800XT haben ziemlich genau die gleiche Leistungsaufnahme. Einige Tests zeigen sogar dass die 7700XT hier und da ein paar wenige Watt mehr aus der Dose zieht also die 7800XT. Aktuell lieber 60€ mehr für die 7800XT.

Leonidas
2023-09-07, 08:25:49
Bei 20% Performance-Differenz lohnt es nicht über 10% Preisdifferenz nachzudenken.

Platos
2023-09-07, 09:43:04
Man muss mal auch noch erwähnen, dass das Euroland und speziell Deutschland auch einfach verkackt hat mit den Hardwarepreisen.

Der Euro ist kacke und dazu kommt noch die hohe Steuer.

Dann kommt hald sowas wie ne RTX 4070 startend ab 600€ bei Geizhals raus. In anderen (nicht euro-) Ländern kostet die halt gegen 500.

Und das selbe gilt für die 7800XT.

Ich finde die RX 7800XT für 500$ eig. die einzige sinnvolle Karte von RDNA3 und sie bietet auch ein ok-es P/L (bei 500$). 500$ sind wie ne RTX 3070, nur eben mit RTX 3080 Perfomance (bei RT etwas weniger). Also das finde ich ganz ok. Auch hat sie 16GB.

Aber dann kommt halt der Euro + die hohe Mehrwertsteuer Deutschlands und schon ist das Produkt kacke xD

Der Marktpreis der RTX 4070 geht in manchen Ländern auch schon gegen 500. In DE ist er weiterhin bei stabilen 600Euro und somit ist die Karte kacke.

In dieser Generation macht in DE auch nochmals zusätzlich der Euro und die Mehrwertsteuer die Karten kacke. Das wird sich nicht mehr Ändern. Also ihr dürft euch daran gewöhnen. Stark wird der Euro nie mehr :D

Die letzten paar Generationen wurde das bei manchen Grafikkarten halt vom Hersteller einfach übernommen. Die RTX 3070 beispielsweise hatte doch auch in De ein Listenpreis von 500Euro oder? Eig. ginge das nicht von steuerlosen 500$ auf 500Euro kommt man nicht. Also bisher hat da einfach der Hersteller ein Teil übernommen.

Damit ist jetzt aber offensichtlicherweise Schluss.

Auf AMD Seite ist dann halt dank dem ewigen Preisverfall doch irgendwann 500Euro erreicht (zum Glück). Dann fände ich die 7800XT eig. die einzig akzeptable RDNA3 Grafikkarte l. Bei Lovelace-Karten haltet sich der Preis ja enorm "gut" in DE.

Complicated
2023-09-07, 09:58:06
Es ist einfach immer wieder schwer zu lesen wie schlecht du im Einordnen unternehmerischer Absichten bist - wie kann AMD danebengreifen, wenn du im Folgesatz beschreibst wie AMD genau das erfolgreich umsetzt was sie strategisch wollten: 10x mehr Absatz für die teurere GPU bei Launch:
Hier hat AMD schlicht schon bei der Preisfestsetzung zur Radeon RX 7700 XT danebengegriffen, jene Karte hätte eigentlich für 399 Dollar bzw. 439 Euro antreten sollen. Durch diese eindeutige Rollenverteilung pro der Radeon RX 7800 XT konzentrierten sich die Launchtag-Absätze auch überdeutlich auf jene größere Navi-32-Karte. Bei der Mindfactory verkaufte sich die Radeon RX 7700 XT in den ersten 12 Stunden ab Verkaufsstart nur ca. 40mal, die Radeon RX 7800 XT hingegen gleich ca. 400mal. Die Radeon RX 7700 XT legt somit einen Verkaufsstart auf dem (sehr unterdurchschnittlichen) Niveau der Radeon RX 7600 hin, während der Verkaufsstart der Radeon RX 7800 XT jenen der GeForce RTX 4070 schlägt und knapp hinter der GeForce RTX 4070 Ti den zweitbesten des Jahres markiert.
Dann schreib doch einfach, dass AMDs Preisstrategie zwar aufgeht, aber für den informierten Käufer das Upselling eine Marketingstrategie ist, derer man sich bewusst sein soll.

Wenn du schon das ganze ständig falsch bewertest (du schreibst AMD hätte danebengegriffen=falsche unternehmerische Entscheidung), dann bewerte das doch bitte gar nicht - es ist einfach schrecklich so etwas zu lesen und attestiert dir echt nur Ahnungslosigkeit zu dem Thema - Sorry, für die deutlichen Worte, doch das ist ja ständig wiederkehrend.

GerryB
2023-09-07, 10:03:54
7700XT und 7800XT haben ziemlich genau die gleiche Leistungsaufnahme. Einige Tests zeigen sogar dass die 7700XT hier und da ein paar wenige Watt mehr aus der Dose zieht also die 7800XT. Aktuell lieber 60€ mehr für die 7800XT.

Das ist leider nur Theorie!
praktisch zählt das Abschalten des NT bei nem 20ms-Spike
(siehe Anhang)

Igor empfiehlt daher für die 7800xt ein größeres NT als für die 7700xt.

Das wäre mal ein schönes Review mit R 5600 + N32 an nem neuen PP12 550W vs dem alten PP11 600W.

Leonidas
2023-09-07, 10:19:48
Wenn du schon das ganze ständig falsch bewertest (du schreibst AMD hätte danebengegriffen=falsche unternehmerische Entscheidung), dann bewerte das doch bitte gar nicht - es ist einfach schrecklich so etwas zu lesen und attestiert dir echt nur Ahnungslosigkeit zu dem Thema - Sorry, für die deutlichen Worte, doch das ist ja ständig wiederkehrend.

Ich schrieb aus reiner Käufer-Sicht. Da ist der Preis daneben.

Das ändert nichts daran, dass Deine Bewertung aus Unternehmer-Sicht wahrscheinlich korrekt ist. Sollte ich bei Gelegenheit mal mit erwähnen.

Complicated
2023-09-07, 10:22:03
Ich schrieb aus reiner Käufer-Sicht. Da ist der Preis daneben.

Das ändert nichts daran, dass Deine Bewertung aus Unternehmer-Sicht wahrscheinlich korrekt ist. Sollte ich bei Gelegenheit mal mit erwähnen.Die Käufersicht kannst du ja beschreiben - aber schreib es dann aus Käufersicht und nicht als ob AMD da einen Fehler bei der Preisansetzung gemacht hat.

Deine Wordings beschreiben nicht was du hier erläuterst.

Gast
2023-09-07, 10:33:25
Das ist leider nur Theorie!
praktisch zählt das Abschalten des NT bei nem 20ms-Spike
(siehe Anhang)

Die 30W machen aber auch keinen Unterschied, und vor allem keinen den man vor dem Kauf wissen kann.

Nicht unmöglich dass ein Netzteil so knapp dimensioniert ist, dass eine 7700XT noch geht, eine 7800XT nicht mehr, aber sehr unwahrscheinlich, und vor allem nichts was man langfristig als stabil bezeichnen könnte. Wenn die 30W schon den Unterschied ausmachen, dann kann der ja auch von einem anderen Gerät kommen, die GPU hängt ja nicht alleine am Netzteil. Da kommt vielleicht ein Spiel mit besserer Mehrkernausnutzung und schon konsumiert die CPU um 30W mehr.

Leonidas
2023-09-07, 10:39:55
Deine Wordings beschreiben nicht was du hier erläuterst.

Jedenfalls nicht ausreichend genug, um sonnenklar zu sein. Ist angekommen.

Complicated
2023-09-07, 10:43:55
Danke dir :)

GerryB
2023-09-07, 11:10:18
Da kommt vielleicht ein Spiel mit besserer Mehrkernausnutzung und schon konsumiert die CPU um 30W mehr.
Soweit ich mich erinnere, hatte Igor bei so nem Versuch die NT´s abzuschalten mit mehreren Games getestet und es gab dann sogar ne Übersichtstabelle.

Glaube, das war mit RDNA2 vs Ampere.

btw.
Man könnte natürlich auch einfach im Hintergrund ne zusätzliche Last auf die CPU legen, wenn man sich net sicher ist.

Mich interessiert halt mal, ob das PP12 soviel besser ist als das PP11.

Aroas
2023-09-07, 11:11:28
AMD betreibt hier ganz klares Upselling. Und die Käufer schlucken es. Also alles richtig gemacht.
Ich bin gespannt, wie lange die 7700XT in den Händlerregalen herumgammeln muss, bis diese die Preise deutlich senken.
489€ sind schlicht völlig utopisch für diese Karte.

Die Sapphire Pulse RX 7700XT gibt es heute bereits bei notebooksbilliger.de für ca. 478€.

Gast
2023-09-07, 12:01:47
Nichts Besonderes - kein must have, weder preislich noch was die Leistung oder Effizienz angeht. Die übliche Kost von AMD. Wer was besseres will kauft Nvidia.

Welchen Sinn die 7800xt macht? Sorry aber ich verstehe es nicht, eine 6800xt bekommt man genauso undervoltet. Die 7700xt sieht gegen eine 4060ti mit 16GB und DLSS+FG+RT die Sonne nicht. Dagegen ist die 4060 ein winziger Chip.

RDNA3 ist schon nicht besonders gut, aber N32 ein ein kompletter Reinfall.

7800xt=7700xt=337 bis 449$
7700xt=7650xt=279 bis 319$

Zwischen der 7800xt und der 7900xt jetzt 300$ Unterschied. Da kommt man mit dem 7900gre OEM Bullshit den kein Mensch kaufen kann. Sorry AMD Abzocke vom Feinsten. Während die 6800xt noch die 3080 gut in Schach halten kann und nur unter RT schwächen hatte, dreht eine 4070ti um die 7800xt Kreise, ganz zu schweigen von einer 4080.

AMD das neue Nvidia. Mondpreise, melken, manuipulieren, abzocken. FY AMD!

Nievida 7080XTGRE 12G*16³FY von AMD. Und sie kommen damit durch.

Loeschzwerg
2023-09-07, 12:02:10
Das ist leider nur Theorie!
praktisch zählt das Abschalten des NT bei nem 20ms-Spike
(siehe Anhang)

Das liegt aber auch daran weil die XFX 7800XT MERC entsprechend übertaktet ist, die normale MBA ist völlig harmlos. Die Empfehlung von 550 (7700) zu 650W (7800) halte ich leider für hoffnungslos übertrieben.

etp_inxession
2023-09-07, 13:11:35
Welchen Sinn die 7800xt macht?


Pipecleaner für weitere Chiplet Designs. Wie alle RDNA3 Ableger.
Der Sprung steht nVidia erst noch bevor. Und kann auch eine Generation bringen die nicht weit besser ist als der Vorgänger.



AMD das neue Nvidia. Mondpreise, melken, manuipulieren, abzocken. FY AMD!


Es fehlt nVidia und auch Intel in deiner Liste.

Intel trieb es auf die Spitze mit 5% Mehrleistung bei 20% Mehr Preis pro Generation. Bis Zen kam.

nVidia hat schon immer hohe Preise.

AMD passt sich daran eben an.

nVidia könnte ja auch mal günstiger sein als AMD. Sind sie aber nicht ...

Aroas
2023-09-07, 13:12:41
RDNA3 ist einfach kein großer Wurf von AMD.
Abseits der 4090 und 4080 ist aber auch die 4000er NVidia Serie nicht wirklich pralle.

Gast
2023-09-07, 13:20:42
Intel trieb es auf die Spitze mit 5% Mehrleistung bei 20% Mehr Preis pro Generation. Bis Zen kam.


Welche 20% Mehrpreis? Intel hat die Preise erst mit angehoben, Nachdem AMD mit Zen eine neue Preisstruktur etabliert hatte.



nVidia könnte ja auch mal günstiger sein als AMD. Sind sie aber nicht ...

Wieso sollten sie? Sie sind unangefochtener Marktführer, und können kaum noch Marktanteile gewinnen. Normalerweise sollte der, der Marktanteile gewinnen will den Marktführer mit niedrigeren Preisen unter Druck setzten.

Gast
2023-09-07, 13:41:01
Warum klingen die Nachrichten bezogen auf AMD immer Negativ. Hier
„Die besten Preise beider neuen RDNA3-Karten notieren auf der offiziellen UVP – und konnten diesen Preis auch halten. Die vorherige Befürchtung, die Radeon RX 7700 XT könnte sich ohne Referenz-Design höher als AMDs UVP einordnen“
Und bei Nvidia und Intel positiv: „Im Gegensatz zur vorhergehenden GeForce RTX 4060 Ti gibt es von der "GeForce RTX 4060" keine Founders Edition und auch kein Referenz-Design, die Grafikkarten-Hersteller können somit vollkommen frei agieren.“ Wobei ich auf Grund des Kontrollzwanges von Nvidia dieses nicht glaube.

Ist das so schwer neutral, wie es sich für eine unabhängig und neutrale Person gebietet, zu verhalten. Das 3D Center mittlerweile von seltsamen Gestallten bevolkert werden, die dem Zeitgeist entsprechend, selbst jahrhundertalte abendländische Rechtskultur pervertieren und ins Gegenteil verkehren. Die ganze Diskussion der letzten Tage zu AMD und Starfield zeigt ein neuen Tiefpunkt in einer langen Historie an Tiefpunkten in der Diskussions- und Forenkultur dar.
Mal davon abgesehen, dass einem Hersteller mit geringer Marktmacht ( nichtmal 20%) gegenüber einem Hersteller mit herausrangender Stellung (Marktanteil von 80% + x%) mehr Möglichkeiten eingeräumt werden, gilt hier im Forum der Gegenteilige Fall. Sonst hätte Intel beispielsweise ihr Atom-Prozessoren nicht in Geldscheine einwickeln dürfen um auf dem Mobilprozessoren Fuß zu fassen. Das dieses nicht geklappt hat, liegt mehr in der Inteltypischen Qualität der entsprechenden Prozessoren als am Geld.
Ein paar Dinge würde ich gerne wissen. Wieso wird behaupt, dass Nvidia um sovieles besser ist, wenn diese Aussage im Grund nur auf massiv von Nvidia beeinflusste und gesponsorten Spiele zurückgeht. Auch warum diese Spiele in einem Vergleich ohne diese Information für einen neutralen Vergleich genutzt werden? Warum werden die Leuchtturm-Projekte von AMD eigentlich immer dieser Umstand genannt und aus irgendeinen meist recht geringfügigen Grund nieder gemacht? Wieso wird die Möglichkeit, dass die achso überlegene Nvidia Technik nur auf Grund massiver Auslegung auf deren Vorteile besteht, nicht nur ignoriert sondern als verbotenes Wissen behandelt.
Außerdem AMD hat sich in der Vergangenheit und im Gegensatz zu Intel und Nvidia im Grunde nur um die positive Darstellung ihrer eigenen Technik gekümmert. Im Gegensatz dazu hat Valve Nvidia nicht ohne Grund als Grafic Mafia bezeichnet., denen es nur um den eigenen Vorteil geht. Warum vergessen beispielsweile die Maßnahmen wie den extensiven gebrauch von Tressaltion nur um AMD mehr zuschaden. Oder diesen Vertrag mit den einschränkunge der freien Berichterstattung den die fast gesamte TechPresse mit Nvidia geschlossen hat.


PS.: Allerdings wird mit ll geschrieben.

Complicated
2023-09-07, 13:56:22
Das liegt aber auch daran weil die XFX 7800XT MERC entsprechend übertaktet ist, die normale MBA ist völlig harmlos. Die Empfehlung von 550 (7700) zu 650W (7800) halte ich leider für hoffnungslos übertrieben.
+1

Gast
2023-09-07, 14:11:22
Warum klingen die Nachrichten bezogen auf AMD immer Negativ. Hier


Weil so ziemlich alles was man über AMD Grafikkarten berichten kann negativ ist?

Ganz im Gegensatz zu den CPUs.

Leonidas
2023-09-07, 14:59:47
PS.: Allerdings wird mit ll geschrieben.

Gefixt.

Mit dem Rest Deines Postings kann ich leider wenig anfangen. Das ist mehr eine Einschätzung (die ich natürlich lese und verarbeite) als denn Kritik an einer konkreten Sache. Ok, war womöglich auch genau so gedacht.

Smee
2023-09-07, 16:08:41
Weil so ziemlich alles was man über AMD Grafikkarten berichten kann negativ ist?

Naja das würde ich so jetzt nicht pauschalisieren.
Von meiner 5700 XT aus auf ne 7800 XT Upzugraden würd sich schon lohnen.
Mal sehen wie sich die Preise entwickeln:smile:

Dino-Fossil
2023-09-07, 16:15:36
Vielleicht ist Raptor Lake aufgrund irgendeiner Hardware-Eigenschaft wirklich einfach super gut für Starfield geeignet, aber wir sollten nicht vergessen, dass wir hier von Bethesda reden, die es bei Skyrim z.B. vergessen hatten, für AMD-Prozessoren die Optimierungs-flags im Compiler zu aktivieren und das erst nach Wochen (und mehreren Fan-Patches) gefixt hatten.

MiamiNice
2023-09-07, 16:21:44
Ich denke es ist das schnellere Speichersubsystem bei den Intels. Auch Infinity Fabric vs. Ringbus dürfte eine Rolle spielen (Intercore Latenz und Co.). Intel CPUs waren schon immer weit besser zum spielen bei unoptimierten und VR Games. Und genau das ist Starfield - unoptimiert. Mich wundert das nicht.

Ist das so schwer neutral, wie es sich für eine unabhängig und neutrale Person gebietet, zu verhalten. Das 3D Center mittlerweile von seltsamen Gestallten bevolkert werden, die dem Zeitgeist entsprechend, selbst jahrhundertalte abendländische Rechtskultur pervertieren und ins Gegenteil verkehren. Die ganze Diskussion der letzten Tage zu AMD und Starfield zeigt ein neuen Tiefpunkt in einer langen Historie an Tiefpunkten in der Diskussions- und Forenkultur dar.
Mal davon abgesehen, dass einem Hersteller mit geringer Marktmacht ( nichtmal 20%) gegenüber einem Hersteller mit herausrangender Stellung (Marktanteil von 80% + x%) mehr Möglichkeiten eingeräumt werden, gilt hier im Forum der Gegenteilige Fall. Sonst hätte Intel beispielsweise ihr Atom-Prozessoren nicht in Geldscheine einwickeln dürfen um auf dem Mobilprozessoren Fuß zu fassen. Das dieses nicht geklappt hat, liegt mehr in der Inteltypischen Qualität der entsprechenden Prozessoren als am Geld.
Ein paar Dinge würde ich gerne wissen. Wieso wird behaupt, dass Nvidia um sovieles besser ist, wenn diese Aussage im Grund nur auf massiv von Nvidia beeinflusste und gesponsorten Spiele zurückgeht. Auch warum diese Spiele in einem Vergleich ohne diese Information für einen neutralen Vergleich genutzt werden? Warum werden die Leuchtturm-Projekte von AMD eigentlich immer dieser Umstand genannt und aus irgendeinen meist recht geringfügigen Grund nieder gemacht? Wieso wird die Möglichkeit, dass die achso überlegene Nvidia Technik nur auf Grund massiver Auslegung auf deren Vorteile besteht, nicht nur ignoriert sondern als verbotenes Wissen behandelt.
Außerdem AMD hat sich in der Vergangenheit und im Gegensatz zu Intel und Nvidia im Grunde nur um die positive Darstellung ihrer eigenen Technik gekümmert. Im Gegensatz dazu hat Valve Nvidia nicht ohne Grund als Grafic Mafia bezeichnet., denen es nur um den eigenen Vorteil geht. Warum vergessen beispielsweile die Maßnahmen wie den extensiven gebrauch von Tressaltion nur um AMD mehr zuschaden. Oder diesen Vertrag mit den einschränkunge der freien Berichterstattung den die fast gesamte TechPresse mit Nvidia geschlossen hat.

Wenn ich von hartnäckigen AMD Terroristen schreibe, meine ich genau dies ;)

Gast
2023-09-07, 16:32:46
wo gibt es denn die referenz zu kaufen? die kann selbst amd nicht liefern und das ist das ganze künstliche problem an rdna und deren preise, man manupiliert den markt mit knapper lieferbarkeit die nirgends existiert um die preise künstlich hochzuhalten.

wusste nicht das amds slogan neuerdings ist sich anzupassen, vor ein zwei jahren haben die was ganz anderes gefaselt.

neuer treiber ist auch raus, und nichts daran ist neu oder gut. antilag geht nun in bewegung bis fsr1 ausgewogen zurück mit der auflösung, zwang zu fsr in mieser qualität für alle rdna3 besitzer. das sind die ganz tollen und neuen profile für rdna 3 hyper.rx - weil das ein rohrkrepierer ist, sich von der viorhergehenden gen nicht wirklich absetzen kann und amd mal wieder anfängt die treiber über die qualitätseinstellungen zu cheaten, um so höhere leistung vorzugaukeln.

habs schon mal geschrieben, wer diesen mist zu solchen preisen kauft ist selbst schuld. für amd spricht in dieser gen einzig und allein die speicherausstatung, mcm ist kein feature für den anwender. dafür verlangt man auch genug und stellenweise doppelt so viel. das kaschiert man einfach damit, das man die namen der karten sinnlos und dafür vorteilhaft durchsortiert und ihr dann alibiweise mehr speicher mit gibt, so das man eine Konkurrnez zur 6800 non xt dann 7900xt nenen kann (aber nur eine 7800xt/7800 non xt ist), eine 6700 non xt zur 7800xt usw..

den bullshit mitr dem amd dabei um die ecke ist deren neuste strategie einschließloch der manipulation der entwicklerstudios und viel gebashe in richtung nvidia ohnen das man die je erreichen könnte. nicht in diesem leben und nicht im nächsten. das ist kein amd mehr wie man das kennt. die ganzen neuzugänge sind komplette idioten die das image dieser firma komplett zum absturz bringen und alles zerstören was man sich bisher bei den fans aufgebaut hat.

ehrlich so blind kann man nicht sein, selbst durch die rosarote brille muss das auffallen.

Lehdro
2023-09-07, 16:36:12
Ich denke es ist das schnellere Speichersubsystem bei den Intels. Auch Infinity Fabric vs. Ringbus dürfte eine Rolle spielen (Intercore Latenz und Co.).
Und ADL hat genau all dies nicht?

Nee, nicht plausibel.

Leonidas
2023-09-07, 16:38:09
Dieser große Unterschied zwischen ADL und RTL gehört einfach noch einmal solide untersucht. Irgendwo muß doch da ein rauchender Colt zu finden sein.

PS: Wenn es der L2-Cache ist, interessant insbesondere für zukünftige Intel-CPUs mit nochmals größeren L2-Caches (Arrow Lake).

Exxtreme
2023-09-07, 16:44:36
Die X3D-Varianten der AMD-CPUs haben riesige Caches. Aber die helfen hier auch nicht. Und dann ist auch noch der Windows-Scheduler so blöde und erkennt Starfield nicht als ein Spiel. Und lässt diese Büroanwendung teilweise auf den Kernen laufen, die nicht vom Zusatzcache abgedeckt sind wenn man diese Anwendung auf einem 7900X3D oder 7950X3D laufen lässt. Da muss man manuell nachhelfen und das Spiel an die Kerne pinnen.

Edit: bei Bugthesda würde es mich nicht wundern, wenn sie vergessen hätten den Release-Build im Compiler einzustellen und das jetzige Spiel jetzt komplett unoptimiert läuft. Oder sie haben so viele Bugs drin, dass eine zu scharfe Compileroptimierung zu Abstürzen wegen undefiniertem Verhalten führt.

Aroas
2023-09-07, 18:13:29
Edit: bei Bugthesda würde es mich nicht wundern, wenn sie vergessen hätten den Release-Build im Compiler einzustellen und das jetzige Spiel jetzt komplett unoptimiert läuft. Oder sie haben so viele Bugs drin, dass eine zu scharfe Compileroptimierung zu Abstürzen wegen undefiniertem Verhalten führt.

Deshalb kauft man Spiele halt nicht zu Release. Seit vielen Jahren schon nicht mehr.
Egal wie groß ein Studio ist, sie bekommen es einfach allesamt nicht gebacken, ihr Zeug, was sie für stolze Preise verkaufen, zu Release wirklich fertig zu haben.
Und das nach zig Jahren Entwicklungszeit.

Ich kaufe daher (in der Regel) Spiele erst 1-2 Jahre nach Release. Oder sogar noch später.
Da ich eh nicht kompetitiv spiele und mir daher irgendwelche Hypezeiten egal sein können, brauche ich nicht früh zu kaufen.

Pappenheimer
2023-09-07, 19:21:24
Wenn ich von hartnäckigen AMD Terroristen schreibe, meine ich genau dies ;)

Und diese Antwort zeigt genau den heutigen Zeitgeist unsere politischen und medialen Landschaft. Gratulation :uup:

Torg
2023-09-07, 19:38:20
Laut MLID sind ja die Mengen 7700XT / 7800XT. 50/50 verteilt.
Wenn jetzt die Verkäufe bei 1/10. (MF) liegen, hat sich AMD aber arg vertan.
Die 7800XT 10-20$ rauf, die 7700XT 10-20$ runter wäre passender.
Bei der 4060TI 16GB hat NVidia immer noch Luft nach unten. Diese erste Preissenkung war absehbar.
Gegenüber der RDNA2 Generation und deren MSRP eigentlich auch nicht so schlecht in der Leistung. Amd muss sich halt mit der eigenen preisgesenkten Vorgängergeneration messen.
Leider passt der Verbrauch nicht zum Generationswechsel.

Rabiata
2023-09-07, 19:46:43
habs schon mal geschrieben, wer diesen mist zu solchen preisen kauft ist selbst schuld. für amd spricht in dieser gen einzig und allein die speicherausstatung, mcm ist kein feature für den anwender. dafür verlangt man auch genug und stellenweise doppelt so viel. das kaschiert man einfach damit, das man die namen der karten sinnlos und dafür vorteilhaft durchsortiert und ihr dann alibiweise mehr speicher mit gibt, so das man eine Konkurrnez zur 6800 non xt dann 7900xt nenen kann (aber nur eine 7800xt/7800 non xt ist), eine 6700 non xt zur 7800xt usw..

Na das ist jetzt aber ein bißchen übertrieben. In direkten Vergleich (PCGH) hat die 7800XT geringfügig mehr Leistung als die 6800XT und braucht etwas weniger Strom. Wenig Fortschritt aber sicher kein Rückschritt.

In Preis liegt die 7800XT aktuell höher als die 6800XT (Mindfactory), aber das kann an der anfangs höheren Nachfrage liegen. Schauen wir in 1-2 Wochen nochmal nach.

Andererseits muß ich aber auch sagen, daß ich von einer 6800XT nicht zur 7800XT aufrüsten würde. Der kleine Unterschied ist schlichtweg das Geld nicht wert. Lieber die alte Karte behalten und bei RDNA 4 noch mal nachschauen.

Gast
2023-09-08, 02:07:09
Lieber die alte Karte behalten und bei RDNA 4 noch mal nachschauen.
Ich bin raus, habe den Launch noch abgewartet und mir eine 4090 bestellt. Was anderes macht keinen Sinn in dieser Gen. Ich brauche die Leistung vllt. nicht immer will aber nach zwei Jahren nicht nochmal kaufen, wer weiß was dann alles kostet.

Die AMD Karten sind allesamt seit Jahren irgendwelche Krüppel, warum auch immer die das nichts gebacken kriegen. RDNA2 war zwar toll und eine Ausnahme, aber damals auch nicht zu bekommen und heute möchte ich sie nicht mehr kaufen. RT ist zu schwach. Habe Vega64 bis heute weiter genutzt.

Nun bin ich seit fast 20 Jahren bei AMD raus und kaufe das erste Mal Nvidia. Hat ja auch was. Denke die Karte wird die nächsten fünf Jahre halten. Meine Karte wird morgen ankommen und dann später für Mini ITX auf Wasser umgebaut, wird ein Intel System. Mir gehen diese ewigen Verzögerungen auf dem Desktop und dieses hin und her bei Zen auf den Nerv. Ewig lange Bootphasen bei der Initialsierung von Windows usw., mein Laptop das auf Intel setzt startet sofort, AMD nach 40sec.. Zudem sind sie stellenweise teurer als das Intelzeug. Werde den 13700k oder 14700k dann auf 88w festnageln und gut ist der Salat. Soll auch auf Z690 laufen.

Die 4090 lässt sich bei vielen Inhalten auf 48% Powertarget einstellen und verbraucht dann 225w. Wenn ich die Leistung brauche stelle ich halt das Profil um. Ich finde es geil. Beim meinen Kumpel der sich eine 7900xtx geholt hat, ist es soweit das er die Karte mittlerweile hasst. Undervolt ständig Blackscreens und der Treiber setzt sich zurück, startet aber nicht mehr neu. PSU ist stark genug, aber die Karte will saufen oder nichts. Sowas geht gar nicht. Scheint einfach Ausschuss zu sein was AMD da verbauen lässt, daher durchweg hohe Corevoltage oder Abstürze.

Von der Platinenlänge passt sie leider auch nicht mit Wasserkühler in kleinere Gehäuse, Nvidia schon, zumal man nur das eine 12PIN Kabel braucht. Die AMD Bretter sind ohne Kühler deutlich länger und brauchen 3 fette x8 PIN.

Wird sowas werden, ich finde das Ding so geil...und freu mich so drauf. Den Ryzen möchte ich nicht. Das i100 wiederum finde ich so cool. Kommt an einen GSync 4k Bildschirm IPS@165Hz und das wars dann für mich. Gehe bald Rente und solange wird das System halten. Mal sehen was ich dann angehe.

https://www.youtube.com/watch?v=-8DsbL8aVu0

Leonidas
2023-09-08, 03:30:54
Laut MLID sind ja die Mengen 7700XT / 7800XT. 50/50 verteilt.

Unglaubwürdig. So doof kann nichtmal der dümmste Vertriebler sein. Wobei: OEM-technisch kann schon sein, dass es mehr 7700XT gibt. Aber die Erstbestückung geht doch eher in den Retail-Handel, für die OEMs besteht kein Druck, schon am Launchtag spruchreif zu sein.

etp_inxession
2023-09-08, 06:51:57
Welche 20% Mehrpreis? Intel hat die Preise erst mit angehoben, Nachdem AMD mit Zen eine neue Preisstruktur etabliert hatte.


Nope. Da musst du dich nochmal zurück versetzen und besser informieren.

AMD hat die Preise erst "neu etabliert" als man auch die Krone Inne hatte.

Ich spreche von vor "ZEN" Zeiten ... Da gabs jedes Jahr einen Intel Aufguss von wenigen Prozent, der immer teuerer wurde. Bei vielen Generationen sogar + Sockel Wechsel aus fadenscheinigen Gründen. Nur zu ... Guck nach.


Wieso sollten sie?

Ich sage .. sie könnten.
Natürlich wollen Sie nicht.

AMD will halt auch nicht.
Hat die Konsolen Inne und kann mit der Marktsituation scheinbar ganz gut leben aktuell.
Deshalb werden die Preise eben angepasst an die Konkurrenz.

Gast
2023-09-08, 07:13:37
Ich spreche von vor "ZEN" Zeiten ... Da gabs jedes Jahr einen Intel Aufguss von wenigen Prozent, der immer teuerer wurde. Bei vielen Generationen sogar + Sockel Wechsel aus fadenscheinigen Gründen. Nur zu ... Guck nach.

Wenige Prozent ja, wirklich teurer nein, die Preise wurden in der Zeit höchstens im Rahmen der Inflation angepasst.

Erst seit Zen geht es rapide nach oben. 500€+ auf dem Mainstream-Sockel war früher undenkbar, Zen hat hier die gewohnte Preisstruktur auf einen Schlag verdoppelt.

Leonidas
2023-09-08, 08:03:38
Hast Du Recht. Ich habe eben nachgeschaut. Von $317 (2600K) auf $339 (7700K) ging es nur langsam hoch. Danach kamen die größeren Preisschritte - mit der Kern-Inflation.

DozerDave
2023-09-08, 08:08:13
So habe ich das noch nie gesehen: AMD ist an den Intel-Preisen schuld!1elf

Hätten die mal keine konkurrenzfähigen Zen Kerne und zugleich die Anzahl der Kerne nicht auf acht (Zen1) erhöht, gäbe es heute günstigere Intel-Prozessoren.

Complicated
2023-09-08, 09:13:42
Erst seit Zen geht es rapide nach oben. 500€+ auf dem Mainstream-Sockel war früher undenkbar, Zen hat hier die gewohnte Preisstruktur auf einen Schlag verdoppelt.
Du lässt hier Intels HEDT-Plattform aussen vor.
Diese Leistungsklasse war immer schon teurer und ist jetzt auch auf Consumer-Plattformen verfügbar.
Vergleich doch mal die Preise damals und heute mit 16 Kernen und nicht auf 4 Kernen basierend. Die Preisspanne und die Leistungsspanne ist größer geworden auf dem Mainstreamsockel - kann man AMD ja jetzt gerne vorwerfen.

Platos
2023-09-08, 09:23:39
Die Preiserhöhungen in jüngster Zeit gehen auf jeden Fall auf AMDs Kappe. Denn während dem Intel mit der 10. Gen schön die Preise gesenkt hat (mit mehr Kernen), hat AMD sie wieder erhöht mit Zen3.

Seit dem gehts immer weiter nach oben (AMD, der damals die Krone inne hatte erhöhte die Preise massiv).

Mittlerweile kostet ein i5 so viel, wie noch vor wenigen Jaahren der i7.

Bei AMD ist es genau so vom Listenpreis.

Gast
2023-09-08, 09:23:47
Du lässt hier Intels HEDT-Plattform aussen vor.


Selbstverständlich, Produkte für Leute mit zu viel Geld gab es immer.
Und wenn ich HEDT vergleichen würde, dann mit Threadripper und nicht AM4/AM5.


Vergleich doch mal die Preise damals und heute mit 16 Kernen und nicht auf 4 Kernen basierend. Die Preisspanne und die Leistungsspanne ist größer geworden auf dem Mainstreamsockel - kann man AMD ja jetzt gerne vorwerfen.

Die ganze IT-Industrie lebt davon, dass man immer mehr ohne oder nur mit geringfügiger Erhöhung der bekommt.
Dass man heute 16 Kerne zum selben Preis wie damals 4 bekommt sollte der normale Fortschritt sein, bzw. sollte der Fortschritt nicht die stumpfe Erhöhung der Kernanzahl sein.

MiamiNice
2023-09-08, 09:43:23
So habe ich das noch nie gesehen: AMD ist an den Intel-Preisen schuld!1elf

Hätten die mal keine konkurrenzfähigen Zen Kerne und zugleich die Anzahl der Kerne nicht auf acht (Zen1) erhöht, gäbe es heute günstigere Intel-Prozessoren.

Das schlimme daran ist, die hatten keine konkkurenzfähogen Kerne. Die haben die erst seit Zen3. Davor haben die nur über Kernanzahl miese CPUs vertickt und haben die Spieler haben den Müll gekauft, weil sie geblendet wurden.
Als AMD dann mit Zen 3, nicht nur mehr Kerne hatte, sondern auch konkurrentfähig wurde, hat AMD massiv angezogen. Man hat einen Hype generiert im DIY Markt und dann fett abkassiert.

Intel und NV sind sicher harte und selbstgebusste Firmen. Beide lügen und betrügen und verarschen Dich mitten ins Gesicht. AMD steckt Dir eher das Messer in den Rücken, hinterhätiger Laden der seine Kunden und Fans in den Allerwertesten nagelt.

Complicated
2023-09-08, 10:22:08
Selbstverständlich, Produkte für Leute mit zu viel Geld gab es immer.
Und wenn ich HEDT vergleichen würde, dann mit Threadripper und nicht AM4/AM5.
Das schon - doch es gab einen Shift der SKUs. Was früher HEDT war, ist zum Teil heute der Spitzenpreis den du vergleichst - das ist für den Anwender deutlich billiger geworden, da die Zusatzkosten der Plattform entfallen (mit AM5 scheint das aber wohl wieder kompensiert zu sein).
Also solltest du bei historischen Vergleichen:


entweder die selbe Kern-Zahl nehmen die damals auch max verfügbar war auf Consumer.
oder du vergleichst die damaligen 16/24-Kern Preise auf HEDT mit den teuersten Intel/AMD CPUs auf Consumer heute.

Gast
2023-09-08, 10:22:37
Zumindest haben sie dafür gesorgt das Hardware teurer wurde und wie schon in der Vergangenheit haben sie Produkte wenn sie konkurrenzfähig waren auch massiv verteuert. Das ist nicht nur im Bereich CPUs der Fall. AMD ist kein Messias, AMD tut nichts besonderes für Spieler, AMD hält sich nicht an das was sie immer nach aussen hin versprechen. Sie sind nicht besser als Intel oder Nvidia.

Das ist der Konsens der Rest basiert nur auf dummes Gelaber. Wenn ich nicht gleichwertig bin kann ich nicht gleichwertige Preise verlangen, und genau das hat die Preisgestaltung der letzten Jahre auch geprägt und genau das versucht AMD immer wieder aufzuweichen. Das sie oft nicht gleichwertig schnell sind wird dabei einfach ignoriert. Das Marketing des Saubermanns der Branche scheint zumindest zu funktionieren. Trotzdem gibt es immer wieder Kompromisse, sei es bei der Effizienz, Stabilität, Haltbarkeit und Leistungsfähigkeit.

Im Mainbordbereich hat AMD zuletzt dafür gesorgt das sich die Preise verdoppelt haben. Da werden Mittelklasseplatinen zu Enthusiastpreisen verkauft. Gleiches gilt bei den GPUs, irgendwelche Namen für Nachfolgegens damit man die Preise dafür nach oben jubeln kann, aber nur bis 20% mehr Leistung bietet.

AMD ist einfach einen Drecksfirma geworden, die sich mittlweile einbildet mit geringsten Marktanteilen den Markt beherrschen zu können. Und auch hier ist der Konsument selbst Schuld, weil er es immer wieder so kauft und die Manager in ihren Gebaren bestätigt. Solange das aufgeht wird es nicht enden, sondern jede neue Gen einfach nur schlimmer werden.

Man sieht es an der 7800xt und 7700xt, sie sind laut AMDs Aussagen die direkte Konkurrenz zur 6800 und 6700. Und warum nenne ich sie dann nicht 7800 non XT und 7700 non XT? Ganz klar, die standen für preiswerte Hardware. Lol...

AMD kommt mit seiner 4080 12g durch, gleich zwei Mal und wird dafür auch noch bejubelt. Was soll sich dann ändern? Während man es bei anderen Firmen dann mit einem Aufstand auf die Spitze treibt, darf man das arme AMD dabei bloss nicht kritisieren. Diese Doppelmoral ist einfach zum kotzen und AMD nutzt das selbstaufgebaute Bild des Saubermanns in der Branche zuletzt massiv aus. Egal wo übrigens.

Complicated
2023-09-08, 10:39:46
Zumindest haben sie dafür gesorgt das Hardware teurer wurde und wie schon in der Vergangenheit haben sie Produkte wenn sie konkurrenzfähig waren auch massiv verteuert. Das ist nicht nur im Bereich CPUs der Fall. AMD ist kein Messias, AMD tut nichts besonderes für Spieler, AMD hält sich nicht an das was sie immer nach aussen hin versprechen. Sie sind nicht besser als Intel oder Nvidia.
Ganz normal für alle Unternehmen dieser Größe - was ist die Kritik?
Die angeblich nicht eingehaltenen Versprechen und "tut nichts besonderes für Spieler" ist allerdings einfach unwahr. AMD unterscheidet sich mit seinem Ansatz von Nvidia und Intel - sie versuchen keine proprietären geschlossene Systeme zu schaffen. In der Position sind sie nicht als Nummer 2 in den jeweiligen Märkten.

Nur mal als Reminder:

AMD hat Tesselation eingeführt
Mantle->Vulkan um Druck auf MS zu machen wegen DX12
SAM
Mit Asynch den schwachsinnigen Gsync-Versuch (VESA-Standard in Bezahlmodell zu verwandeln) von Nvidia verhindert.
Die Kernezahl im Desktop hoch geschraubt und erschwinglich gemacht.

und da gibt es so einige weitere Beispiele.
Intel, Nvidia und die Kunden habe sehr viel profitiert von AMDs Entwicklungen.

MiamiNice
2023-09-08, 11:38:02
Ganz normal für alle Unternehmen dieser Größe - was ist die Kritik?

Die Kritik ist, dass sich AMD als Robin Hood verkauft hat um Sympathie zu erzeugen, sich bewusst als Underdog positioniert hat und die resultierenden Effekte daraus gerne mitgenommen hat. An sich kein Problem. Wird aber zum Problem, wenn man dann so handelt, wie AMD heute handelt. Im Prinzip sind alle gute Vorsätze vergessen, die Menschen, die AMD die Stange gehalten haben, vergessen.
Für mich persönlich kein Problem, mir war das immer klar. Viele Fans sehen das aber ganz anders. Wie man es auch dreht, das hat AMD verdammt viele Kunden gekostet.

AMD hat Tesselation eingeführt
Und hat es trotzdem verkackt.

Mantle->Vulkan um Druck auf MS zu machen wegen DX12 SAM
:up:

Mit Asynch den schwachsinnigen Gsync-Versuch (VESA-Standard in Bezahlmodell zu verwandeln) von Nvidia verhindert.
Das stimmt so gar nicht. Gsync Ulimate gibt es noch immer und ist auch deutlich besser als G-Sync. NV hat die A-Sync nur als erste "kompatible" Stufe eingeführt innerhalb der G-Sync Familie eingeführt. Mit den entsprechenden Nachteilen in der untersten Klasse. G-Sync Ultimate ist noch immer der bevorzugte Standard vieler Spieler. Vor allem im kompetitiven Bereich.

Die Kernezahl im Desktop hoch geschraubt und erschwinglich gemacht.
Du meinst sicher die ganzen Kerne die im Desktop aktuell brach liegen? Ja, war super toll von AMD Intel zu nötigen die Kerne derart hochzuschrauben. Heute haben wir P und E Kerne in Massen die kaum jemand braucht. Und warum? Weil AMD nicht genug Dollars hatte um die IPC zu steigern. Danke AMD :freak:
Erschwinglich waren btw. nur die gammel CPUs von AMD, die kaum konkurrenzfähig waren. Seit dem die CPUs etwas taugen, rangieren die auf den höchsten Plätzen im Preisvergleich.

Gast
2023-09-08, 11:53:01
entweder die selbe Kern-Zahl nehmen die damals auch max verfügbar war auf Consumer.
oder du vergleichst die damaligen 16/24-Kern Preise auf HEDT mit den teuersten Intel/AMD CPUs auf Consumer heute.


Was soll dieser Schwachsinn, ich vergleiche auch keine Anzahl an Voodoo1 von damals die notwendig ist um die Anzahl an Kernen einer 4090 zu erreichen mit einer 4090 von heute.

Wenn wir damit anfangen wären heute Preise die in die Millionen pro Produkt gehen "normal".

Sowohl im HEDT als auch im Mainstream haben sich die Kernzahlen vergrößert, und die Preise sind eben nicht annähernd gleich geblieben, sondern haben sich in beiden immens vergößert, wobei der Anstieg im Mainstream deutlich stärker ist.

Gast
2023-09-08, 12:02:09
AMD ist einfach einen Drecksfirma geworden, die sich mittlweile einbildet mit geringsten Marktanteilen den Markt beherrschen zu können. Und auch hier ist der Konsument selbst Schuld, weil er es immer wieder so kauft und die Manager in ihren Gebaren bestätigt. Solange das aufgeht wird es nicht enden, sondern jede neue Gen einfach nur schlimmer werden.

AMD kommt mit seiner 4080 12g durch, gleich zwei Mal und wird dafür auch noch bejubelt.
So macht man das als Dealer mit einem Junkie, erst anfüttern und dann die Preise für gestrecktes Zeug in die Höhe jubeln und dabei immer schlechtere Qualität liefern, um den persönlichen Gewinn zu steigern. Das Problem daran ist, es schadet auf Dauer dem der es kauft und letztlich dem der es verkauft. Die Folgen sind also selbstzerstörerisch auf beiden Seiten.

Komischerweise liefert man nun bei gleicher Rasterleistung immer noch knapp 20-30% weniger RT Leistung (7800xt vs 4070). Letztlich bedeudet das auf Basis der AMD IP man müsste bei RDNA3 zu der jetzigen Performancesteigerung, +30% mehr Rasterleistung liefern um Nvidia im Bereich RT Konkurrenz zu machen und wäre nur gleichschnell oder auch langsamer. Das ist ein utopischer Wert für AMD, der noch nie erreicht wurde und würde bedeuten man müsste knapp +60 oder 70% pro Gen hinzugewinnen. Das schafft selbst Nvidia nicht sinnvoll umsetzen.

Das wird die nächsten Jahre daher so weitergehen und viel Gequatsche seitens AMD bedeuten mit der fortschreitenden Manipulation der Märkte und Kundschaft zum Selbstzweck. Ich sehe auch in MCM nicht den großen Wurf und vermute eher, Nvidia würde noch schneller sein als jetzt und noch mehr Marge machen wenn sie schon auf der MCM IP unterwegs wären, was letztlich auch bedeutet es fließt mehr Geld in die Entwicklung. Für AMD ist das ein endloser Teufelskreis dem man nur mit fehlerlosem, viralem Marketing begegnen könnte und dabei die eignen Schwächen gekommt ignoriert. Beides steht nicht für AMD, sie konntern noch nie zwei Dinge gleichzeitig, geschweige denn drei.

Robert Hallock ist dabei ein grosser Verlust für AMD. Ich vermute er war viel zu Kunden freundlich und wollte sich diesem Unsinn auch nicht stellen. Zumindest war ein Community zugewandter Typ der gemocht wurde, den es heute nicht mehr braucht. AMD arbeitet also schon länger an dieser Strategie und hat sich allem entledigt was es dafür nicht braucht. Es kommt für sie also nicht unvorhergesehen, oder liegt irgendwie an einem Bug der IP. Nein, es ist alles seit langem bekannt.

Im diekten Vergleich RDNA2 und RNDA3 was den Rastervorsprung zur Konkurrenz angeht, ist RDNA3 sogar schlechter geworden. Das bedeutet Nvidia holt dort bei besserer Effizienz auf und RT führen sie sowieso, was auch auf das Upscalingverfahren zutrifft. Daher spielt man bei AMD im unternehmensinternen Bereich bei Aufstellung des Portfolie mit den Namen umher, um nicht Produkte die in der vorherigen Gen beliebt waren, so wie eine 6800xt gleich ganz streichen zu müssen.

Ich sehe daher für die Zukunft schwarz was RDNA angeht und vermute diese Bezeichnung wird aus Marketinggründen alsbald gestrichen und die gleiche Architektur mit einem gutklingen Namen umgelabelt. Wäre nicht das erste Mal in der Unternehmensgeschichte von AMD.

Gast
2023-09-08, 12:03:34
AMD hat Tesselation eingeführt

Stimmt nicht schon der NV1 konnte Tesselation, und es waren die selben unbrauchbaren NURBS mit denen auch AMD gescheitert ist. Vielmehr hat AMD nicht aus der Geschichte gelernt und den selben Fehler von NV wiederholt.
Mehr noch, als Tesselation endlich in einer brauchbaren Form verfügbar war hat AMD die Performance gefehlt, so dass man noch heute per Default im Treiber Cheatet.

Mantle->Vulkan um Druck auf MS zu machen wegen DX12


Weil man nicht die Ressourcen im Treiberteam zur Verfügung hat(te) um bei den Low-Level-Optimierungen mit NV mitzuhalten hat man das auf die ISVs abgewälzt.

SAM

Eine reine Marketingbezeichnung für etwas was es schon lange gibt.


Mit Asynch den schwachsinnigen Gsync-Versuch (VESA-Standard in Bezahlmodell zu verwandeln) von Nvidia verhindert.


Das AMD-übliche hinterherhecheln, ah die Konkurrenz hat was sinnvolles, das brauchen wir auch.


Die Kernezahl im Desktop hoch geschraubt und erschwinglich gemacht.


Was in den 2000er Jahren die Megapixelblender bei den Digitalkameras waren sind heute die Kernblender bei den CPUs.

Exxtreme
2023-09-08, 12:37:23
Weil man nicht die Ressourcen im Treiberteam zur Verfügung hat(te) um bei den Low-Level-Optimierungen mit NV mitzuhalten hat man das auf die ISVs abgewälzt.


Gute "Low-Level-Optimierungen" hatte NV noch nie. Das, was sie gemacht haben, war den Overhead auf mehrere CPU-Kerne zu verteilen. Das hat damals geholfen, jetzt aber nicht mehr. Mantle/Vulkan/DirectX 12 ist da die nachhaltigere Lösung.

Gast
2023-09-08, 12:47:52
Sowohl im HEDT als auch im Mainstream haben sich die Kernzahlen vergrößert, und die Preise sind eben nicht annähernd gleich geblieben, sondern haben sich in beiden immens vergößert, wobei der Anstieg im Mainstream deutlich stärker ist.
Genau das haben wir AMD zu verdanken, wobei es die Spieleentwicklung bei der Corepower auch nicht beschleunigt hat. Früher waren solche Systeme eben Prosumern vorbehalten, die damit auch produktiv Geld verdienen was war schlimm daran? Kostet eben mehr.

Ganz im Gegenteil und AMDs Ansatz geht dann auch nicht auf, weil die Latenzen einfach zu hoch werden. Dabei gammelt nun eine große Anzahl an Kernen auf einem Design umher, mit der man dann bei Aufgabenverteilung Effizienz vorgaukelt. Man schleppt also Ballast mit sich umher, der nur dafür gedacht ist das AMD besonders effizient erscheint. Zu Lasten der Latenz.

Wahrscheinlich würden heute 4 oder 6 sinnvoll weiter entwickelte Kerne komplett reichen (zeigt ja auch x3d gut auf). Bei den Konsolen mag es was anderes sein, weil dort die Corepower nie mit einer Desktop CPU vergleichbar ist. Das sitzen 2 Cores heutzutage im Desktop locker aus. Genau daher kommt auch immer wieder die schlechten Portierungsmöglichkeiten für Entwickler, das schafft nicht Entlastung sondern Mehrbelastung bei der Entwicklung. In den Engines werden dann Threadsqueues geschrieben die den CPU Anteil deutlicher auf mehr Kerne aufspalten, als es auf dem Desktop Spiele PC nötig wäre. Und das alles treibt AMD mit dem eignem Verkaufskonzept immer weiter voran. Zuletzt bei Starfield hat es anscheinend nicht geklappt. Es braucht immer wieder und immer andere, die das dann glattziehen.

Ein vermeintlicher TrippleA Titel in 2023 ohne DXR Option, M$ ohne Worte...!!!! Und dann soll jemand eure Konsole oder den Gamepass kaufen? Dann wird das auch noch gleich in einem Joint Venture mit AMD GPUs vertickt.

MiamiNice
2023-09-08, 13:16:44
Aktuell schiebt AMD die Starfield DLSS Affäre auch Richtung Bethesda. Bethesda hat einen Vertrag unterschrieben, sicher mit NDA, darf kein DLSS einbauen für Zeiraum von bis und bekommt dafür $. Dann kommt die Nummer raus und AMD bekommt den Arsch nicht hoch um die Wahrheit zu sagen. Stattdessen werfen die nur Nebelkerzen "Bethesda kann DLSS einbauen, wenn sie es wollen".

Auch wieder so ein richtiger AMD move.

OpenVMSwartoll
2023-09-08, 13:54:16
Und schon wieder einer, der ein Symptom sieht, die Ursache zu kennen behauptet und darauf basierend Vorwürfe macht.

Ermüdend...

Exxtreme
2023-09-08, 14:00:47
Wahrscheinlich würden heute 4 oder 6 sinnvoll weiter entwickelte Kerne komplett reichen (zeigt ja auch x3d gut auf).

Ich fürchte, hier machst du es dir viel zu einfach. Wenn es möglich bzw. wirtschaftlich gewesen wäre auf die vielen Kerne zu verzichten und stattdessen die Instruktionen pro Sekunde zu steigern dann hätte man das gemacht. Und dass das nicht mehr so einfach möglich sein wird, das hat sich schon lange vorher abgezeichnet:
http://www.gotw.ca/publications/concurrency-ddj.htm

Der Artikel ist übrigens aus dem Jahre 2005.

Es gibt halt einen bestimmten Punkt an dem es wirtschaftlicher ist in die Breite zu gehen anstatt einzelne Kerne zu prügeln. Und das wird in der Zukunft noch schlimmer werden denn man ist bereits an Strukturbreiten, an denen Caches kaum noch skalieren etc.

Complicated
2023-09-08, 14:20:07
Stimmt nicht schon der NV1 konnte Tesselation, und es waren die selben unbrauchbaren NURBS mit denen auch AMD gescheitert ist. .Ich präzisiere dann: die erste FFU (Truform) in Hardware für Tessellation.
Später war Nvidias Tesselation-Overdrive (x32) eine Frechheit - niemand hat den Level genutzt und es war auch nicht sinnvoll über 8x. tessllierte Himmel in Metro waren da nur der offensichtlichste "Gain" in Benchmarks.

Alle anderen Kommentar zu brachliegenden Kernen, oder nutzen der Funktionen ignoriere ich mal, da dies nichts daran ändert, dass AMD der Vorreiter dazu war. Guter Ablenkversuch, doch irrelevant wie jeder einzelne seine Lieblingsszenarien definiert.
Die Anwendungsleistung wurde von den selben bei Intels E-Kernen abgefeiert und jetzt wird auf Spieleleistung und nur dort relevante Latenz reduziert, weils halt ein schönes derailen des Arguments ist. Ich behalte meine Torpfosten und ihr könnte auf euren Nebenplatz gerne weiter spielen.

Complicated
2023-09-08, 14:33:04
Aktuell schiebt AMD die Starfield DLSS Affäre auch Richtung Bethesda. Bethesda hat einen Vertrag unterschrieben, sicher mit NDA, darf kein DLSS einbauen für Zeiraum von bis und bekommt dafür $.
Das ist lustig, denn AMDs FSR-Technik funktioniert auf Nvidias GPUs ohne irgend etwas anzupassen, wofür viele Nvidia-Kunden dankbar sind, die DLSS3 nicht nutzen können.
Hier wird AMD vorgeworfen ein Feature das auf den eigenen GPUs noch nicht mal erlaubt ist und das auch nicht lizenzierbar ist für AMD, zu Verantworten beim Entwickler.

Deine Interpretation resultiert ja lediglich aus der Annahme AMD müsste sich bei Kooperationen mit Entwicklern mit DLSS beschäftigen - AMD muss in den Gesprächen lediglich sagen "Nicht unsere Baustelle" und die Entwickler-Stunden mit eigenen Themen besetzen zum Optimieren - Wozu irgendwelches Geld dafür ausgeben?
Wenn AMDs Themen umgesetzt werden ist das denen bisher ziemlich egal gewesen wofür die Entwickler ihre Zeit sonst noch drauf gehen lassen. Warum sollte es auch anders sein.

Hier fällt die sehr gute Skalierung der Kerne auf! Ich bin sicher, dass mit kleinen Anpassungen auch die 16-Kerner noch optimiert werden - und AMD die Priorisierungen und Kapazitäten dafür nutzt. Kann sein dass DLSS deswegen warten muß. Macht Nvidia genauso in ihren Projekten. Geld wird für Entwicklerstunden ausgegeben um proprietäre Features zu entwickeln - nennt sich Unterstützung des Projekts.

Gast
2023-09-08, 14:44:13
Ich fürchte, hier machst du es dir viel zu einfach. Wenn es möglich bzw. wirtschaftlich gewesen wäre auf die vielen Kerne zu verzichten und stattdessen die Instruktionen pro Sekunde zu steigern dann hätte man das gemacht. Und dass das nicht mehr so einfach möglich sein wird, das hat sich schon lange vorher abgezeichnet:
http://www.gotw.ca/publications/concurrency-ddj.htm

Der Artikel ist übrigens aus dem Jahre 2005.

Es gibt halt einen bestimmten Punkt an dem es wirtschaftlicher ist in die Breite zu gehen anstatt einzelne Kerne zu prügeln. Und das wird in der Zukunft noch schlimmer werden denn man ist bereits an Strukturbreiten, an denen Caches kaum noch skalieren etc.
Welches Spiel braucht denn mehr als 6 Kerne? Was er meinte war die Trennung zwischen Spiele PC und HEDT/Prosumer, das hätte man niemals aufbrechen müssen und auch AMD hätte daran viel mehr verdient. Man zwingt dieses Modell jetzt den Consumer auf und verkauft nur noch HEDT zu HEDT Preisen, weil der TR Krempel gescheitert ist.

Wozu braucht ein Desktop Gaming PC 16 CPU Cores? Wozu bitte, das zeigt auch der alte Artikel in keinster Weise auf.

AMD hat mit Zen die Fragmentierung im Markt aufgespalten um zum Teil maßlos overpovered Mehrkern CPUs zu verkaufen die kaum jemand braucht. Jedenfalls nicht im Gaming PC was sie mit zusätzlichem Chache selbst beweisen und ihre CPUs als Hybride auf den Markt bringen wo ein CCX komplett nutzlos ist, aber Geld kostet. Man kann also über dieses Modell viel mehr generieren, ob das überhaupt alle brauchen interessiert sie dabei nicht.

Letztlich ist was sie machen reine Silizium- und Waferkapizitätverschwendung, wo sie dann wieder rum jammern alles sei so teuer geworden und deshalb steigen die Preise. Das ist Absicht würde ich sagen.

Das Koduri damals damit nicht einverstanden war und darauf verwies das in bestimmten Bereichen eher der Code das Potenzial beinhaltet, hat ihn ja letztlich seinen Job gekostet, weil die AMD Produktstrategie so nie aufgehen würde. Im Bereich effizienter Software sind sie eine NULL. Genau deshalb werfen dort auch so viele das Handtuch, es geht um schnelles Geld und schnellen Gewinn.

Bitte, ich dachte immer das hier wäre das 3DC, da kann man ruhig mal etwas weiter "denken" als bei der PCGH.;)

Gast
2023-09-08, 16:29:57
Ich präzisiere dann: die erste FFU (Truform) in Hardware für Tessellation.
[/qquote]

Konnte NV1 auch. Dummerweise konnte er eben kein Polygonrendering, und ATI war natürlich nicht so dämlich die Polygonpipeline für Nurbs rauszuschmeißen

[quote]
Später war Nvidias Tesselation-Overdrive (x32) eine Frechheit - niemand hat den Level genutzt und es war auch nicht sinnvoll über 8x.


Weder AMD noch Nvidia entscheidet was sinnvoll ist, das macht einzig der Entwickler. Und das Ziel von Nanite mit 1 Polygon/Pixel ist in der Regel auch mit 32x nicht zu erreichen.
Was sinnvoll ist hängt auch von der Entfernung/Größe des Objektes ab, und das schöne an Tesselation ist ja, dass man den Faktor variieren kann.
Genauso wie 32x nicht immer sinnvoll ist, ist 8x auch nicht immer ausreichend.

Gast
2023-09-08, 16:37:51
Ich fürchte, hier machst du es dir viel zu einfach. Wenn es möglich bzw. wirtschaftlich gewesen wäre auf die vielen Kerne zu verzichten und stattdessen die Instruktionen pro Sekunde zu steigern dann hätte man das gemacht. Und dass das nicht mehr so einfach möglich sein wird, das hat sich schon lange vorher abgezeichnet:
http://www.gotw.ca/publications/concurrency-ddj.htm


Stimmt zwar grundsätzlich, umgekehrt ist es aber auch so, dass es oft nicht möglich ist die Geschwindigkeit durch weitere Parallelisierung zu steigern.

Und da heist es eben the right tool for the right Job, für Aufgaben die sich sehr gut parallelisieren lassen, haben wir mit GPUs wesentlich bessere Hardware zur Verfügung als es CPUs jemals sein können.

Bei Aufgaben die sich nicht gut parallelisieren lassen, bringen aber die vielen Kerne nichts.

Die einzigen Aufgaben bei denen viele Kerne sinnvoll sind, sind haufenweise Einzelaufgaben die in sich nicht gut parallelisierbar sind, aber in ihrer Zahl so groß sind, die hohe Kernanzahl nutzen zu können, und das sind fast ausschließlich Server-Aufgaben. Am Desktop hat nur ein winziger Bruchteil der Anwendungen das Profil um von vielen Kernen profitieren zu können, gleichzeitig aber nicht von einem GPU-Port deutlich profitieren zu können.

Gast
2023-09-08, 17:11:22
Man zwingt dieses Modell jetzt den Consumer auf und verkauft nur noch HEDT zu HEDT Preisen, weil der TR Krempel gescheitert ist.


Es ist auch ein Blödsinn AM4/AM5 irgendwie als HEDT-Nachfolger zu titulieren, einer der Hauptgründe für HEDT sind die massiv aufgeblasenen IO-Fähigkeiten, die AM4/AM5 logischerweise fehlen.

Viele Kerne alleine machen kein HEDT

Complicated
2023-09-08, 19:16:42
Weder AMD noch Nvidia entscheidet was sinnvoll ist, das macht einzig der Entwickler. Und das Ziel von Nanite mit 1 Polygon/Pixel ist in der Regel auch mit 32x nicht zu erreichen.
Ich rede über die Benchvorgaben in Reviews und die gerne gefälligen Redaktionen. Es gab da sehr wenig Ausnahmen, doch die haben gepunktet bei Seriosität.

Complicated
2023-09-08, 19:19:04
Viele Kerne alleine machen kein HEDT
Ich sehe keine Intel HEDT-System die nachgefragt werden nur wegen dem IO. Wohl doch kein "Hauptgrund".
Das ist alles in den Workstation Markt gegangen - Intel sah da wohl kein Geschäft. AMD hat noch eine Plattform für dieses Szenario.
Es ist auch ein Blödsinn AM4/AM5 irgendwie als HEDT-Nachfolger zu titulierenHat auch niemand gemacht. Nur darauf hingewiesen, dass alle SKUs bis 16 Kerne, die früher nur auf HEDT verfügbar waren, nun auf AM5 zu finden sind.
Es ging um gestiegene Preise und den Vergleich mit heutigen CPUs, da sollte entweder 4-Kerner verglichen oder eben die 16-Kerner der damaligen HEDT-Plattform mit den heutingen 16-Kern SKUs verglichen werden.

greeny
2023-09-08, 22:12:12
Britische Chatkontrolle vorerst geplatzt [Netzpolitik]
verlinkt auf nichtvorhandenes
https://www.3dcenter.org/news/Notebookcheck
Es wurde keine Ergebnisse gefunden.

Leonidas
2023-09-09, 03:33:50
Sorry, korrekter Link ist:
https://netzpolitik.org/2023/in-letzter-sekunde-britische-chatkontrolle-vorerst-geplatzt/

Gefixt.

Rabiata
2023-09-09, 11:44:23
Ich bin raus, habe den Launch noch abgewartet und mir eine 4090 bestellt. Was anderes macht keinen Sinn in dieser Gen. Ich brauche die Leistung vllt. nicht immer will aber nach zwei Jahren nicht nochmal kaufen, wer weiß was dann alles kostet.
Falls Du von einer 6800XT oder so kommst, ist die 4090 ohnehin das einzige, was Sinn macht vom prozentualen Leistungszuwachs her. 6800XT => 4090 macht etwa 50% mehr in 3Dcenter Leistungsindex, darunter scheint mir ein Upgrade sinnlos. Ich persönlich finde sogar, daß unter 100% Mehrleistung ein Upgrade eher nicht lohnend ist. Da würde sich sogar die Feage stellen, ob Blackwell oder RDNA4 ein hinreichend schnelles Modell haben werden.


Die Kernezahl im Desktop hoch geschraubt und erschwinglich gemacht.
[B]Du meinst sicher die ganzen Kerne die im Desktop aktuell brach liegen? Ja, war super toll von AMD Intel zu nötigen die Kerne derart hochzuschrauben. Heute haben wir P und E Kerne in Massen die kaum jemand braucht. Und warum? Weil AMD nicht genug Dollars hatte um die IPC zu steigern. Danke AMD :freak:

Beschwer Dich bei den dummen Kunden, die Deiner bevorzugten Ausrichtung nicht genug Marktanteile verschafft haben. Mehr Kerne bringen im Anwendungsbereich halt mehr als mit viel Aufwand die IPC zu verbessern.

Platos
2023-09-09, 13:39:35
Also bei mir muss schon eher die 3-Fache Perfomance da sein.

Nur doppelt so gut ist bei mir meist zu wenig, wenn ich ne schöne Optik haben will und mir dann ausgehend von dem Setting die Framerate verdopple. Dann bin ich meist zu niedrig, wenn ich ne Grafikkarte schon ~4 Jahre habe (und jede Generation upgraden tue ich normalerweise sicher nicht).

P.s: Im Gaming bringen immer mehr Kerne halt nicht immer mehr. Es darf aber trotzdem noch immer mehr geben in der selben Preisklasse.

Weil was die meisten halt nicht sehen: Die Enthusiasten hier schauen halt nur das Topmodell an, während dem die kleinen durchaus noch ein paar Kerne mehr verkraften können für Gaming. Wenn ich nen 8-Kerner als i3 bekomme mit guten Takraten, dann bin ich zufrieden :D

Bei heutigen i3 Preisen.

Denn der i5 kostet heute schon so viel, wie vor 5 Jahren noch der i7. Also der Preis ist wichtig, die Namen nicht.

Gast
2023-09-09, 14:30:44
Deiner bevorzugten Ausrichtung nicht genug Marktanteile verschafft haben. Mehr Kerne bringen im Anwendungsbereich halt mehr als mit viel Aufwand die IPC zu verbessern.

Nicht bei den Anwendungen die typisch am Desktop eingesetzt werden.

Gast
2023-09-09, 15:47:07
Ich sehe keine Intel HEDT-System die nachgefragt werden nur wegen dem IO. Wohl doch kein "Hauptgrund".


Warum sollten sie, die AMD HEDT-Systeme haben wesentlich umfangreicheren IO-Support und sind dabei noch schneller.


Nur darauf hingewiesen, dass alle SKUs bis 16 Kerne, die früher nur auf HEDT verfügbar waren, nun auf AM5 zu finden sind.


Ja und was willst du damit sagen? Jedes Segment hat mehr Kerne bekommen und jedes Segment wurde massiv teurer.


Es ging um gestiegene Preise und den Vergleich mit heutigen CPUs, da sollte entweder 4-Kerner verglichen oder eben die 16-Kerner der damaligen HEDT-Plattform mit den heutingen 16-Kern SKUs verglichen werden.

Was für ein Schwachsinn, ich vergleich auch nicht eine 4060 mit whatever die selbe CUDA-Core-Anzahl in der 10er Serie hatte.

Gast
2023-09-09, 18:17:22
Falls Du von einer 6800XT oder so kommst, ist die 4090 ohnehin das einzige, was Sinn macht vom prozentualen Leistungszuwachs her. 6800XT => 4090 macht etwa 50% mehr in 3Dcenter Leistungsindex, darunter scheint mir ein Upgrade sinnlos. Ich persönlich finde sogar, daß unter 100% Mehrleistung ein Upgrade eher nicht lohnend ist. Da würde sich sogar die Feage stellen, ob Blackwell oder RDNA4 ein hinreichend schnelles Modell haben werden.


Beschwer Dich bei den dummen Kunden, die Deiner bevorzugten Ausrichtung nicht genug Marktanteile verschafft haben. Mehr Kerne bringen im Anwendungsbereich halt mehr als mit viel Aufwand die IPC zu verbessern.
Falls ich das richtig lese und verstehe kommt er von einer Vega 64. Das Update zur 4090 ist gewaltig. Denke er wird die nächsten Jahre Ruhe haben. Hätte sogar eine 7900xtx oder 4080 gereicht. 3 mal so viel Speicher bei der 4090 und 208% mehr Leistung in UHD, heftig. Er macht es richtig. Manchmal lohnt sich warten, in den meisten Fällen aber nicht. Übrigens bemerkenswert das er AMD so lange die Stange galten hat. Sparsam war die Vega wenn man sie forderte auch nie.

Wünsche viel Spass damit und den wirst du haben!

Complicated
2023-09-10, 08:32:42
Warum sollten sie, die AMD HEDT-Systeme haben wesentlich umfangreicheren IO-Support und sind dabei noch schneller.

Ja und was willst du damit sagen? Jedes Segment hat mehr Kerne bekommen und jedes Segment wurde massiv teurer.

Vielleicht liest du den Thread zuerst von Anfang an für Kontext.

Exxtreme
2023-09-10, 12:10:18
Und da heist es eben the right tool for the right Job, für Aufgaben die sich sehr gut parallelisieren lassen, haben wir mit GPUs wesentlich bessere Hardware zur Verfügung als es CPUs jemals sein können.


Nur die allerwenigsten Dinge lassen sich sinnvoll mit GPUs parallel berechnen. Es gibt schon einen Grund warum es kein 7-Zip für die GPU gibt. ;)


Die einzigen Aufgaben bei denen viele Kerne sinnvoll sind, sind haufenweise Einzelaufgaben die in sich nicht gut parallelisierbar sind, aber in ihrer Zahl so groß sind, die hohe Kernanzahl nutzen zu können, und das sind fast ausschließlich Server-Aufgaben. Am Desktop hat nur ein winziger Bruchteil der Anwendungen das Profil um von vielen Kernen profitieren zu können, gleichzeitig aber nicht von einem GPU-Port deutlich profitieren zu können.

Nicht einmal da sind CPUs gut. Denn wenn du viele Threads startest dann ersäuft die CPU irgendwannmal in Kontextwechseln. Ist auch der Hauptgrund warum der Apache Webserver so viel Marktanteile an nginx verloren hat und warum Project Loom in der JVM so eine große Sache ist.

Gast
2023-09-10, 13:34:13
Wäre nicht das erste Mal in der Unternehmensgeschichte von AMD.
wäre nicht das erste mal das amd treiber cheatet, das bis heute. viele optische verbesserungen erreicht zenimax unter starfield mit tesselation. da ist im teiber automatisch "amd optimiert" voreingestellt und dabei die schlechtere optik das neue besser und schneller.

die fanboys rennen dir nun die bude ein, um zu behaupten amd hardeware wäre doch gleichschnell. ich vermute sogar das einige redaktionen in den reviews zu blöd waren das auszustellen.

möge die verblödung weiter ihren lauf nehmen. es ist ja kaum noch aufzuhalten. holzauge sei wachsam wenn eine abgeschlagene gen auf einmal viel schneller wird als bereits vorabgetestet. soviel leichtgläubigkeit ist schon bezeichnend.

OpenVMSwartoll
2023-09-11, 01:28:08
wäre nicht das erste mal das amd treiber cheatet, das bis heute. viele optische verbesserungen erreicht zenimax unter starfield mit tesselation. da ist im teiber automatisch "amd optimiert" voreingestellt und dabei die schlechtere optik das neue besser und schneller.

die fanboys rennen dir nun die bude ein, um zu behaupten amd hardeware wäre doch gleichschnell. ich vermute sogar das einige redaktionen in den reviews zu blöd waren das auszustellen.

möge die verblödung weiter ihren lauf nehmen. es ist ja kaum noch aufzuhalten. holzauge sei wachsam wenn eine abgeschlagene gen auf einmal viel schneller wird als bereits vorabgetestet. soviel leichtgläubigkeit ist schon bezeichnend.

Das klingt interessant. Kannst Du das belegen?

Gast
2023-09-11, 13:51:06
wäre nicht das erste mal das amd treiber cheatet, das bis heute. viele optische verbesserungen erreicht zenimax unter starfield mit tesselation. da ist im teiber automatisch "amd optimiert" voreingestellt und dabei die schlechtere optik das neue besser und schneller.

die fanboys rennen dir nun die bude ein, um zu behaupten amd hardeware wäre doch gleichschnell. ich vermute sogar das einige redaktionen in den reviews zu blöd waren das auszustellen.

möge die verblödung weiter ihren lauf nehmen. es ist ja kaum noch aufzuhalten. holzauge sei wachsam wenn eine abgeschlagene gen auf einmal viel schneller wird als bereits vorabgetestet. soviel leichtgläubigkeit ist schon bezeichnend.

AMD hat ja eh zwei riesige und dauerhafte Klumpfüße:
Hardwaremäßig nur zwei mögliche Stufen im memory controller möglich mit idle und full throttle und damit schön dicke Teilllastverbräuche.
Und keine Applizierung des anisotropen Filters per Treiber > DX 9 möglich.
Das ist für APUs und Konsolen okay, aber für teure dGPUs No-Gos. Zum Glück gibt es ein OEM, der es besser macht.

Gast
2023-09-13, 12:58:31
Falls ich das richtig lese und verstehe kommt er von einer Vega 64.
Ja, hat alles geklappt. UHD@60Hz ist die 4090 komplett unterfordert, Du kannst alles reinhauen was geht. Ist schon etwas verrückt. Eine 4080 hätte wohl auch gereicht.