PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1. Februar 2023


Leonidas
2023-02-02, 08:20:26
Link zur News:
https://www.3dcenter.org/news/news-des-1-februar-2023

Redirion
2023-02-02, 09:55:13
eigentlich ist die A750 eine ganz andere Klasse als die RX 6600, wenn man TDP und Speicheranbindung betrachtet. Die RX6600 wirkt zu teuer. Generell liegen irgendwie die Karten zu dicht beieinander, wenn man bedenkt, dass die 6650XT noch innerhalb der oberen Preisspanne der A750 losgeht. Die 6600 müsste 50€ günstiger sein. Der Abstand zur 6500XT ist zu hoch und zu gering zur 6650XT.

Aroas
2023-02-02, 12:43:21
Selbst mit Preissenkung würde ich die Intel GPUs nicht anfassen.
Die Treiber werden zwar besser, sind aber noch weit entfernt von "gut".
Richtig schlecht ist hingegen die Kompatibilität mit älteren Spielen. Aber viele Käufer wollen nunmal nicht nur die neuesten Titel spielen.

Gast
2023-02-02, 15:18:42
Die Zen mit mehr Kernen, aber ohne 3D zum gleichen Preis sind also keine Konkurrenz.

Natürlich senkt intel damit die Preise für den DIY-Markt. Dort landen Teile der von den Herstellern (zu viel) georderten Mengen. Nur die boxed bleiben gleich.

Spielt jemand mit einer A740 oder RX6600 in 4k? Wenn nicht, ist Leos Argumentation für die Rundablage.

Gast Ritis
2023-02-02, 16:36:22
Der AMD 7950X startete mit 699$, der 7900X startete mit 549$.
Von daher sind die Launch-Preise des X3D die gleichen wie beim Vorgänger ohne V-Cache vor nem halben Jahr.

Die Preisreduktion der älteren Modelle erinnert fast schon wieder an die normalen alten Zeiten. Auch wenn es früher manchesmal rasanter nach unten ging als Intel und AMD längere Zeit auf augenhöhe operierten.

Gast2
2023-02-02, 17:21:31
Die Zen mit mehr Kernen, aber ohne 3D zum gleichen Preis sind also keine Konkurrenz.

Natürlich senkt intel damit die Preise für den DIY-Markt. Dort landen Teile der von den Herstellern (zu viel) georderten Mengen. Nur die boxed bleiben gleich.

Spielt jemand mit einer A740 oder RX6600 in 4k? Wenn nicht, ist Leos Argumentation für die Rundablage.
Nun ein paar sollten es schon sein. Ich z.B. Vega56 mit 2560p,

Gast
2023-02-02, 18:19:22
Selbst mit Preissenkung würde ich die Intel GPUs nicht anfassen.
Die Treiber werden zwar besser, sind aber noch weit entfernt von "gut".
Richtig schlecht ist hingegen die Kompatibilität mit älteren Spielen. Aber viele Käufer wollen nunmal nicht nur die neuesten Titel spielen.

Hast du es schon selber ausprobiert, oder labert du nur Mist?
Ich habe eine a770 für 300e, zwar in 8gb Version, gekauft und habe bisher keine Probleme damit. Auch nicht im Linux! Kernel neu konfiguriert, Treiber installiert und in 5 Minuten läuft alles.
Auch die neuen retests zeigen deutlich bessere Qualität und Performance.
Man würde es wirklich begrüßen wenn Leute nicht einfach dummes zeugs wie Schafe nachsagen.
Die a750 fur den Preis ist ein no brainer, das einzige Manko noch der etwas hohe Verbrauch (sowohl idle als auch läßt), wobei man mit etwas UV den Lastverbrauch gut reduzieren kann.

Aroas
2023-02-02, 19:37:03
Hast du es schon selber ausprobiert, oder labert du nur Mist?


Ich kann Tests lesen. Da muss ich die Karten nicht selbst testen.

Wozu gibts denn sonst Tests?

Gast
2023-02-02, 20:57:54
Ich kann Tests lesen. Da muss ich die Karten nicht selbst testen.

Wozu gibts denn sonst Tests?

Man kann es auch nicht verstehen wollen.
Die Reviews sind alt vom Launch, mittlerweile hat sich sehr viel getan und in dem Preissegment sind die A770/A750 Karten ein top Einkauf.
Man muss diese nicht testen, sie funktionieren.
Und dein Negativismus bring keinem etwas.

GerryB
2023-02-02, 22:52:59
Wer ne A770-8GB für 299€ geschnappt hatte, ... hat net viel falsch gemacht.
Lt.Raff gibts wirklich nur in minimalst wenigen Games noch Probleme.
(wo dann eine andere Graka noch Sinn macht)

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/Treiber-Update-Test-2023-1411995/

Gast
2023-02-03, 08:51:31
Wer ne A770-8GB für 299€ geschnappt hatte, ... hat net viel falsch gemacht.
Bei 299€ ja, aber die kostet eigentlich ab 355€. Dann ist sie eben nicht wirklich billiger als die Karten von AMD und NVidia und verliert damit klar an Attraktivität.
Und wenn dann immer wieder zu lesen ist, dass einige von Battlemage erwarten, AMD und teilweise auch NVidia bei den Grafikkarten geradezu in den Ruin zu treiben, frage ich mich schon, wie man auf die Idee kommt. Intel muss als Neueinsteiger das bessere Angebot bieten, sonst steigt ja niemand um. Und das macht Intel aber bisher nur sehr punktuell, üblicherweise schwimmen sie im Markt mit. die 3060 12GB ist ja ähnlich schnell und kostet bei den billigen Modellen etwas weniger als die A770 8GB. Da müsste Intel meiner Meinung nach grundsätzlich billiger sein, sind sie aber eben nur bei so Sonderangeboten. Das wird nicht reichen, um schnell die Marktanteile zu steigern.

Gast Ritis
2023-02-03, 11:06:53
Man kann es auch nicht verstehen wollen.
Die Reviews sind alt vom Launch, mittlerweile hat sich sehr viel getan und in dem Preissegment sind die A770/A750 Karten ein top Einkauf.
Man muss diese nicht testen, sie funktionieren.
Und dein Negativismus bring keinem etwas.

Das ist das übliche Problem mit dem auch AMD noch arg zu kämpfen hat.

Wenn der Marktführer einen Launch macht sind im Zweifel bei Problemen die Games schuld und die müssen gepatcht werden. Ansonsten hat der genug Bedeutung und Mitarbeiter dass Entwickler rechtzeitig sich ins Zeug legen oder die Release-Treiber schon Workarounds mitbringen.

Wenn die Herausforderer einen Launch machen sind im Zweifel immer die Treiber schuld. Dass es APIs gibt und welche Bedeutung die haben wird da immer fleissig ignoriert. Am Ende wird jeder Stuss der Entwickler im Treiber individuell auf Leistung korrigiert. Der Stuss wurde natürlich ursprünglich erst mal mit der neuesten Hardware des Marktführers entwickelt, was sonst... ist ja keine Zeit da es anders zu versuchen. Nur bei Games die optisch nicht hui sein müssen gibt's kaum Überraschungen zum Launch.

Bis die Treiberteams der Herausforderer die gerade populären und in Benchmarks breit getretenen Spiele optimiert haben ist der Zug schon abgefahren. Die Launch-Artikel bleiben bis zum Ende der Generation für die meisten Noobs die Orientierung beim Kauf.

Die Strategie von AMD war eine Zeit lang deutlich auf den Performance-Gewinn je Treiber-Release seit Launchtreiber hinzuweisen. Intel muss da was ähnliches machen.
Mit RDNA2 war AMD eine Überraschung gelungen, weil das ähnliche Optimierungen für Raster benötigt hatte wie Nvidia zuvor.
Bei RT und in der aktuellen Generation driftet es aber auseinander. AMD wird vermutlich wieder künftig die Treiber-Verbesserungen in FPS in Treiber-Launch-Events herumposaunen müssen.

Wenn es eine faire Online-Presse geben würde müssten diese alte Artikel und deren Aussagen von Netz nehmen, oder überarbeiten und aktuell halten, oder zumindest darauf hinweisen, dass es überholte Messungen sind und das Fazit aktuell anders ausfallen würde.... Aber scheinbar will mit solchen Nachrichten niemand Klicks generieren.

Im 3DCenter Index ist auch das Problem, dass dort viele alte Messungen mit verwurstet werden und nur langsam oder gar nicht herausgenommen werden. Wäre auch nicht möglich, dort ist die Idee über den Durchschnitt aller Messungen über Jahre und Generationen hinweg ein Lagebild zu bekommen. Das ist aber im Kern systembedingt eher ein Blick in die Vergangenheit als in die Zukunft.

Keine Ahnung wie man das den Noobs erklären kann. Google spuckt halt nun mal die Launch-Reviews aus, das ist und bleibt die erste Orientierung :(

Lehdro
2023-02-03, 14:24:18
Im 3DCenter Index ist auch das Problem, dass dort viele alte Messungen mit verwurstet werden und nur langsam oder gar nicht herausgenommen werden. Wäre auch nicht möglich, dort ist die Idee über den Durchschnitt aller Messungen über Jahre und Generationen hinweg ein Lagebild zu bekommen.
Wird doch zumindest im Nachgang öfters mal hoch oder runterkorrigiert, je nachdem wie die Karten bei zeitlich aktuelleren Launches umfassend mitgetestet werden.

Gast
2023-02-03, 19:16:11
Sry AMD ist total übergeschnappt, 700, 600 und 450Euro + Märchensteuer und Logistikkosten für eine Gamer CPU, die du unter Multithread völlig vergessen kannst. Sag mal geht es denen noch gut?

Welcher Gamer braucht denn eine 16C/32T CPU, so Einschwachfug vor dem Herrn. Bringt endlich einen 7600x3d! Da würde das Ganze ja noch Sinn ergeben oder einen 7700x3d, aber 7950x3d so ein Blödsinn nur um die Preise hochjubeln zu können.

AMD wird mir persönlich immer unsympthatischer, denen geht es offensichtlich nur noch um Kohle. Überteuerte Mainboards, überteure CPUs. Derzeigtige Gen klar langsamer als Intels Allerwelt CPUs sind (nicht Gamer oder Multicore optimiert) und Preise aufrufen als gäbe es kein morgen mehr. Die werden weiter Verluste im Gamingbereich einfahren, das ist schon jetzt schon klar.

Selbst eine 4090 kannst du locker mit einem 13600k in höheren Auflösungen betreiben und wer bitte kauft sich eine 700 Euro+ CPU für 1080p, das ist doch Schwachfug³. Der 13600k ist dabei schneller als alles was AMD bisher mit hyperduper Core CPUs von Zen4 auf den Markt geworfen hat, braucht zum Spielen kein Mensch. Es gibt vielleicht zwei drei Titel wo auf AMDs CPUs optmiert wird, ist das Gleiche wie mit ihrem RT Acclerators. Ansonsten hängen sie meilenweit hinterher. Die sind nicht mehr ganz klar in ihren Köpfen und das Wasser muss denen bis zum Hals stehen, so einen Unsinn auf die Leute loszulassen, vor allem für viel Geld.

Das ist zum Fremdschämen und was AMD einst wollte, haben die längst aus den Augen verloren. Nach Nvidia, die nächste dreiste Abzocke. Vor allem sind diese UVPs doch sowieso Schall und Rauch, dass kauft niemand AMD zu solchen Preisen als Gamer CPUs ab! Schon lange nicht mehr. Wobei man einen12 Core oder 16 Core hoffentlich nicht auf irgendwelchen 670 non E Platinen oder B Platinen betreibt (der nächste große Beschiss vor dem Herrn wenn man das PCIe Lane Layout vergleicht), da raucht die VRM nämlich ganz schnell ab.

z690 oder H770+13600k und schnellen DDR5 Speicher und gut ist es. Da muss man nicht mal die Hälfte für ausgeben, für das was AMD verlangt wenn es nur um Gaming geht. Das reicht noch Jahre, weil die Konsolen die abrufbare Gamingleistung immer noch bestimmten. Der Rest ist Energie-, Resssourcen- und Geldverschwendung pur. Inklusicve einem Haufen schlafender CPU Kerne.

Dummfug ohne Ende kommt von den Herstellern. Reisen CPUs, (gemssen an ihrer Coreanzahl), riesen GPUs (in Formfaktoren die nirgends wo reinpassen). Groß, schwer und viele Cores für viel viel Geld ist heute das neue Schneller, lol.

Gastxyz
2023-02-03, 19:34:41
15% bis 20% Mehrleistung für höhere Preise (derzeitiger Marktpreisvergleich) und höhere Temperaturen unter 1080p (bis 95°C sind normal und nur noch mit Wakü zu bändigen - lt. Empfehlung von AMD 280iger AIO)? Ab WQHD oder UHD dann das gleiche Ergebnis wie CPUs ohne 3D Cache? Wer diesen Quatsch so kauft ist selbst Schuld. Abzocke pur für "ein" Cachedie das in höheren Auflösungen kaum was bringt. Nein danke!

G3cko
2023-02-03, 23:23:06
Musst du ja nicht kaufen, aber dein Rumgeheule zeigt, dass dein "Haben-wollen" doch recht groß zu sein scheint.

Fakt ist, dass AMD durch den Extra-Cache mehr Silizium verbaut, welches bezahlt werden will.
Die CPU wird wahrscheinlich die Performancekrone im Singlethread erreichen, gerade in Games.
Und die letzten paar Prozentpunkte im HighEnd werden nunmal vergoldet, das war schon immer so.

Nur hier gibt es einen wesentlichen Faktor den du vergisst. Durch den Extra-Cache kann die CPU nicht so hoch takten, oder darf es aus Produktpolitischengründen noch nicht. OC ist ja auch deaktiviert. Es reicht ja schließlich für die Performancekrone gegenüber Intel. Die Tatsache, dass die CPU mit niedrigem Takt dank des Caches bereits die Leistung der Intel-Brechstangen-CPUs erreicht macht sie zu einem außergewöhnlichem Produkt. Ohne den Extracache wird Intel diese Effizienz erst in 2 oder 3 Generationen mittels einer besseren Fertigung erreichen.

Irgendwie ist es schon paradox. Intel hat damals beim C2Q bereit eine Art Chiplet verbaut und so Synergien bei der Fertigung genutzt. Aus 2 DualCores mach einen QuadCore. Und ließ sich Jahre später von AMD mit einem weiterentwickelten Konzept überrollen.

Auch Intel hatte bei Broadwell bereits eine CPU mit Extracahe welche enorm effizient war. Nun läuft man auch hier wieder hinterher.

Intel kann, wenn sie den wollen, aber ohne AMD würde sich dieser Laden kein Stück bewegen.

Leonidas
2023-02-04, 04:13:22
Das wäre mal eine interessante Frage: Wo wäre Intel heute (aus technischer Sicht), hätte es Zen nie gegeben?

Ich denke, wir hätten gerade die 4. oder 5. Generation mit Sechskernern als Consumer-Spitzenprodukt. Wären wir schon bei "Intel 7"? Gäbe es schon E-Kerne?

Gast
2023-02-04, 07:53:14
Musst du ja nicht kaufen, aber dein Rumgeheule zeigt, dass dein "Haben-wollen" doch recht groß zu sein scheint.

Fakt ist, dass AMD durch den Extra-Cache mehr Silizium verbaut, welches bezahlt werden will.
Die CPU wird wahrscheinlich die Performancekrone im Singlethread erreichen, gerade in Games.
Und die letzten paar Prozentpunkte im HighEnd werden nunmal vergoldet, das war schon immer so.

Nur hier gibt es einen wesentlichen Faktor den du vergisst. Durch den Extra-Cache kann die CPU nicht so hoch takten, oder darf es aus Produktpolitischengründen noch nicht. OC ist ja auch deaktiviert. Es reicht ja schließlich für die Performancekrone gegenüber Intel. Die Tatsache, dass die CPU mit niedrigem Takt dank des Caches bereits die Leistung der Intel-Brechstangen-CPUs erreicht macht sie zu einem außergewöhnlichem Produkt. Ohne den Extracache wird Intel diese Effizienz erst in 2 oder 3 Generationen mittels einer besseren Fertigung erreichen.

Irgendwie ist es schon paradox. Intel hat damals beim C2Q bereit eine Art Chiplet verbaut und so Synergien bei der Fertigung genutzt. Aus 2 DualCores mach einen QuadCore. Und ließ sich Jahre später von AMD mit einem weiterentwickelten Konzept überrollen.

Auch Intel hatte bei Broadwell bereits eine CPU mit Extracahe welche enorm effizient war. Nun läuft man auch hier wieder hinterher.

Intel kann, wenn sie den wollen, aber ohne AMD würde sich dieser Laden kein Stück bewegen.
Du deklarierst 1080p als Highend? OK.

Da wird sich nämlich auch viel Unsinn eingeredet. 4k ist Highend und da ist die CPU ob mit 3dcache oder nicht fast zu belanglos. Wie schon geschrieben reicht da auch ein schneller 6 Core, wie der 13600k. Den AMD als x3d gar nicht im Programm hat. Genau deshalb legen sie den Cache auch nur auf ein Zen Die, sie wissen das mehr nutzlos ist. Da so das cachelose Die höher boosten kann, kann man den Boostclock dann Marketing technisch verwursten. Der max PB Clock den sie angeben ist nicht der des 3dcache Dies, sondern der des 3dcachelosen Dies, genau deshalb kommt der 7800x viel später, man selektiert nämlich CCX mit hohem Clock. Muss man auch wissen!

Man kauft also eine komplette Mogelpackung. Unter Spielen wird das Die mit dem 3dcache deutlich niedriger Takten als sie angeben.

Wo Intel wäre? Wo sie heute sind, die stellen sich doch selbst ein Bein, ob AMD ihnen eins stellt merken die nicht. Genau das ist ja das Problem.


Ob auf dem CPU oder GPU Markt, es ist egal ob AMD da präsent ist oder nicht, es ändert nichts. Entwicklungen beginnen weit vor ihrem Erscheinen und im Nachgang lässt sich kaum noch Grundlegendes abändern, daher hätte Intel vor 5 bis 10 Jahren reagieren müssen, haben sie das? Ehrlichweise muss man sagen das das Konzept aus P und E Cores zukunftsträchtiger ist, als AMDs Modulbauweise, die letztlich nur Kosten spart aber auch viele Nachteile hat. Unter Windows 12 haben sie es bis heute nicht geschafft einen stabilen Treiber zu liefern der die Mehrkernperformance bereitstellt, ging unter Windows 10 übrigens auch Jahre so.


Intels Verluste, falls du die meinst treffen andere auch, das liegt nicht an AMD, die derzeit ebenfalls riesen Verluste und Umsatzeinbußen einfahren.

Das Paradox ist doch das Intel Marktanteile gewonnen hat, nicht verloren und immer noch ü70% des Markts beherrscht.

Eine x3d Serie für Selbstbauer interessiert da niemanden und den 5800x3d beispielsweise werfen sie dir mittlerweile hinterher. Die CPU hat ja auch klare Nachteile fernab von Gaming und selbst unter Gaming wenn Caching keine Rolle spielt. Nischenprodukte revolutionieren keine Branche. Haben sie noch nie.

Da AMD selbst 15 bis 20% mehr unter 1080p angibt, würde ich sagen es ist in Realität und höheren Auflösungen deutlich weniger. Das ändert auch AMD nicht. Die Revolution bleibt also aus. Steckt das Geld lieber in eine schnellere GPU, da kommt mehr bei raus. Hat AMD bis heute nicht kapiert und verblödet den Markt mit 12 und 16 Core 3dcache CPUs weiter, die gar keine 12C und 16C 3dCache sind! Es sind 6 und 8C 3dcache CPUs, da der Cache nur auf einen Coredie klebt! Mal sehen ob das die Leute auch so echauffiert wie die GTX970?

G3cko
2023-02-04, 13:08:53
Du deklarierst 1080p als Highend? OK.

Da wird sich nämlich auch viel Unsinn eingeredet. 4k ist Highend und da ist die CPU ob mit 3dcache oder nicht fast zu belanglos.

Alleine dieser Satz zeigt, dass du 0 Ahnung hast. Du tätest gut daran als stiller Leser ersteinmal Wissen aufzubauen.

4k ist sicher HighEnd, aber nur bezogen auf die Grafikkarte. Was kann der Prozessor dafür, wenn unter 4k die Grafikkarte zu langsam ist und zum Flaschenhals wird. Es geht um die Frage: wie schnell ist der Prozessor, und nicht wie schnell ist die Grafikkarte. Daher testet man auch in 720p. Niemand spielt in 720p...

G3cko
2023-02-04, 18:01:06
Das wäre mal eine interessante Frage: Wo wäre Intel heute (aus technischer Sicht), hätte es Zen nie gegeben?

Ich denke, wir hätten gerade die 4. oder 5. Generation mit Sechskernern als Consumer-Spitzenprodukt. Wären wir schon bei "Intel 7"? Gäbe es schon E-Kerne?

Ich denke die Produktstrategie sähe auch anders aus. Bis zu Threadripper hat Intel den Markt in 2 Kategorien aufgeteilt.

Mainstream
QuadCores bei der die iGPU größer war als die CPU.
Die Plattform hat man für low-Budget-Server missbraucht

Server/HEDT
Man hat die Serverplattform auch für HEDT und Enthusiasten missbraucht.

Durch den Wettbewerb bewegt sich der Markt schneller und es gibt mehr Rechenleistung gerade für den Mainstream. Dafür muss man aber eben feststellen, dass durch den Wettbewerb HEDT-Plattformen überflüssig geworden sind. Threadripper hat Intel und sich selbst im HEDT zu Gabe getragen. Die CPUs sind zudem bei beiden an der Kotzgrenze. OC praktisch garnicht mehr möglich/sinnvoll.

In der Vergangenheit und heute ist Software auf die aktuelle Rechenleistung optimiert. CPUs kaufen und mittels OC Geld sparen und 2 Genrationen mehr Rechenleistung besitzen als 99% aller anderen Gamer. Die Zeiten sind vorerst vorbei.
Üppig ausgestatte Serverableger für den Endverbraucher. Auch vorbei. Nun gibt es AM5 mit Mondpreisen der gerne HighEnd sein möchte, aber keines ist.

Ich weiß ganricht wer sich diese 1000€ Mainboards kauft? Wozu? 2 Generationen später genauso Elektroschrott wie die günstigste Platine da CPU-Support endet. OC auch nicht mehr sinnvoll möglich. Da kann ich doch gleich 79503DX mit A620 kombinieren. Dazu günstigen RAM dank Cache. fertig.

Q6600 @ 50% OC
5960x @ 50% OC
7950 3DX @ Stock + A620

Irgendwie schade.

Gast
2023-02-04, 22:12:07
Alleine dieser Satz zeigt, dass du 0 Ahnung hast. Du tätest gut daran als stiller Leser ersteinmal Wissen aufzubauen.

4k ist sicher HighEnd, aber nur bezogen auf die Grafikkarte. Was kann der Prozessor dafür, wenn unter 4k die Grafikkarte zu langsam ist und zum Flaschenhals wird. Es geht um die Frage: wie schnell ist der Prozessor, und nicht wie schnell ist die Grafikkarte. Daher testet man auch in 720p. Niemand spielt in 720p...
Und wofür willst du dann 700 Euro rausschmeißen, damit du auf 720p stellen kannst und dann 200fps in jedem Spiel hast? Diese CPU Leistung kannst du in Games jahrelang nicht abrufen und der Trend geht zu noch höheren Auflösungen (8k usw.).

Wer als Enthusiast- oder Highendgamer immer noch auf 1080p unterwegs macht was falsch! Investitionen in die komplett falsche Ecke, denn bei Computergraifk geht es vor allem um Grafikqualität, da hat der Prozi kaum was mit zu tun.

Ist doch auch das was er hinterfragt und empfiehlt, eben lieber in eine GPU zu investieren. Du solltest dich also, bevor du anderen vorwirfst sich "schlau" zu machen es mal selbst tun und dein Leseverständnis verbessern.

Niemand braucht einen 16C Gaming 3dcache Prozessor, wir machen es weil wir es können? Möchte sehen wie die Latenz der IF zuschlägt wenn das zweite Die auf den Cache zugreifen muss. Das Konzept ist kompletter Blödsinn. Dann belasse ich es gleich bei einem 8C+SMT+3dcache und fertig, nur für den bekomme ich numal nicht 700 Euro (das wird der einzige Grund sein, die Dices sind eh überall die gleichen ob Zen oder Epyc scheißegal). Nur wie schon geschrieben, kann ich dann nicht so hoch takten und tue ich ja eigentlich auch nicht. Denn das tut nur das Dices ohne 3dCache.

AMD auf den Pfaden von Intel und Nvidia, Leute verblöden...die nach allem Krimskram schreien und sei er noch so ausgefallen.

Ab WQHD scheiden sich nunmal die Geister, und in UHD liegen alle Prozies gleichauf, auch der 5800x3dc.

Aber ok, von mir aus kauf dir 'ne 700 Euro CPU für 720p oder 1080p. Mein Geld iss'es ja nicht. Wunder dich aber nicht, dass mit höherer Auflösung auch eine doppelt so billige CPU taugt.

Das man in 720p testet ist ja schön gut, nur wenn niemand in 720p spielt ist dieser Test eigentlich komplett belanglos und rein theoretisch, ich kann die Leistung nicht abrufen wenn ich eine, zwei oder drei Auflösungen höher stelle, weil ich in der Computergrafik nunmal im GPU Bottleneck hänge und das wird immer so bleiben. Mit RT ist es/wird es noch schlimmer.

Die CPU ist fast zu belanglos was ja auch Nvidias Framegeneration zeigt, vielleicht will das AMD nicht so wirklich wahrhaben, den grafisch haben sie kein gutes Konzept. Diese GPU-Gen so schlimm wie nie. Die bauen allerlei Zeug zusammen, was sicher irgendwo auch innovativ ist, nur wirklich brauchen tut es der Markt nicht und bringen tut es auch nichts. Immer wieder gibt es Haken und Kinken. Zumal es zuletzt ziemlich teuer wird um überhaupt noch mitzuhalten, wo soll da der Vorteil sein?

AMD wurden in erster Linie gekauft weil sie innovativ und preiswert waren, innovativ und teuer kann jeder. Zudem haben sie jahrelange Treiberprobleme. Wenn man dann so schnell wie Intel und Nvidia herauskommt oder zumeist sogar langsamer, warum soll man dann AMD kaufen. Aus Nächstenliebe? Haben die für Gamer auch nicht (mehr)!!!

Wer seine Ruhe haben will, kauft sich Intel und Nvidia und gut iss'es.

G3cko
2023-02-05, 08:41:42
Meine Güte, du scheinst ja nicht die hellste Kerze auf der Torte zu sein.

Es gibt 2 Autos zur Auswahl. Einen Trabi und einen Ferrari. Beide kosten gleich viel. Du wählst den Trabi, weil du dir sagst im Stadtverkehr reichen mir 50km/h. Ich wähle den Ferrari, weil professionelle Tester auf dem Nürnburgring herausgefunden haben, dass der Ferrari deutlich schneller ist. Nun fahren du und ich beide keinen Nürnburgring, aber nach einem halben Jahr musst du plötzlich auf die Autobahn. Nun stellst du fest, dass der Trabi doch nicht mehr reicht da du mit 80 hinter den 40 Tonnern hinterher schleichen musst. Wie konnte das passieren?

Grafikkarten testet man in 4k oder 8k. Nicht weil jeder in 4k oder 8k spielt, sondern weil man andere limitierende Faktoren ausschließen will.

Genauso testet man CPUs in Spielen in 720p. Eine höhere Auflösung belastet ausschließlich die Grafikkarte und nicht die CPU. Du willst aber wissen welche CPU ist zum Gamen am besten geeignet.

Was bringt es dir wenn du in 8k testest und feststellst, dass alle Balken gleich lang sind, weil die Grafikarte alle getesteten CPUs ausbremst. Spielesoftware ist immer ein Zusammenspiel zwischen CPU und GPU. Willst du wissen wie schnell eine der Komponenten hierfür geeignet ist musst du die andere als Bremsklotz/Fehlerfaktor ausschließen.

Niemand zwingt dich eine GTX4090 oder eine HighEnd CPU zu kaufen. Dennoch möchte man wissen wo man am meisten Rechenleistung für sein Geld bekommt. Das kann man nicht wenn alle Balken gleich lang sind. Dann kann man nur feststellen die Leistung reich für heute, aber vielleicht willst du ja morgen auf die Autobahn, weil ein anspruchsvolleres Spiel released wurde.

G3cko
2023-02-05, 09:01:12
Und wofür willst du dann 700 Euro rausschmeißen, damit du auf 720p stellen kannst und dann 200fps in jedem Spiel hast? Diese CPU Leistung kannst du in Games jahrelang nicht abrufen und der Trend geht zu noch höheren Auflösungen (8k usw.).


Und noch etwas kannst du an 720p ablesen:

Der Prozessor arbeitet der Grafikkarte zu. Wenn unter 720p die Grafikkarte als limitierende Faktor entfällt, sind die angegebenen fps Werte jene, welche die CPU maximal im Stande ist zu leisten.

Wenn dir 60fps reichen, weil deine Grafikarte in 8k in deinem Wunschspiel ohnehin nicht mehr schafft, dann kannst du ebenso bei den 720p Benchmarks ablesen welche CPU du dafür mindestens brauchst.

Aber du schließt von dir auf andere. Du sagst AMD würde in die falsche Richtung entwickeln, weil sie mehr CPU Leistung bieten, als du benötigst. Vielleicht spielt Jemand competitiv in 1080p und hätte gerne immer 200fps.

Oder jemand wie ich. Ich hätte gerne immer 100fps und gleichzeitig viele Kerne für Videobearbeitung.

Niemand zwingt dich eine HighEnd CPU zu kaufen.

Ich bevorzuge jedoch eine andere Herangehensweise. Eine Komponente limitiert. Ich habe mir ein Budget gesetzt und kaufe das Produkt wo ich am meisten Leistung für mein Geld bekomme.

Gast
2023-02-05, 11:46:29
Meine Güte, du scheinst ja nicht die hellste Kerze auf der Torte zu sein.

???

Wieso, weil er schreibt steck das Geld für einen dicken Prozi lieber in eine GPU, weil das mehr bringt. Macht deutlich mehr Sinn wenn man fernab vom Anwendungspower einer CPU und höherer Auflösung, einen so schnellen Prozi nicht braucht. Da muss man kein Genie sein.

Ich halte die 3d-Prozies von AMD für reines Marketing. Sieh dir einfach mal einen 5800x3D versus 13700K in Games an, vor allem deren Auslastung. Während der 5800x3D auf dem letzten Loch pfeift, sitzt der 13700K das auf einer A*schbacke ab.

Das zeigt, dass AMD das miese Speicherinterface von Zen mit dem Cache umgeht, was bei Intel aber keine Rolle spielt. Immer dann wenn Spiele nicht Speicher lastig sind, hilft auch der 3D-Cache nicht.

AMD sollte mal ein schnelleres SI verbauen, dann braucht man auch den 3D-Cache nicht. Wie alles von AMD, hängt es am SI und dessen lahmer Auslegung um dort zu sparen.

Scheint Intel null Probleme zu bereiten.

Investiert also neben der GPU bei AMD in schnelleren Speicher und du brauchst keine Cache CPU, die ja auch Nachteile hat. Anwendungen brauchen keinen Cache, da zählt nur Rohpower und die muss AMD wegen der Hitzeentwicklung und dem Cachestacking beschneiden. Ich würde daher einen 7950 mit schnellem Speicher kaufen, aber sicher nicht zum gleichen Preis eine dieser Cache CPUs, weil diese unter Anwendungen meilenweit hinterher hängt.

Als AMD Anwender hat man sich wahrscheiich mittlerweile daran gewöhnt für viel Geld ewig Zweiter zu sein und eher in einer Bastelecke zu leben. Dann ist es natürlich egal.

G3cko
2023-02-05, 17:38:33
???

Wieso, weil er schreibt steck das Geld für einen dicken Prozi lieber in eine GPU, weil das mehr bringt. Macht deutlich mehr Sinn wenn man fernab vom Anwendungspower einer CPU und höherer Auflösung, einen so schnellen Prozi nicht braucht. Da muss man kein Genie sein.

Ich halte die 3d-Prozies von AMD für reines Marketing. Sieh dir einfach mal einen 5800x3D versus 13700K in Games an, vor allem deren Auslastung. Während der 5800x3D auf dem letzten Loch pfeift, sitzt der 13700K das auf einer A*schbacke ab.

Das zeigt, dass AMD das miese Speicherinterface von Zen mit dem Cache umgeht, was bei Intel aber keine Rolle spielt. Immer dann wenn Spiele nicht Speicher lastig sind, hilft auch der 3D-Cache nicht.

AMD sollte mal ein schnelleres SI verbauen, dann braucht man auch den 3D-Cache nicht. Wie alles von AMD, hängt es am SI und dessen lahmer Auslegung um dort zu sparen.

Scheint Intel null Probleme zu bereiten.

Investiert also neben der GPU bei AMD in schnelleren Speicher und du brauchst keine Cache CPU, die ja auch Nachteile hat. Anwendungen brauchen keinen Cache, da zählt nur Rohpower und die muss AMD wegen der Hitzeentwicklung und dem Cachestacking beschneiden. Ich würde daher einen 7950 mit schnellem Speicher kaufen, aber sicher nicht zum gleichen Preis eine dieser Cache CPUs, weil diese unter Anwendungen meilenweit hinterher hängt.

Als AMD Anwender hat man sich wahrscheiich mittlerweile daran gewöhnt für viel Geld ewig Zweiter zu sein und eher in einer Bastelecke zu leben. Dann ist es natürlich egal.

Nein, weil er nicht versteht was ein GPU- und ein CPU-Limit ist und warum man einen Prozessor nicht in einem GPU-Limit testet. Man kann nämlich so nicht messen, welches Produkt schneller ist. Der Ferrari und der Trabi fahren Innerorts beide nur 50. Welches Produkt ist nun das schnellere?

Und nein, nicht nur AMD profitiert von mehr Cache in Spielen. An Intels 5775C hat man das damals schon gesehen. Mit 3,3Ghz war er genauso schnell wie ein 4970k mit 4,0 Ghz.
Ich kann mir gut Vorstellen, dass auch Intel wieder einen Extracache verbauen wird.

https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/3/#abschnitt_spiele_niedrige_aufloesung

Ein unendlich großer Cache bringt keinen unendlich großen Nutzen. Manche Anwendungen profitieren davon, manche überhaupt nicht. Das ist wie beim RAM. Spiele profitieren davon am deutlichten, weil es um die Latzenz bei der Verarbeitung geht. Ein großer Chache schöpft also das Potenzzial an IPC einer Architektur voll aus. Ein Extracache ist teuer. Da hat man bisher lieber mehr Kerne verbaut. Nun ist es jedoch so, dass mehr Kerne für den Spieler nicht mehr Nutzen haben, solange die Konsolen auch nicht mehr Kerne einsetzen. Die haben 8 + HT. Daher wird für den Gamer Extra-Cache immer interessanter. Lieber mehr Cache, als meher Cores.

Gutes Beispiel ist BF3.
Der 5775C war bei gleichem Takt und Architektur 17% schneller als der 5820k, da die Anwendung von den Extrakernen des 5820k nicht profitiert hat, sehr wohl aber von dem Extracache.

https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/3/#abschnitt_spiele_niedrige_aufloesung