Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake Review-Thread
Matrix316
2024-10-27, 00:11:34
Die Anordnung der P und E Cores ist halt eigentlich Quatsch. Alleine optisch. Die Daten dürfen doch nicht hin und herspringen, sondern müssen entweder auf den P-Cores landen oder auf den E-Cores und nicht mittendrin hin und herwandern. Ist das vielleicht einfach das Problem, was man behebt, wenn man (wie auf den Bildern da bei X) die P Cores zusammenführt und die E-Cores?
So ähnlich ist das Problem ja auch beim 7850X3D mit den zwei CCDs. Stellt euch vor wir hätten alle 16 Kerne auf einem CCD aber Mittendrin ein paar mit 3D Cache verteilt und nicht separiert. Das wäre ein lustiges Scheduling Chaos.
Der_Korken
2024-10-27, 00:54:13
Die Anordnung der P und E Cores ist halt eigentlich Quatsch. Alleine optisch. Die Daten dürfen doch nicht hin und herspringen, sondern müssen entweder auf den P-Cores landen oder auf den E-Cores und nicht mittendrin hin und herwandern. Ist das vielleicht einfach das Problem, was man behebt, wenn man (wie auf den Bildern da bei X) die P Cores zusammenführt und die E-Cores?
Die physische Anordnung ist doch völlig wurscht. Man hat auch vorher Spiele, die nicht alle P-Kerne gebraucht haben, nie gezielt auf nah aneinander liegende Kerne gescheduled - weder bei Intel noch bei AMD. Und auch die Reihenfolge, in der die Kerne dem Betriebssystem gemeldet werden, sollten völlig wurscht sein, wenn der Scheduling-Algorithmus sauber implementiert ist (und wahrscheinlich könnte Intel diese Reihenfolge auch jederzeit per Firmware ändern).
Tralalak
2024-10-27, 01:26:54
Die Anordnung der P und E Cores ist halt eigentlich Quatsch. Alleine optisch. Die Daten dürfen doch nicht hin und herspringen, sondern müssen entweder auf den P-Cores landen oder auf den E-Cores und nicht mittendrin hin und herwandern. Ist das vielleicht einfach das Problem, was man behebt, wenn man (wie auf den Bildern da bei X) die P Cores zusammenführt und die E-Cores?
So ähnlich ist das Problem ja auch beim 7850X3D mit den zwei CCDs. Stellt euch vor wir hätten alle 16 Kerne auf einem CCD aber Mittendrin ein paar mit 3D Cache verteilt und nicht separiert. Das wäre ein lustiges Scheduling Chaos.
Therefore, Griffin will come - a mythical creature known as a half-eagle, half-lion in various cultures => half core and half mont - "Pentium-M moment"
Daredevil
2024-10-27, 02:05:48
Die Anordnung der P und E Cores ist halt eigentlich Quatsch. Alleine optisch. Die Daten dürfen doch nicht hin und herspringen, sondern müssen entweder auf den P-Cores landen oder auf den E-Cores und nicht mittendrin hin und herwandern. Ist das vielleicht einfach das Problem, was man behebt, wenn man (wie auf den Bildern da bei X) die P Cores zusammenführt und die E-Cores?
Das klingt alles logisch, allerdings:
Wenn du alle P-Cores in einem Cluster hast, dann braten die Dinger wieder bei 100 Grad im Hotspot des Todes und in Performance und Effizienz geht flöten. Im Bitrauschen oder CB Podcast wurde dies als Begründung genannt, wieso die P Cores etwas mehr Space haben durch die E Cores.
Andersrum: Wenn Intel nächstes Jahr den Compute Tile auf 2nm wechselt, wäre die Kiste plötzlich ganz vorne. Der schlechte 3nm Prozess von TSMC hat dem M3 auch nicht ganz gestanden.
Linmoum
2024-10-27, 02:59:52
Welcher schlechte Prozess? Der ist deutlich besser als das, was Intel fertigungstechnisch zu bieten hat und auch trotz allem noch besser als das, was AMD nutzt. In Relation zu letzterem ist es deshalb sogar eher nur semi-gut, was Intel mit ARL effizienztechnisch abliefert.
M4xw0lf
2024-10-27, 09:40:11
https://x.com/CapFrameX/status/1850261657555013653
Cyberpunk Ergebnisse sind halt einfach bloß verbuggt.
Und sie sollten fixable sein.
Die Werte sind immer noch absurd schlecht.
mocad_tom
2024-10-27, 09:50:21
Die Werte sind immer noch absurd schlecht.
zuweisungsreihenfolge reparieren
ringtakt hoch
schneller RAM
und dann nochmal schauen
Arrow Lake hat jetzt in den aktuellen Engines eigentlich gut abgeschnitten.
Negativ beispiele sind nur noch CP2077 und Factorio
Zossel
2024-10-27, 10:02:21
Andersrum: Wenn Intel nächstes Jahr den Compute Tile auf 2nm wechselt, wäre die Kiste plötzlich ganz vorne. Der schlechte 3nm Prozess von TSMC hat dem M3 auch nicht ganz gestanden.
Sollen die Margen von Intel noch schlechter werden?
Daredevil
2024-10-27, 11:00:37
Welcher schlechte Prozess? Der ist deutlich besser als das, was Intel fertigungstechnisch zu bieten hat und auch trotz allem noch besser als das, was AMD nutzt. In Relation zu letzterem ist es deshalb sogar eher nur semi-gut, was Intel mit ARL effizienztechnisch abliefert.
TSMC hat nen schlechten 3nm „early adopter“ Prozess und einen offenbar ziemlich guten ( siehe Vergleich Apple M3/M4 ).
Natürlich ist der Prozess besser als vorherige, dadurch das Intel aber nun einmal Tiles verbaut ist die Flexibilität sofern ich das nun einschätzen kann höher als vorher, wo man Gesamtpaket in der Fertigung versemmelt hat.
Die haben also die gleiche Flexibilität wie AMD, nur das sie mit eigener Fertigung am längeren Hebel sitzen. ( War nicht immer ein Vorteil sein muss, siehe Vergangenheit )
„Sollen die Margen von Intel noch schlechter werden?“
Wachstum und gleichzeitige Margen Erhöhung ist nicht immer einfach. :)
Ben Carter
2024-10-27, 11:18:28
Ist das Foveros Packaging nicht auch technisch besser als IF?
Ex3cut3r
2024-10-27, 11:35:13
Sry, bin etwas late zum Game, da ich unter der Woche viel zu tun hatte. Aber was zur Hölle ist das? Eine neue Gen, die in Games (nur Spiele interessieren mich) nicht an den Vorgänger herankommt? Was soll das? Ich weiß wirklich nicht mehr, was bei Intel los ist, aber langsam wird es echt sehr kritisch.
Sardaukar.nsn
2024-10-27, 11:52:12
@Ex3cut3r: Ich finde da wird im Moment auch dramatisiert.
Bei den Benchmarks von CB und Alza liegt Arrow Lake in seinem frühem Statium vor dem stärksten AMD X3D in...
Star Wars Outlaws
Horizon Forbidden West
Cities Skylines II
Dragons Dogma 2
Senua Hellblade 2
https://www.computerbase.de/artikel...-ultra-200s-285k-265k-245k-test.90019/seite-2
World of Warcraft
Starfield
Hogwarts Legacy
Spider-Man
The Witcher 3 (RT)
Warhammer 40k SM2 (Kopf-an-Kopf)
https://www.alza.cz/EN/intel-core-ultra-9-285k-recenze-a-testy
Natürlich gibt es noch viele Baustellen bei der neuen Architektur. Arrow Lake profitiert von schnellem RAM, man muss sich scheinbar mit dem Ringbus beschäftigen usw. Würde ich zum jetzigen Zeitpunkt auch nicht kaufen, aber den totalen Untergang sehe ich hier nicht.
RoughNeck
2024-10-27, 11:54:29
Es ist eine neue Arch.
Als AMD umstieg, dauerte es auch. Finds auch nicht so dramatisch, Intel wirds überleben. Die, die den neuesten scheiß haben wollen, werden ohnehin zugreifen, andere warten oder greifen bei AMD zu.
Gipsel
2024-10-27, 12:04:39
„Sollen die Margen von Intel noch schlechter werden?“
Wachstum und gleichzeitige Margen Erhöhung ist nicht immer einfach. :)Bis jetzt ist intels Problem eher das Schrumpfen bei gleichzeitiger Verringerung der Marge. :rolleyes:
Darkearth27
2024-10-27, 12:04:57
Die ALZA Tests kannste in die Tonne kloppen!
Exxtreme
2024-10-27, 12:09:28
Roman hat das Ding geköpft.
WY_wsJcSKeQ
Gipsel
2024-10-27, 12:26:51
Wie viel intel der Verzicht auf SMT in MT-Szenarien kostet, kann man vielleicht auch hier sehen:
https://youtu.be/sAOa4nEHoHw?t=1693
Ein delidded, direct-die wassergekühlter 285K mit deaktivierten E-Cores, die 8 P-Cores manuell auf >5,7GHz all-core gezogen und mit getweakten Settings für Ring-Takt usw. liegt bei gut 140W Verbrauch in CB23 genauso deutlich hinter einem stock-konfigurierten 88W PPT 9700X, wie hinter einem 142W PPT 7700X (beide so an die 20k) und ordnet sich sogar noch knapp hinter einem 88W PPT 7700 (ohne X) ein.
Am meisten ärgert mich daran vermutlich, was für einen Blödsinn intel auf ihren Marketing-Folien zu dem Thema verbreitet hat. :freak:
MiamiNice
2024-10-27, 12:53:00
DD + MoRa = 5,7 Ghz allcore, allerdings ohne Es, sonst kommt man mit dem RB nicht hoch. Das Video war interessant aber jetzt ist wirklich Schluss mit ARL. Die CPU ist leider eine Verschwendung. Nicht nur von Ressourcen auf der Welt (wie der Bulli oder Zen 1 und 2 XD), sondern auch von Lebenszeit :)
mocad_tom
2024-10-27, 13:26:35
Ein delidded, direct-die wassergekühlter 285K mit deaktivierten E-Cores, die 8 P-Cores manuell auf >5,7GHz all-core gezogen und mit getweakten Settings für Ring-Takt usw. liegt bei gut 140W Verbrauch in CB23 genauso deutlich hinter einem stock-konfigurierten 88W PPT 9700X, wie hinter einem 142W PPT 7700X (beide so an die 20k) und ordnet sich sogar noch knapp hinter einem 88W PPT 7700 (ohne X) ein.
Am meisten ärgert mich daran vermutlich, was für einen Blödsinn intel auf ihren Marketing-Folien zu dem Thema verbreitet hat. :freak:
Sorry - aber 'Basic Sniffing Test' für diese Zahl nicht bestanden.
Wenn der 285K mit 8 Threads 18.000 macht, dann sind das pro Thread 2250
47.000 - 18.000 = 39.000
39.000 / 16 = 2437 -> dann macht Arrow Lake pro E-Core 2437 Punkte.
Da passt etwas nicht.
Linmoum
2024-10-27, 13:44:01
Die ALZA Tests kannste in die Tonne kloppen!Hab mir deren Benchmarks gerade auch mal angesehen. In mehreren Spielen dort ist der 7800X3D kaum schneller bzw. sogar langsamer (!) als die non-X3D-Zen5. Da muss ich schon beim Verfassen der Benchmarks stutzig werden und checken, dass diese Werte so nicht hinhauen.
Twodee
2024-10-27, 13:45:51
Sorry - aber 'Basic Sniffing Test' für diese Zahl nicht bestanden.
Wenn der 285K mit 8 Threads 18.000 macht, dann sind das pro Thread 2250
47.000 - 18.000 = 39.000
39.000 / 16 = 2437 -> dann macht Arrow Lake pro E-Core 2437 Punkte.
Da passt etwas nicht.
Deine Rechnung :rolleyes:
Darkearth27
2024-10-27, 14:09:52
Hab mir deren Benchmarks gerade auch mal angesehen. In mehreren Spielen dort ist der 7800X3D kaum schneller bzw. sogar langsamer (!) als die non-X3D-Zen5. Da muss ich schon beim Verfassen der Benchmarks stutzig werden und checken, dass diese Werte so nicht hinhauen.
Nene, das ist alles 100% korrekt (ganz bestimmt, sonst würde CX Zer0Strat das ja nicht liken und teilen via soziale Medien)
MiamiNice
2024-10-27, 14:17:52
Was ist Zerostat? Wenn ich das google kommt eine Antistatikpistole :D
Undertaker
2024-10-27, 14:21:28
Wie viel intel der Verzicht auf SMT in MT-Szenarien kostet, kann man vielleicht auch hier sehen:
https://youtu.be/sAOa4nEHoHw?t=1693
Ein delidded, direct-die wassergekühlter 285K mit deaktivierten E-Cores, die 8 P-Cores manuell auf >5,7GHz all-core gezogen und mit getweakten Settings für Ring-Takt usw. liegt bei gut 140W Verbrauch in CB23 genauso deutlich hinter einem stock-konfigurierten 88W PPT 9700X, wie hinter einem 142W PPT 7700X (beide so an die 20k) und ordnet sich sogar noch knapp hinter einem 88W PPT 7700 (ohne X) ein.
Du vergleichst jetzt ernsthaft die MT-Performance und Leistungsaufnahme übertakteter, auf ST-Performance optimierte P-Cores ohne SMT gegen die gleiche Anzahl von Zen5-Cores mit SMT? :freak: Da hast du den Sinn des gesamten Hybrid-Ansatzes komplett verkannt... Die spannendere Metrik wäre: Welche ST-Leistung erbringt ein ARL P-Core bei gleicher Leistungsaufnahme vs. einem Zen5-Kern? MT-Vergleiche wären auf einer Basis von ~2 Zen5-Cores inkl. SMT vs. 1-1,5 ARL P-Cores + 2 ARL E-Cores bei ebenfalls gleichem Verbrauch entsprechend der aktuellen Modellpalette passend.
Darkearth27
2024-10-27, 14:50:05
Was ist Zerostat? Wenn ich das google kommt eine Antistatikpistole :D
Meinte einen der Programmierer von CapframeX
Der posted gerne solche absurden Benchmarks und verlinkt auch eben solche in denen nur intel vorne steht, obgleich die Werte der anderen CPUs (sogar von der gleichen Marke) nicht stimmen können und das neue Produkt auf einmal vorne steht, obwohl das entweder unmöglich oder nur mit OC oder in extremen Situationen vorkommt, das lobt er dann aber in den Himmel und es gibt dann nix besseres mehr..
w0mbat
2024-10-27, 14:50:38
47.000 - 18.000 = 39.000
:freak:
ChaosTM
2024-10-27, 14:59:06
Cinebench ist ein guter Benchmark und ich freue mich, dass Intel irgendwo vorne liegt,
aber die Relevanz im Real Life ist doch etwas eingeschränkt.
Von der Effizienz mal völlig abgesehen.
mocad_tom
2024-10-27, 15:25:14
Zur Rechnung komme ich gleich nochmal.
https://x.com/GPUsAreMagic/status/1849864099875914056
Aber Nemez hat das noch gepostet.
Mit VBS An und Memory Integrity An ist Arrow Lake schneller, als mit VBS aus.
------
okay
47.000 = 18.000 + 29.000
= 8x2250 + 16x1812
Basic sniffing test dann doch bestanden (Asche über mein Haupt)
2250 / 5.7GHz = 394
1812 / 5.1GHz = 355
Das würde bedeuten, P-Core ist in Sachen IPC nur 10% über E-Core (also jetzt im Anwendungsfall CB23)
Der_Korken
2024-10-27, 15:28:27
Ein delidded, direct-die wassergekühlter 285K mit deaktivierten E-Cores, die 8 P-Cores manuell auf >5,7GHz all-core gezogen und mit getweakten Settings für Ring-Takt usw. liegt bei gut 140W Verbrauch in CB23 genauso deutlich hinter einem stock-konfigurierten 88W PPT 9700X, wie hinter einem 142W PPT 7700X (beide so an die 20k) und ordnet sich sogar noch knapp hinter einem 88W PPT 7700 (ohne X) ein.
Auf die gleiche Weise würde der P-Core gegen ein gleichgroßes E-Core-Cluster verlieren. Die P-Cores sind nicht dazu da, MT-Benches zu gewinnen, sondern genug ST-Performance für nicht gut parallelisierte/parallelisierbare Workloads zu liefern. Würden die Kerne in Spielen nicht so abstinken, sondern konsistent 5-10% schneller als die P-Cores des 14900K sein (SMT nicht mitgerechnet), würde sich über das fehlende SMT keiner beschweren. Imho hätte man fast darüber nachdenken können die CPU 6+24 statt 8+16 auszulegen (bei ~gleicher Fläche). Dann würde das fehlende SMT noch weniger stören.
Matrix316
2024-10-27, 15:43:23
Die physische Anordnung ist doch völlig wurscht. Man hat auch vorher Spiele, die nicht alle P-Kerne gebraucht haben, nie gezielt auf nah aneinander liegende Kerne gescheduled - weder bei Intel noch bei AMD. Und auch die Reihenfolge, in der die Kerne dem Betriebssystem gemeldet werden, sollten völlig wurscht sein, wenn der Scheduling-Algorithmus sauber implementiert ist (und wahrscheinlich könnte Intel diese Reihenfolge auch jederzeit per Firmware ändern).
Naja aber sind nicht auch Signallaufzeiten wichtig und wenn die Abstände zwischen den P Cores unterschiedlich sind, stört das nicht vielleicht? Oder ist es anders, dass die Verteilung auf die Cores aus Effizenzgründen öfter die E-Cores nutzen und mehr hin und herspringen? Hat man die deswegen näher an die P Cores gesetzt und verteilt? Wenn alle Kerne verwendet werden, spielt das keine Rolle, aber die CPU verbraucht auch mehr Watt. Aber bei Games hat man ja nie 100% Belastung während des Spiels selbst. Vielleicht ein ähnliches Problem wie bei den 2CCD Ryzens.
w0mbat
2024-10-27, 15:48:51
Der neue floorplan ist nur dafür da, die Hitze besser im die zu verteilen. Sollte keine negative Auswirkungen auf die Leistung haben.
Lehdro
2024-10-27, 15:49:53
@Ex3cut3r: Ich finde da wird im Moment auch dramatisiert.
Bei den Benchmarks von CB und Alza liegt Arrow Lake in seinem frühem Statium vor dem stärksten AMD X3D in...
Star Wars Outlaws
Horizon Forbidden West
Cities Skylines II
Dragons Dogma 2
Senua Hellblade 2
https://www.computerbase.de/artikel...-ultra-200s-285k-265k-245k-test.90019/seite-2
[...]
Würde ich zum jetzigen Zeitpunkt auch nicht kaufen, aber den totalen Untergang sehe ich hier nicht.
Du kannst von diesen 5 Wins einfach mal 4 streichen, weil er dort Stock vs. Stock verliert und selbst mit MemOC gerade mal so vorbeikommt. Das ist kein Aushängeschild, sondern blamabel.
mocad_tom
2024-10-27, 16:09:34
@Lehdro
Hier werden in beide Systeme einfach die gleichen RAM reingesteckt:
https://youtu.be/7n1Xjm6UGBM?feature=shared
Arrow Lake hat aber einen um zwei Jahre neueren Memory Controller.
Und damit auch ein Anrecht auf neueren RAM.
Es ist schon witzig, bei Anwendungen wird er gegen den 9950 gebenched und bei Spielen wird er gegen den 7800X3d gebenched.
Gegen beide kann er gut bestehen - aber in beiden Einzelkämpfen wird Arrow gerad runtergeputzt.
Der8auer scheint ja auch das Interesse zu verlieren, weil Arrow relativ leicht am IMC und am Ringbus OCed werden kann, Direct-Die-Kühlung ist aber kompliziert und bringt fast nix, weil ziemlich bald nach 5.7Ghz ist es vorbei und damit ist das dann auch uninteressant.
Könnte man per LN2 das Ding auf 7Ghz hochziehen, dann könnte man für CB23 Weltrekorde schauen.
Aber da scheint es keine Luft zu geben.
Dennoch haben die Cores keine strukturellen Probleme drin.
Das Ding genau so in einen Laptop reinsetzen und man bekommt bei einer Kühllösung mit 65W gegenüber einem 13900HX die doppelte Leistung.
Sardaukar.nsn
2024-10-27, 16:55:12
Du kannst von diesen 5 Wins einfach mal 4 streichen, weil er dort Stock vs. Stock verliert und selbst mit MemOC gerade mal so vorbeikommt. Das ist kein Aushängeschild, sondern blamabel.
Ich will da auch nichts schönreden, die Arrow Lake Architektur hat seine Probleme und für 100% Gaming ist der X3D sicher der bessere und unkompliziertere Wahl. Aber es wird ja teils so getan als ob ARL völlig untauglich ist. Das sehe ich nicht. Zu World of Warcraft hätte ich auch gerne andere Benchmark Quellen gesehen, aber leider nichts gefunden.
Der_Korken
2024-10-27, 17:00:46
Naja aber sind nicht auch Signallaufzeiten wichtig und wenn die Abstände zwischen den P Cores unterschiedlich sind, stört das nicht vielleicht? Oder ist es anders, dass die Verteilung auf die Cores aus Effizenzgründen öfter die E-Cores nutzen und mehr hin und herspringen? Hat man die deswegen näher an die P Cores gesetzt und verteilt?
Es gibt keine gezielte Kern-zu-Kern-Kommunikation indem Sinne, dass sich die Kerne direkt bestimmte Daten gegenseitig zuschicken. Das einzige, was Kerne können ist, Daten (in Form einer globalen Speicheradresse) abzufragen. Je nachdem wie oft ein Kern diese Daten anfasst, liegen sie mal mehr mal weniger tief in den Caches. Im L3 liegt das, was gelegentlich aber nicht intensiv von irgendwelchen Kernen mal benutzt wurde. Und da auch nicht unbedingt in dem Slice, welches zu dem Kern gehört, der die Daten mal benutzt hat, sondern es gibt feste Regeln welche Speicheradresse in welches Slice gelegt wird. Ansonsten müsste ein Kern, wenn er einen L2-miss hat und in den L3 geht, jeden Slice von jedem anderen Kern separat durchsuchen. Das wäre extrem langsam und ineffizient. Insofern spielt es keine Rolle, dass die P-Cores nicht zusammenhängend platziert sind. Die Slices der E-Cluster werden genauso mitbenutzt wie die eigenen, auch wenn die E-Cores überhaupt nicht mitrechnen.
Gipsel
2024-10-27, 17:02:44
Du vergleichst jetzt ernsthaft die MT-Performance und Leistungsaufnahme übertakteter, auf ST-Performance optimierte P-Cores ohne SMT gegen die gleiche Anzahl von Zen5-Cores mit SMT? :freak: Da hast du den Sinn des gesamten Hybrid-Ansatzes komplett verkannt... Nein, ich stelle intels Entscheidung infrage, SMT bei den P-Cores zu streichen. Und wie gesagt auch den Bullshit, den die dazu auf ihre Slides geschrieben haben (je nach Folie entweder +5% oder -5% Performance/W durch Verzicht auf SMT bei den P-Cores bei MT-Last).
================
Das würde bedeuten, P-Core ist in Sachen IPC nur 10% über E-Core (also jetzt im Anwendungsfall CB23)Hat das intel nicht sogar selber gesagt? Deswegen haben einige ja auch schon die Frage gestellt, ob die Coves nicht eine Fehlentwicklung sind und ein wenig weiter gepushte E-Cores nicht besser wären (10% IPC und vielleicht 12% Maximaltakt fehlen).
Undertaker
2024-10-27, 18:06:37
Nein, ich stelle intels Entscheidung infrage, SMT bei den P-Cores zu streichen.
Du separierst eine Entscheidung, die im Kontext des Gesamtproduktes zu sehen ist, auf eine einzelne Metrik unter Vernachlässigung der sonstigen Auswirkungen. Perf/Thread (d.h. Taktbarkeit und IPC), Flächenbedarf oder Perf/Watt bei jeweils nur einem Thread pro P-Core sind ebenfalls alles Punkte, die von dem Streichen von SMT beeinflusst werden. All diese Auswirkungen müsstest du jetzt gewichten und zusammenrechnen, um eine Entscheidung pro oder contra SMT zu treffen. Da ist deine Bewertungslogik etwas zu kurzsichtig.
Hat das intel nicht sogar selber gesagt? Deswegen haben einige ja auch schon die Frage gestellt, ob die Coves nicht eine Fehlentwicklung sind und ein wenig weiter gepushte E-Cores nicht besser wären (10% IPC und vielleicht 12% Maximaltakt fehlen).
Es sind auf Basis der aktuellen Modellpalette immer noch 24% Maximaltaktdifferenz und damit in Summe 35% pro-Thread-Leistung. Und diese enorme Menge an ST-Performance ist auch nach wie vor als unverzichtbar für Desktop- und Mobil-Chips anzusehen.
Lehdro
2024-10-27, 19:11:54
Ich will da auch nichts schönreden, die Arrow Lake Architektur hat seine Probleme und für 100% Gaming ist der X3D sicher der bessere und unkompliziertere Wahl. Aber es wird ja teils so getan als ob ARL völlig untauglich ist. Das sehe ich nicht.
Untauglich? Nein, aber für >650€ komplett am Markt vorbei. Die CPU setzt in keiner der drei Metriken, die Intel(!) übrigens selber nach vorne gestellt hat, irgendwelche Bestmarken, die den Preis rechtfertigen könnten. Bei den beiden Kleineren wird es sogar extrem komisch, wenn man sich das Gesamtgefüge im Markt mal so anschaut. Da muss Intel echt noch einmal in sich gehen und vielleicht am Reißbrett neu anfangen.
Du separierst eine Entscheidung, die im Kontext des Gesamtproduktes zu sehen ist, auf eine einzelne Metrik unter Vernachlässigung der sonstigen Auswirkungen. Perf/Thread (d.h. Taktbarkeit und IPC), Flächenbedarf oder Perf/Watt bei jeweils nur einem Thread pro P-Core sind ebenfalls alles Punkte, die von dem Streichen von SMT beeinflusst werden. All diese Auswirkungen müsstest du jetzt gewichten und zusammenrechnen, um eine Entscheidung pro oder contra SMT zu treffen. Da ist deine Bewertungslogik etwas zu kurzsichtig.
Das kann man natürlich machen, aber für uns zählt nur eine Frage: Was ist denn das Ergebnis dieser Entscheidung?
- Games: Trotz HT-Verzicht nicht schneller
- Anwendungen: Wegen HT-Verzichts im MT defintiv langsamer, im ST trotzdem hinter AMD
- Leistungsaufnahme: Deutlich geringer, aber reicht es für AMD?
Wenn dass das Ergebnis ist, hätte sich Intel den Stunt mit dem HT-Verzicht auch sparen können. Da hilft auch keine Detailbetrachtung, sondern allein der Fakt das Intel im Servermarkt weiter an HT festhält, mit derselben Architektur wohlgemerkt, sagt doch alles. Nebelkerze & Marketinggeblubber.
Tarkin
2024-10-27, 19:54:53
oEeQ2mbkTlM ;D
Undertaker
2024-10-27, 21:05:01
Das kann man natürlich machen, aber für uns zählt nur eine Frage: Was ist denn das Ergebnis dieser Entscheidung?
- Games: Trotz HT-Verzicht nicht schneller
- Anwendungen: Wegen HT-Verzichts im MT defintiv langsamer, im ST trotzdem hinter AMD
- Leistungsaufnahme: Deutlich geringer, aber reicht es für AMD?
Wenn dass das Ergebnis ist, hätte sich Intel den Stunt mit dem HT-Verzicht auch sparen können. Da hilft auch keine Detailbetrachtung, sondern allein der Fakt das Intel im Servermarkt weiter an HT festhält, mit derselben Architektur wohlgemerkt, sagt doch alles. Nebelkerze & Marketinggeblubber.
Da würde ich nicht ganz mitgehen: ST, MT und Gaming eines 285K liegen z.B. beim Blick in die entsprechenden CB-Ratings ebenso wie die Leistungsaufnahme ziemlich genau auf dem Level eines 9950X. Die ganzen Diskussion entzündet sich ja gerade vorrangig an zwei Dingen:
1) Arrow Lake bringt kein Pendant zu X3D. Sicher für den Massenmarkt eher eine Nische, dennoch ein Stück weit schade, dass Gaming hinter den Erwartungen und auch dem Vorgänger bleibt. Dafür sinkt allerdings auch die Leistungsaufnahme massiv und am Ende bietet ARL hier nicht mehr oder weniger als die non-X3D Konkurrenz. Eingerechnet des offenbar merklich bremsenden "ausgelagerten" IMC würde ARL wohl irgendwo zwischen non-X3D und X3D herauskommen.
2) Wenn man die Performance des Vorgänger nicht durchgängig schlägt oder teils gar unterliegt, werden Vorteile wie die Leistungsaufnahme schnell vergessen - das hat schon Zen5 zum Launch gespürt. Offenbar scheint auch der TSMC-Prozess trotz Effizienzvorteilen nicht unbedingt der Taktbarkeit dienlich zu sein, was zusammen mit dem IMC-Thema gerade in Spielen schmerzt. Ich hätte deshalb evtl. auch versucht, die Modellpalette in dieser Generation weniger über den Takt zu differenzieren und 265K/245K in dieser Beziehung noch näher an das Topmodell gerückt.
2) Wenn man die Performance des Vorgänger nicht durchgängig schlägt oder teils gar unterliegt, werden Vorteile wie die Leistungsaufnahme schnell vergessen
Ich sehe keinen Vorteil bei der Leistungsaufnahme, gut gebinnte Raptor Lakes bekommst du bequem auf Arrow Lake Niveau was die Leistungsaufnahme angeht - je nach Situation mit minimalsten oder keinen Performanceverlust.
Slipknot79
2024-10-27, 21:48:43
Ich bin mehr darauf gespannt, inwiefern PC-Gaming tatsächlich eine Nische ist. Das müsste sich in den Verkaufszahlen der CPUs wiederspiegeln.
Wenn man CPUs vorrangig wegen Gaming kauft, müssten die Verkaufszahlen von Error Lake ins Bodenlose dropen.
Wenn man CPUs vorrangig wegen work (und damit meine ich rechenintensive Anwendungen und nicht Office und Chrome öffnen) kauft, müssten die Verkaufszahlen von Error Lake so hoch sein, dass die Preise stabil bleiben.
Daredevil
2024-10-27, 22:12:11
Ich sehe keinen Vorteil bei der Leistungsaufnahme, gut gebinnte Raptor Lakes bekommst du bequem auf Arrow Lake Niveau was die Leistungsaufnahme angeht - je nach Situation mit minimalsten oder keinen Performanceverlust.
Und gut gebinnte Arrow Lakes bekommste sicherlich nochmal effizienter. What’s the point? Intel hat in ihrem 40 Minütigen Video dort klar die Vor- und Nachteile dargelegt und gegenüber Raptor Lake ist das ein erster Stein einer ganzen Mauer. Arrow Lake hat ne NPU die immer effizienter arbeitet als die CPU Cores und die Media Engine kann ebenso mehr als alles andere zuvor.
Schon alleine aus dem Workload kann ein Raptor Lake nicht das gleiche leisten, selbst wenn man es nur auf die P/W beschränkt.
Und selbst wenn die NPU schnarchlahm ist, ist sie bei AI Usecases eine Entlastung oder Unterstützung für CPU/GPU und das scheffelt Ressourcen frei.
Zossel
2024-10-27, 22:16:51
Da würde ich nicht ganz mitgehen: ST, MT und Gaming eines 285K liegen z.B. beim Blick in die entsprechenden CB-Ratings ebenso wie die Leistungsaufnahme ziemlich genau auf dem Level eines 9950X. Die ganzen Diskussion entzündet sich ja gerade vorrangig an zwei Dingen:
1) Arrow Lake bringt kein Pendant zu X3D. Sicher für den Massenmarkt eher eine Nische, dennoch ein Stück weit schade, dass Gaming hinter den Erwartungen und auch dem Vorgänger bleibt. Dafür sinkt allerdings auch die Leistungsaufnahme massiv und am Ende bietet ARL hier nicht mehr oder weniger als die non-X3D Konkurrenz. Eingerechnet des offenbar merklich bremsenden "ausgelagerten" IMC würde ARL wohl irgendwo zwischen non-X3D und X3D herauskommen.
2) Wenn man die Performance des Vorgänger nicht durchgängig schlägt oder teils gar unterliegt, werden Vorteile wie die Leistungsaufnahme schnell vergessen - das hat schon Zen5 zum Launch gespürt. Offenbar scheint auch der TSMC-Prozess trotz Effizienzvorteilen nicht unbedingt der Taktbarkeit dienlich zu sein, was zusammen mit dem IMC-Thema gerade in Spielen schmerzt. Ich hätte deshalb evtl. auch versucht, die Modellpalette in dieser Generation weniger über den Takt zu differenzieren und 265K/245K in dieser Beziehung noch näher an das Topmodell gerückt.
Für den kostenintensiven Heckmeck (3nm, Pakaging) den Intel bei diesen Ding veranstaltet ist das mehr als lau.
Und dann kommt noch diese dämliche Propagandanummer mit SMT on Top dazu.
Und AMD legt ja noch nach, bzw. könnte wahrscheinlich relativ einfach noch ein Modell mit einem zusätzlichen 16 Core Chiplet zusätzlich nachlegen.
Und gut gebinnte Arrow Lakes bekommste sicherlich nochmal effizienter. What’s the point?
Muss sich erst noch zeigen wie weit die Schere zwischen gut und schlecht bei Arrow Lake auseinander geht durch den Tile Aufbau mit unterschiedlichen Nodes.
Arrow Lake hat ne NPU die immer effizienter arbeitet als die CPU Cores und die Media Engine kann ebenso mehr als alles andere zuvor.
Schon alleine aus dem Workload kann ein Raptor Lake nicht das gleiche leisten, selbst wenn man es nur auf die P/W beschränkt.
Und selbst wenn die NPU schnarchlahm ist, ist sie bei AI Usecases eine Entlastung oder Unterstützung für CPU/GPU und das scheffelt Ressourcen frei.
Wen interessiert die NPU? Welche AI Usecases? Was gibt es da schon groß außer Bildchen generieren? Die lahmarschige NPU ist so ziemlich das schlechteste Argument für Arrow Lake und wird zu 99% ungenutztes Silizium sein ...
Für die tiefgreifenden Änderungen und den großen Node-Sprung bei ARL ist das Ergebnis in jeder Hinsicht eine riesige Enttäuschung, da gibt es nichts schönzureden.
MSABK
2024-10-27, 23:15:21
Ich bin mehr darauf gespannt, inwiefern PC-Gaming tatsächlich eine Nische ist. Das müsste sich in den Verkaufszahlen der CPUs wiederspiegeln.
Wenn man CPUs vorrangig wegen Gaming kauft, müssten die Verkaufszahlen von Error Lake ins Bodenlose dropen.
Wenn man CPUs vorrangig wegen work (und damit meine ich rechenintensive Anwendungen und nicht Office und Chome öffnen) kauft, müssten die Verkaufszahlen von Error Lake so hoch sein, dass die Preise stabil bleiben.
Gaming ist nur ein Bruchteil vom Geschäft und icu behaupte mal, Intel ist vom Brand zu mächtig dass sie Schaden nehmen werden. Sie sind to big to fail. Da wird jetzt eine schlechte Gen nicht ammBrand rütteln.
ChaosTM
2024-10-27, 23:20:52
Ich hoffe wirklich, das INTEL 18A lauffähig macht.
Die angedachte Verbindung mir Samsung hätte ich mir schon viel früher erhofft.
Die einzige Möglichkeit, gegen TSMC auch nur halbwegs bestehen zu können.
Tralalak
2024-10-28, 00:02:33
Why are Intel CPUs lagging behind in gaming? Analysis of the reasons for the decline in Core Ultra gaming performance
source: https://www.bilibili.com/video/BV1tW14YGEmz/
From 03:41 there is e.g. also a comparison of the Intel Core Ultra 9 285K processor configuration 8P + 16E vs 1P + 16E, while there are actually interesting FPS and power consumption results...
Furthermore, if I understood it correctly, 17 cores, ie 1P + 16E gives a score of 31.159 pts in Cinebench R23.
OgrEGT
2024-10-28, 06:32:40
1+16 bzw 8+0 schneller im Gaming als 8+16 durch weniger Ringbus Teilnehmer?
Verbessert sich die Latenz durch weniger Teilnehmer bzw spielt die Bandbreite doch eine Rolle oder ist da was anderes kaputt?
Kriegsgeier
2024-10-28, 07:34:46
normallerweise müsste man an dem Marktpreis sehen wie die neue Intel CPUs ankommen.
Denn, Intel kann vieles verlangen aber wenn die CPUs nicht gekauft werden dann muss der Preis als Regulator auftreten und das Angebot und Anfrage helfen aufeinander zu treffen.
MSABK
2024-10-28, 07:48:12
normallerweise müsste man an dem Marktpreis sehen wie die neue Intel CPUs ankommen.
Denn, Intel kann vieles verlangen aber wenn die CPUs nicht gekauft werden dann muss der Preis als Regulator auftreten und das Angebot und Anfrage helfen aufeinander zu treffen.
Ist halt auch eine Einwegplattform die keinen Nachfolger auf dem Aockel bekommt. Wenn I tel da nichts verkauft werden sie schon nicht untergehen.
Kriegsgeier
2024-10-28, 07:55:08
die OEMs nehmen dann alles zum 60% Rabatt! DELL und HPs dieser Welt freuts!
Matrix316
2024-10-28, 11:22:41
normallerweise müsste man an dem Marktpreis sehen wie die neue Intel CPUs ankommen.
Denn, Intel kann vieles verlangen aber wenn die CPUs nicht gekauft werden dann muss der Preis als Regulator auftreten und das Angebot und Anfrage helfen aufeinander zu treffen.
Die müssten erst mal erhältlich sein. :freak: Mindfactory hat nicht mal welche im Angebot. Sonst sind fast nur Tray erhältlich, Boxed nur der 265er und das auch nur bei Caseking, Proshop und Notebooksbilliger.
Aber wenn man bedenkt, welche CPUs sich bei Mindfactory sich am besten verkaufen...
Im OEM Geschäft im Enterprise Sektor und so hat man eh kaum eine Wahl. Da schaut man vielleicht sogar mehr auf den Stromverbrauch als die Gamer. Da käuft man aber einfach im Zweifel den neuesten DELL oder Lenovo Rechner und was da drinnen ist, interessiert keinen. Hauptsache ausreichend RAM und Festplatte. Und selbst da wird man wohl eher ein Preislimit vorgeben, gerade wenn man viele Rechner auf einmal braucht. Gerade jetzt wo bald der Windows 10 Support endet, da dürften sich Dell und Co freuen...
dildo4u
2024-10-28, 12:06:22
PCores geben wohl nicht mehr viel Her dafür vertragen die E Core jetzt 5GHz.
HfWjMzhZ2IQ
Matrix316
2024-10-28, 12:30:51
Jaja...
dp6lVji3qhE
Ich würde ja gerne mal ein Arrow Lake System haben, einfach um zu testen, warum bei manchen Games das einfach so richtig langsam ist. ;)
Kann es sein, dass die P-Cores irgendwie total abkacken? Normalerweise bei 12, 13 und 14th gen, war es doch eigentlich fast egal welche CPU man hatte, wenn die Anzahl der Kerne ausreichten. Dann war ein 1x600K auf dem gleichen Niveau wie ein 1x900K, wenn z.B. nur 6 Kerne wirklich genutzt wurden. Und die E-Cores unterstützten noch diese. Hier scheint es irgendwie anders zu sein. Die langsamen CPUs sind auch insgesamt immer eigentlich langsamer.
Exxtreme
2024-10-28, 12:33:17
die OEMs nehmen dann alles zum 60% Rabatt! DELL und HPs dieser Welt freuts!
Brauchen sie wohl nicht. Arrow Lake ist für die typischen Dell- und HPE-Kunden doch eine ziemlich gute Wahl und schlägt den Vorgänger teils deutlich bei weniger Stromverbrauch. Das Ding schwächelt nur in Spielen. Neue WinDOS-Kernel und vielleicht neue Microcodes könnten das aber verbessern.
Oberst
2024-10-28, 14:06:43
Das Ding schwächelt nur in Spielen. Neue WinDOS-Kernel und vielleicht neue Microcodes könnten das aber verbessern.
Das ist zu pauschal. In der Web Browsing Performance ist der 285K klar langsamer als der Vorgänger (sowohl bei Computerbase, als auch TPU). Beim Packen/entpacken auch (7Zip oder WinRar), in MS Office teilweise auf Augenhöhe mit dem 12900k, teilweise noch hinter einem 13400F. Und auch beim Virenscanner scheint man langsamer als der Vorgänger zu sein (alles bei TPU nachzulesen). Das sind alles für Unternehmen wichtige Punkte: Die nutzen meist MS Office, interne Software ist meist Web-basiert, der AV ist aus Sicherheitsgründen entsprechend scharf gestellt...
Im Unternehmens-Umfeld sehe ich den 285K nicht deutlich vorne, eher liegt er da oft deutlich hinten. Und damit stimmt dann auch die Behauptung "schwächelt nur in Spielen" einfach nicht.
Ob das mit Kernel Anpassungen besser wird, wird sich zeigen. Aber aktuell ist Arrow Lake für Unternehmen oft nicht das Gelbe vom Ei.
Exxtreme
2024-10-28, 15:00:32
Das ist zu pauschal. In der Web Browsing Performance ist der 285K klar langsamer als der Vorgänger (sowohl bei Computerbase, als auch TPU). Beim Packen/entpacken auch (7Zip oder WinRar), in MS Office teilweise auf Augenhöhe mit dem 12900k, teilweise noch hinter einem 13400F. Und auch beim Virenscanner scheint man langsamer als der Vorgänger zu sein (alles bei TPU nachzulesen). Das sind alles für Unternehmen wichtige Punkte: Die nutzen meist MS Office, interne Software ist meist Web-basiert, der AV ist aus Sicherheitsgründen entsprechend scharf gestellt...
Im Unternehmens-Umfeld sehe ich den 285K nicht deutlich vorne, eher liegt er da oft deutlich hinten. Und damit stimmt dann auch die Behauptung "schwächelt nur in Spielen" einfach nicht.
Ob das mit Kernel Anpassungen besser wird, wird sich zeigen. Aber aktuell ist Arrow Lake für Unternehmen oft nicht das Gelbe vom Ei.
Das sind wohl alles Probleme des Gameloader-OS. Unter Linux sieht die Sache anders aus:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/5
7-zip ist da schneller, die meisten Datenbank-Benchmarks auch, Code-Kompilierung auch, Webserver auch, Verschlüsselung auch etc.
E39Driver
2024-10-28, 15:38:03
Ich finde den Launch ziemlich unterwältigend. Für ~300€ könnte das eine brauchbare Budget-Alternative für Bastler sein, wenn man ansonsten nicht wirklich konkurrenzfähig ist. Aber für 600€ ist der i9 im DIY-Markt doch tot. Mal die Baustellen zusammengefasst:
Nirgends wirklich vorne
Im Gaming langsamer als der eigene Vorgänger und Zen5 X3D wird wohl 20 - 30% vorne liegen. Ähnlicher Abstand wie Bulldozer seinerzeit
Teure externe 3nm TSMC Fertigung, die eigenen FABs laufen mit hohen Fixkosten aber weiter und werden nun noch weniger ausgelastet
Trotz besserer Fertigung nicht vor der billig herzustellenden 4nm/5nm AMD-Konkurrenz
Sockel ist jetzt schon EoL und schreckt im DiY-Markt somit noch mehr ab
Wie gesagt bis über den Preis zu gehen sehe ich keine Argumente wie Intel Arrow-Lake an den Mann bringen will. Und bei der teuren Fertigung könnte auch der Preis zu einem Problem werden
mocad_tom
2024-10-28, 15:47:04
Mit der Hauptgrund, warum Techpowerup so magere Werte rausbekommt ist, weil die so schwachen Speicher drinhaben.
https://www.techpowerup.com/review/intel-core-ultra-9-285k/6.html
2x 16 GB DDR5-6000 36-36-36-76 2T / Gear 2
andere Seiten haben da DDR5-6000 CL30
oder Computerbase hat in der ganz starken Ausstattung DDR5-8200 CL38
oder Der8auer hat DDR5-8800 CL40
Und ab diesen Configs wird dann Arrow Lake gefüttert.
Also wenn man 300€+ Speicher braucht, um aus dem Ding was rauszukitzeln ist das auch witzlos. Außerdem versucht das ja nur die sowieso zu hohe Latenz etwas zu entschärfen. Das Grundproblem bleibt ja. Es ist ja offenbar auch wirklich ein Architekturproblem, da man das bei PTL ja einfach dadurch fixt, den memctrl wieder ins CCD zu holen. Man hat bei dem MTL-Design einfach gefailt mMn und das neu zu designen dauert eben bis NVL.
Exxtreme
2024-10-28, 15:58:31
Es gibt auch DDR5-6000 mit CL28. Da geht bestimmt auch schon was. Aber ja, wäre interessant zu wissen ob zukünftige Microcode-Updates hier eine Verbesserung bringen.
aufkrawall
2024-10-28, 16:12:31
7-zip ist da schneller
Da hast du falsch geguckt. Kompressions-Speed ist auch unter Windows gut, Dekompression ist gegenüber Raptor aber arg regressed. Und das hat Phoronix gar nicht getestet.
][immy
2024-10-28, 16:41:36
Also wenn man 300€+ Speicher braucht, um aus dem Ding was rauszukitzeln ist das auch witzlos. Außerdem versucht das ja nur die sowieso zu hohe Latenz etwas zu entschärfen. Das Grundproblem bleibt ja. Es ist ja offenbar auch wirklich ein Architekturproblem, da man das bei PTL ja einfach dadurch fixt, den memctrl wieder ins CCD zu holen. Man hat bei dem MTL-Design einfach gefailt mMn und das neu zu designen dauert eben bis NVL.
Zumal das nicht gerade zur Effizienz beiträgt, wenn der Speicher samt Controller säuft.
Gleiches gilt für die Übertaktungsversuche. Geht bei den anderen halt auch, man läuft außerhalb der Garantie, der Verbrauch steigt und nach den letzten bios Updates für die älteren Generationen würde es nicht nicht wundern, wenn man hier die Alterung des Prozessors stark Vorrang treibt.
Oberst
2024-10-28, 17:26:37
Das sind wohl alles Probleme des Gameloader-OS. Unter Linux sieht die Sache anders aus:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/5
7-zip ist da schneller, die meisten Datenbank-Benchmarks auch, Code-Kompilierung auch, Webserver auch, Verschlüsselung auch etc.
Und wo genau ist er da schneller als sein Vorgänger:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/3
Weder bei Jetstream/Chrome noch bei Speedometer/Firefox ist er schneller als seine Vorgänger. Wobei man durchaus sagen muss, dass er die Effizienz-Krone hat. Ändert aber nichts daran, dass die Leistung noch sehr verbesserungswürdig ist.
Außerdem sagst du es ja selbst: "die meisten DB-Benchmarks,..."
Genau das meine ich mit "zu pauschal". Es gibt einige Benches, in denen der Vorgänger schneller ist (AMD lasse ich mal ganz außen vor). Ob das für den User relevant ist, muss jeder selbst entscheiden. Aber bei dir klang das eher nach: Nur in Spielen ist er langsamer, sonst immer schneller. Das ist aber nicht der Fall.
Und zusätzlich noch: Bei den Unternehmen, die ich kenne, gibt es entweder MacOS oder Windows, Linux nutzt da niemand (außer bei den Servern, aber da kommt kein Arrow Lake rein). Daher muss man aktuell sagen: Ganz genau schauen, ob der Neue tatsächlich schneller ist. Meist ist Arrow Lake die bessere Wahl, vor allem auch dank des deutlich besseren Verbrauchs. Aber halt nicht pauschal immer.
Zossel
2024-10-28, 18:35:54
Da hast du falsch geguckt. Kompressions-Speed ist auch unter Windows gut, Dekompression ist gegenüber Raptor aber arg regressed. Und das hat Phoronix gar nicht getestet.
Darauf muss man erstmal kommen das dekompress langsamer wird.
Haste Zahlen?
aufkrawall
2024-10-28, 18:57:45
HWUB-Test.
mocad_tom
2024-10-28, 23:07:27
Hier bei computerbase steckt ein DDR5-8200 CL38 RAM drin und der macht in AIDA eine latency von 78.9ns
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-7#abschnitt_was_ist_cudimm
Hier steckt noch stärkerer RAM drin und Ring-OC und AIDA latency 69.7ns
https://x.com/CapFrameX/status/1851007961000526162
Ich denke die Plattform ist bereit einige Benchmark-Kronen einzuheimsen.
Wieso soll sich die Anwendungsleistung nicht auch in der Gamingleistung wiederspiegeln - ich denke das ist der Flaschenhals.
Gipsel
2024-10-28, 23:34:22
Darauf muss man erstmal kommen das dekompress langsamer wird.
Haste Zahlen?HWUB-Test.
Public Service announcement.
dildo4u
2024-10-29, 05:52:08
Hier bei computerbase steckt ein DDR5-8200 CL38 RAM drin und der macht in AIDA eine latency von 78.9ns
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-7#abschnitt_was_ist_cudimm
Hier steckt noch stärkerer RAM drin und Ring-OC und AIDA latency 69.7ns
https://x.com/CapFrameX/status/1851007961000526162
Ich denke die Plattform ist bereit einige Benchmark-Kronen einzuheimsen.
Wieso soll sich die Anwendungsleistung nicht auch in der Gamingleistung wiederspiegeln - ich denke das ist der Flaschenhals.
Das Ram Tuning Argument gab es doch schon mit Raptor Lake und niemand hat ihn gekauft.
Ich bin echt gespannt wie lange das mit den ganzen teuren Z890 Boards weiter geht immer noch unbegreiflich das die Intel Auswahl massiv besser ist als AM5.
MSI hat sein AMD Support sogar zurück gefahren.
https://youtu.be/VB3iyK9xPlE?si=Kv1ku2KNRJkrJdPl&t=2106
Freestaler
2024-10-29, 06:18:12
...
Hier steckt noch stärkerer RAM drin und Ring-OC und AIDA latency 69.7ns
https://x.com/CapFrameX/status/1851007961000526162
Ich denke die Plattform ist bereit einige Benchmark-Kronen einzuheimsen.
Wieso soll sich die Anwendungsleistung nicht auch in der Gamingleistung wiederspiegeln - ich denke das ist der Flaschenhals.
Das sieht der Ersteller aber anders. Er sieht ihn 10-15% hinter einem optimierten RPL.
Gibs auf krankhaft arl als ne Gewinner CPU irgendwie darzustellen, arl ist ne totgeburt. Man muss sich der realität stellen. Selbst CapFrameX kriegt das hin.
Kriegsgeier
2024-10-29, 06:49:40
das ist ja das Krasse dabei: für den 285k muss man ja ein 350-500€ Mainboard kaufen sowie ein schnelles DDR5 RAM --> und das alles für 1 bis 1,5 Generationen? 500€ + 600€ + 300€ = 1400€ für genau WAS?! Richtig: für die Leistung der Vor, Vorgänger Generation + komisches Verhalten bei den Games.
Nene, die Rechnung geht NULL auf! Lieber dann ein 9800X3D+AM5 Mainboard und dann in 2 Jahren ein 10800X3D verbauen --> wesentlich besseres Angebot wie ich finde.
PS: und hier spricht ein iNtel-Fanboy: i7920 --> i78700k --> i713700k
Zossel
2024-10-29, 07:04:51
Auf https://geizhals.de/?cat=mbp4_1851 finde ich nichts mit ECC. Intel hatte doch vor 2 Wochen ECC auf seinen Folien drauf.
mocad_tom
2024-10-29, 09:39:35
Das sieht der Ersteller aber anders. Er sieht ihn 10-15% hinter einem optimierten RPL.
Gibs auf krankhaft arl als ne Gewinner CPU irgendwie darzustellen, arl ist ne totgeburt. Man muss sich der realität stellen. Selbst CapFrameX kriegt das hin.
In Cyberpunk schaut es mau aus
In Anwendungen ist ARL konkurrenzfähig - win some lose some gegen Ryzen 9950.
Bei Computerbase haben sie in Anwendungen sogar den guten RAM rausgezogen, sonst wäre der Abstand zu den anderen größer geworden.
Auf Phoronix in Compiler, in Datenbanken (da schau ich drauf) hält er gut mit dem Ryzen 9950 mit.
Jetzt geht es an die Spiele:
- in UE5-Titel ist er ebenfalls konkurrenzfähig
Remnant 2 / Sensua / Star Wars Outlaws / Black Myth Wukong
Dann noch andere Engines, wo ARL gut ist:
Spider Man / Horizon / Hogwarts / Warhammer
Wo hat ARL bei Spielen Probleme?
In älteren Spielen:
Shadow of the Tomb Raider / CS2 / Anno 1800
ARL ist in Far Cry z.B. zweiter.
Nur geschlagen durch 7800x3d, weil alles beim 7800x3d in den Cache passt.
Hier bei Igors Lab Far Cry:
https://www.igorslab.de/intel-core-ultra-9-285k-core-ultra-7-265k-und-core-ultra-5-245k-im-test-wenn-aus-mehr-ploetzlich-weniger-wird/3/
Schaut man in die Suppe der ganzen Reviews rein - dann ist es nicht so eindeutig, wie das die ganzen Thumbnails mit den verzerrten Gesichtern bei den Youtube-Videos den Anschein machen will.
Auch im Spiele-Bereich nicht.
Und nochmal:
Ob CS2 nun 550FPS oder 750FPS in 720P macht, das ist der mit Abstand HIRNRISSIGSTE Benchmark mittlerweile.
Jeder, der seine Kaufentscheidung nach diesem Score richtet, der hat einen an der Waffel.
Und jeder der meint, in einen 7800x3d kann man auch besseren RAM reinknallen:
Kann man schon, nur bringt der halt dann nix mehr.
Die ARL-Plattform ist nagelneu und kommt spektakulär gut mit gutem RAM zurecht.
AM5 ist nun 2 Jahre alt und stagniert an dieser Stelle allmählich.
War ja auch so, dass Sockel 1700 schon besser von gutem RAM profitiert hat, als AM5 (speziell dann die Z790-Boards).
-------
@Zossel
Für ARL braucht man ein W880-/ W890-Board und dann geht auch ECC.
https://www.tomshardware.com/pc-components/motherboards/intel-arrow-lake-chipsets-reportedly-detailed-w890-chipset-touted-for-next-gen-intel-xeon-hedt-cpus
][immy
2024-10-29, 09:49:55
Und noch mal, "guter ram" macht die Energieeffizienz wieder kaputt. Abgesehen davon das der selbst teuer ist, kaum verfügbar und auch nicht immer stabil läuft, also auch ein Glücksspiel ist.
Und gerade Anno zeigt, die single-core Leistung hat abgenommen, denn dieses Spiel reagiert gut auf auf eine hohe IPC. Counter strike ebenfalls. Und ja, eine Schwankung von 20-30 fps ist in dem Titel wohl nichts besonderes, aber >200 fps, da muss noch etwas anderes ziemlich schief laufen.
Aktuell sieht es halt stark danach aus, das arrow lakes Energieeffizienz halt daher kommt, das die CPU etwas weniger takt aufweist und aufgrund des weggefallenen HT/SMT die Hardware weniger auslastet. Es gibt auch benches von anderen CPUs wo HT ausgeschaltet wird und die Performance steigt, nur im Vergleich zu arrow lake habe ich da noch nichts gefunden. Gibt halt Spiele die dann etwas besser skalieren. Der Effekt von weniger Verbrauch dürfte dort dann aber tatsächlich auch anzutreffen sein.
Matrix316
2024-10-29, 09:54:09
Ich hab hier ein kleines Review eines kleinen Youtubers gefunden. Manche Benchmarks sind etwas komisch (CS2) aber noch komischer ist z.B. Metro Exodus 1080p Minimum Settings ist der 285er weit hinten mit 80 FPS hinter dem 7800X3D. Aber in 1440P Maximum Settings führt der 285er mit 8 FPS vor dem 7800X3D.
Oder Witcher 3 1080P medium ist der 285er nur auf Platz 3 und der 7800X3D weit weit vorne mit 44 FPS - aber in 1440P Ultra mit RT ist der 285er mit 7FPS an der Spitze! (ab 9:03).
1M1mmyTg12s
Wurde da Blödsinn gebencht, oder ist der 285er in höheren Settings doch besser? Bei einem CPU Limit müssten die Benchmarks ja gleich sein, aber hier liegen doch ein paar FPS dazwischen.
Daredevil
2024-10-29, 09:56:24
HWU hatte ebenso verschiedene Auflösungen getestet und dort war Arrow Lake im Schnitt ein paar Prozent stärker je höher die Auflösung ist, aber insgesamt natürlich schwächer.
Das ist aber eher in dem Bereich, wo man es messen kann und nicht dort, wo man es merkt.
Wenn eine CPU "besser schlecht" performt in 4k o.ä., ist das nicht unbedingt das Qualitätssiegel, was man sich wünscht. :D
Matrix316
2024-10-29, 10:27:59
HWU hatte ebenso verschiedene Auflösungen getestet und dort war Arrow Lake im Schnitt ein paar Prozent stärker je höher die Auflösung ist, aber insgesamt natürlich schwächer.
Das ist aber eher in dem Bereich, wo man es messen kann und nicht dort, wo man es merkt.
Wenn eine CPU "besser schlecht" performt in 4k o.ä., ist das nicht unbedingt das Qualitätssiegel, was man sich wünscht. :D
Wobei es einem schon mehr bringt in den Settings, wo man auch spielt, als irgendwo im niedrigen Auflösungsbereich.
Wenn ein 7800X3D in 1080p Low Details 100 FPS mehr hat, aber in 1440P Ultra 5 FPS weniger...
Prinzenrolle
2024-10-29, 10:28:24
Jetzt geht es an die Spiele:
- in UE5-Titel ist er ebenfalls konkurrenzfähig
Ja die Architektur kann prinzipiell was, habe mir den 285K bestellt.
:crazy:
Wobei es einem schon mehr bringt in den Settings, wo man auch spielt, als irgendwo im niedrigen Auflösungsbereich.
Ja, aber mal sowas von.^^
Daredevil
2024-10-29, 10:40:37
Wobei es einem schon mehr bringt in den Settings, wo man auch spielt, als irgendwo im niedrigen Auflösungsbereich.
Wenn ein 7800X3D in 1080p Low Details 100 FPS mehr hat, aber in 1440P Ultra 5 FPS weniger...
Ein Real Life Test ist halt kein CPU Test und ein CPU Test ist halt kein Real Life Test.
Wenn du ne GTX1060 auf einem 7800X3D hast, haste auch nicht mehr FPS als mit einem 5800X3D. Die Overall Performance im Gaming System richtet sich immer an dem größten Flaschenhals.
Wenn du CS in FHD spielst auf einem 480hz Moni, ist ein 7800X3D oder besser unabdingbar. Spielst du in 4K120, kannste auch nen 5600X nehmen.
Deswegen ist es so schwierig ein Fazit zu ziehen für jedwege Systeme, weil alle teilweise unterschiedliche Probleme lösen müssen. ( Monitor, FPS und Anspruch an den Spieler ).
720p Tests sind allerdings ohne die Implizieren von unterschiedlichen Szenarien und testen genau das, was sie sollen > Die theoretisch maximale Leistung des Prozessors. Wenn du auf einen 9800X3D eine 6800 schnallst und mit einem 5800X3D und 3090 mehr FPS hast, hast du misskonfiguriert.
Ich selber muss als Problem 4K120 lösen und dort gilt momentan: 5800X3D und die dickste verfügbare GPU ( 4090/5090 ).
Erst wenn die GPU durchgängig über 120fps schafft und nicht im GPU Limit ist, müsste eine schnelle CPU her.
Da man aktuell noch eher GPU als CPU limitiert ist, ist hier im Schnitt die Präferenz die GPU. Allerdings gibt es hier natürlich auch Nuancen. Wenn man auf dem absoluten Star Citizen und Anno 1800 Trip ist, geht die Rechnung nicht auf. Da ich solche Spiele nicht spiele, wäre bei mir das z.B. kein Thema.
Matrix316
2024-10-29, 10:45:01
Ein Real Life Test ist halt kein CPU Test und ein CPU Test ist halt kein Real Life Test.
Wenn du ne GTX1060 auf einem 7800X3D hast, haste auch nicht mehr FPS als mit einem 5800X3D. Die Overall Performance im Gaming System richtet sich immer an dem größten Flaschenhals.
Wenn du CS in FHD spielst auf einem 480hz Moni, ist ein 7800X3D oder besser unabdingbar. Spielst du in 4K120, kannste auch nen 5600X nehmen.
Deswegen ist es so schwierig ein Fazit zu ziehen für jedwege Systeme, weil alle teilweise unterschiedliche Probleme lösen müssen. ( Monitor, FPS und Anspruch an den Spieler ).
720p Tests sind allerdings ohne die Implizieren von unterschiedlichen Szenarien und testen genau das, was sie sollen > Die theoretisch maximale Leistung des Prozessors. Wenn du auf einen 9800X3D eine 6800 schnallst und mit einem 5800X3D und 3090 mehr FPS hast, hast du misskonfiguriert.
Ich selber muss als Problem 4K120 lösen und dort gilt momentan: 5800X3D und die dickste verfügbare GPU ( 4090/5090 ).
Erst wenn die GPU durchgängig über 120fps schafft und nicht im GPU Limit ist, müsste eine schnelle CPU her.
Da man aktuell noch eher GPU als CPU limitiert ist, ist hier im Schnitt die Präferenz die GPU. Allerdings gibt es hier natürlich auch Nuancen. Wenn man auf dem absoluten Star Citizen und Anno 1800 Trip ist, geht die Rechnung nicht auf. Da ich solche Spiele nicht spiele, wäre bei mir das z.B. kein Thema.
Das ist ja alles klar, aber mir geht es eher darum, dass in den meisten CPU Reviews oft nur niedrige Auflösungen und Details verwendet werden.
Wie die CPU vielleicht in Höheren Auflösungen und mehr Details performt, das wird oft ignoriert, weil man dann oft zum Extrembeispiel 4K Auflösung geht, wo die CPU dann oft wirklich egal ist.
Aber es gibt ja noch was dazwischen.
Kriegsgeier
2024-10-29, 11:02:49
wir fassen dennoch zusammen: es gibt kein einzigen Grund auf ein 285k oder 265k zu wechseln. Höchstens, wenn man NUR eine bestimmte Anwendung 7/24 nutzt und dort Arrows schneller rechnen.
Matrix316
2024-10-29, 11:10:21
wir fassen dennoch zusammen: es gibt kein einzigen Grund auf ein 285k oder 265k zu wechseln. Höchstens, wenn man NUR eine bestimmte Anwendung 7/24 nutzt und dort Arrows schneller rechnen.
Es gibt auch keinen Grund für einen 7800X3D, sofern man nicht die Spiele spielt, wo der schneller ist. ;)
Der Arrow Lake ist vielleicht einfach nur faul! ;D Niedrige Details interessieren den nicht. Der will gefordert werden. Ausgerechnet in Cities Skylines II, wo alles sonst die Segel streicht, läuft der hier vorne weg.
Lehdro
2024-10-29, 11:12:39
Jetzt geht es an die Spiele:
- in UE5-Titel ist er ebenfalls konkurrenzfähig
Remnant 2 / Sensua / Star Wars Outlaws / Black Myth Wukong
Remnant 2: Bei HWU kackt er gegen Zen 5 ab, ganz zu schweigen von den X3Ds. Gerade mal gleichauf mit RPL-S. (https://www.techspot.com/review/2911-intel-core-ultra-9-285k/)
Senua
Outlaws: Bei HWU verliert er sogar gegen einen 14700K, selbst wenn man nur den Bestcase nimmt. Mit 8200 DDR5 verkackt er gegen einen 14600K.
(https://www.techspot.com/review/2911-intel-core-ultra-9-285k/)
Festhalten kann man bei ARL-S auf jeden Fall die extrem inkonsistente Performance, die sogar szenenabhängig massiv schwankt. Das gab es so bei Intel auch noch nie. Und allein damit disqualifiziert er sich, aber für den Preis ist das sowieso ein No-Go.
Und jeder der meint, in einen 7800x3d kann man auch besseren RAM reinknallen:
Kann man schon, nur bringt der halt dann nix mehr.
DDR5 6000CL30 bringt gegenüber 5200 Stock halt schon nochmals etwas. Darüber wird es halt dünn - aber im Vergleich zum 285K auch verdammt günstig was den RAM angeht. Vom Verbrauch reden wir dann noch nicht einmal...
Linmoum
2024-10-29, 11:14:17
Das ist ja alles klar, aber mir geht es eher darum, dass in den meisten CPU Reviews oft nur niedrige Auflösungen und Details verwendet werden.
Wie die CPU vielleicht in Höheren Auflösungen und mehr Details performt, das wird oft ignoriert, weil man dann oft zum Extrembeispiel 4K Auflösung geht, wo die CPU dann oft wirklich egal ist.
Aber es gibt ja noch was dazwischen."Die CPU" performt in UHD genauso wie in 720p. Deswegen bencht man letzteres, damit die Resultate nicht durch andere Faktoren beeinflusst werden.
Matrix316
2024-10-29, 11:35:32
"Die CPU" performt in UHD genauso wie in 720p. Deswegen bencht man letzteres, damit die Resultate nicht durch andere Faktoren beeinflusst werden.
Naja, in den Benchmarks in dem Video von mir eben nicht. Da war die CPU in 1440p und mehr Details teils besser als der 7800X3D, obwohl dieser in niedrigen Auflösungen und Details davongezogen ist. Darum gings mir ja. Man sollte ja meinen, dass es da keinen Unterschied gibt. Aber anscheinend ja doch...
Prinzenrolle
2024-10-29, 11:38:39
es gibt kein einzigen Grund auf ein 285k oder 265k zu wechseln. Höchstens, wenn man NUR eine bestimmte Anwendung 7/24 nutzt und dort Arrows schneller rechnen.
Mit einem Raptor Lake System fiele mir auch kein Wechselgrund sein.
Da war die CPU in 1440p und mehr Details teils besser als der 7800X3D, obwohl dieser in niedrigen Auflösungen und Details davongezogen ist. Darum gings mir ja. Man sollte ja meinen, dass es da keinen Unterschied gibt. Aber anscheinend ja doch...
Einmal hohe und einmal Niedrige Details zu testen ist der ultimative Qualitätsbeweis. :D
Matrix316
2024-10-29, 11:58:33
Mit einem Raptor Lake System fiele mir auch kein Wechselgrund sein.
Einmal hohe und einmal Niedrige Details zu testen ist der ultimative Qualitätsbeweis. :D
1. Aus Spaß und um zu testen warum der so langsam teilweise ist, wäre schon ein Grund. ;) Aber von der Performance lohnt sich von Raptorlake maximal der 9800X3D wahrscheinlich. Aber da der im Idle vielleicht wieder deutlich mehr verbraucht (ähnlich dem Arrow Lake glaube ich) weiß ich garnet... aber ich spekulier schon damit. ;)
2. Besser als nur niedrige Details oder zu hohe Details zu testen. Vielleicht braucht die CPU Last um ihre Stärken auszuspielen.
OpenVMSwartoll
2024-10-29, 12:32:13
Naja, in den Benchmarks in dem Video von mir eben nicht. Da war die CPU in 1440p und mehr Details teils besser als der 7800X3D, obwohl dieser in niedrigen Auflösungen und Details davongezogen ist. Darum gings mir ja. Man sollte ja meinen, dass es da keinen Unterschied gibt. Aber anscheinend ja doch...
Da der Channel sehr unbekannt ist, fällt es schwer, seine Arbeit zu beurteilen.
Diese Auffälligkeiten kann ich in anderen Reviews so nicht erkennen.
Aber die Leistung von Arrow Lake scheint recht inkonsistent.
Matrix316
2024-10-29, 12:56:34
Da der Channel sehr unbekannt ist, fällt es schwer, seine Arbeit zu beurteilen.
Diese Auffälligkeiten kann ich in anderen Reviews so nicht erkennen.
Aber die Leistung von Arrow Lake scheint recht inkonsistent.
Deswegen fand ich das Review so interessant, bzw. die Ergebnisse, weil kaum einer in höheren Auflösungen mit viel Details testet - außer vielleicht HWUB bald mal. In den Reviews selbst waren die Vergleiche nicht dabei, oder?
Die hatten auch mal dieses Driver Overhead Video wo man verschiedene GPUs und CPUs und Auflösungen und Details verglichen hat. Das würde ich gerne mal so ähnlich für Arrow Lake und Ryzen 9000 sehen wollen. ;) https://www.youtube.com/watch?v=JLEIJhunaW8
OpenVMSwartoll
2024-10-29, 13:08:34
Deswegen fand ich das Review so interessant, bzw. die Ergebnisse, weil kaum einer in höheren Auflösungen mit viel Details testet - außer vielleicht HWUB bald mal. In den Reviews selbst waren die Vergleiche nicht dabei, oder?
Die hatten auch mal dieses Driver Overhead Video wo man verschiedene GPUs und CPUs und Auflösungen und Details verglichen hat. Das würde ich gerne mal so ähnlich für Arrow Lake und Ryzen 9000 sehen wollen. ;) https://www.youtube.com/watch?v=JLEIJhunaW8
Kann ich verstehen, dass Du das interessant findest.
Höhere Auflösungen hatte z. B. Gamestar, wenngleich die nicht mit der Genauigkeit anderer Redaktionen testen.
Aber beim Wechsel der Auflösung und gleichzeitig der Detaildichte testet man nicht mehr unbedingt die CPU als Bottleneck.
So kann man leider nicht beurteilen, was wo geklemmt hat.
ZeroStrat
2024-10-29, 15:14:05
Wenn ich sehe wo bei den Tschechen der 7950X3d liegt spreche ich denen die Kompetenz mit dem richtigen Umgang mit X3d Prozessoren ab. :freak:
Du sprichst Testern die Kompetenz ab, weil dir die Ergebnisse nicht passen? Das ist ein sportlicher Ansatz.
AMD stellt halt den nicht Gaming König, wenn du Intel schnellen Speicher an die Hand gibst und fordernde Szenen testest, also solche Szenen, wo man die Leistung auch wirklich gebrauchen kann. Selbst mit Hersteller Spec ist Intel vorne bei den Lows, siehe aktuelles PCGH Ranking.
@Linmoum: Die Tschechen bei Alza haben wohl etwas mehr mit Ringbus, Ram und Latenzen getüftelt und siehe da. Arrow Lake liegt von dem 7800x3D Gaming Champ in: World of Warcraft, Starfield, Howarts Legacy, Spider-Man, The Witcher 3, Warhammer (Kopf-an-Kopf)
Bei Computerbase sind ja auch einige relevante Titel dabei wo Intel vorne liegt. Lass die Architektur mal etwas reifen, ich denke da steckt noch einiges an Potential.
Man muss das nicht schön reden, der Launch ist vermurkst, aber man muss auch bedenken, dass Boards und OS einen großen Unterschied ausmachen können (kann man gar nicht oft genug betonen). Der tschechische Tester hat viel Sorgfalt walten lassen beim Testen und eben wie erwähnt die Systeme übertaktet mit schnellem Speicher. Dann kommt halt am Ende das raus, was rausgekommen ist. Die Szenen sind auch sehr fordernd, da können selbst die Parcours von PCGH und CB nicht mithalten.
Ein non X3d ist bei denen in WoW gleichschnell mit einem X3d das halte ich für ausgeschlossen das hab ich selber oft genug getestet, die Zahlen sehen eher nach GPU scene als CPU aus. Mal ganz davon abgesehen wo zb der 7950x3d steht im vergleich zum 7600x, absolut daneben der Test.
Edot: Das Video dazu zeigt ja ganz deutlich das es hier nicht um einen CPU Test geht.
Das ist aber plausibel, weil die Engine umgestellt wurde. Das skaliert jetzt mit vielen Kernen, was im Ergebnis zur Folge hat, dass der 9950X sehr gut abschneidet. Ist doch super.
Hab mir deren Benchmarks gerade auch mal angesehen. In mehreren Spielen dort ist der 7800X3D kaum schneller bzw. sogar langsamer (!) als die non-X3D-Zen5. Da muss ich schon beim Verfassen der Benchmarks stutzig werden und checken, dass diese Werte so nicht hinhauen.
In mehreren Spielen? In welchen denn? Der 9950X ist halt stark mit neuem AGESA und in MT-Szenarien, was Spider-Man zweifelsohne ist.
Nene, das ist alles 100% korrekt (ganz bestimmt, sonst würde CX Zer0Strat das ja nicht liken und teilen via soziale Medien)
Das ist reine Hetze und enthält nicht ein sinnvolles Argument. Enttäuschend.
RoughNeck
2024-10-29, 15:22:51
Ja die Architektur kann prinzipiell was, habe mir den 285K bestellt.
:crazy:
Welches Board, welcher RAM?
ZeroStrat
2024-10-29, 15:31:55
Das sieht der Ersteller aber anders. Er sieht ihn 10-15% hinter einem optimierten RPL.
Cyberpunk 2077 ist ein Sonderfall, in dem Sinne, dass ARL besonders schlecht abschneidet. Ansonsten sehe ich ein relativ hohes Fine Wine Potential in der Architektur.
Am Ende gilt, es stehen (mit OC etwas) höhere Speicherlatenzen gegen mehr IPC, größerer L2 Cache und eine fette OOO Engine. Das muss sich eigentlich die Waage halten im Vergleich mit Raptor Lake.
Darkearth27
2024-10-29, 17:03:17
Mark, willst du das wirklich noch mal Durchkauen?
Wenn ich die Szene benche (mit meinem optimiertem 78X3D) habe ich über 60 FPS mehr AVG in der gleichen Szene mit den Settings die in dem Screen abgebildet sind.
Sollten weitere Settings gewählt worden sein, dann ist es schlecht dokumentierter Scheißdreck und sicherlich nicht "gut"
Offenheit bei den Benchmarks ist das A und O wenn man Glaubwürdigkeit erlangen will.
Willst du mir allen Ernstes erzählen, die uralte unreal Engine 4 kann auf einmal massiv mit Mehrkernen umgehen?
Okay okay okay.. und dass ein nicht 3D in Spielen vor den mit 3D liegt ist bei der Unreal Engine 4 auch normal?
Auf welchem Planeten lebst du eigentlich?
ZeroStrat
2024-10-29, 17:08:44
Wenn ich die Szene benche (mit meinem optimiertem 78X3D) habe ich über 60 FPS mehr AVG in der gleichen Szene mit den Settings die in dem Screen abgebildet sind.
Von was redest du überhaupt? Welche Szene, welches Spiel?
Darkearth27
2024-10-29, 17:16:58
Spider Man Remastered meinte ich in diesem Speziellem Fall.
112.xx FPS bei den Tschechen, gegen meine 175AVG (selbe Szene, selbe Settings)
Das alleine reicht mir aus damit ich alle anderen Ergebnisse anzweifeln kann.
OpenVMSwartoll
2024-10-29, 18:50:25
D
[...]
AMD stellt halt den nicht Gaming König, wenn du Intel schnellen Speicher an die Hand gibst und fordernde Szenen testest, also solche Szenen, wo man die Leistung auch wirklich gebrauchen kann. Selbst mit Hersteller Spec ist Intel vorne bei den Lows, siehe aktuelles PCGH Ranking.
[...]
Ich habe mir den Index nun mehrfach angesehen und meine Augen scheinen die Daten falsch zu interpretieren, denn Deine These sehe ich nicht untermauert.
ZeroStrat
2024-10-29, 20:14:53
Spider Man Remastered meinte ich in diesem Speziellem Fall.
112.xx FPS bei den Tschechen, gegen meine 175AVG (selbe Szene, selbe Settings)
Das alleine reicht mir aus damit ich alle anderen Ergebnisse anzweifeln kann.
Nah, du hast keine 175fps mit diesen Settings, no way.
Hier habe ich das mal verglichen, wobei der 7950X3D in meinen Benchmarks (bei HUB auch übrigens) sogar leicht schneller ist also der 7800X3D. Der Run mit dem 285K ist heute frisch erstellt. Man muss vorsichtig sein mit dem Vergleich mit anderen Tests, ich habe die RX 7900 XTX genutzt. In Relation ist der Core Ultra deutlich schneller, gerade bei den Lows.
https://x.com/CapFrameX/status/1851333725730046458
Ich habe mir den Index nun mehrfach angesehen und meine Augen scheinen die Daten falsch zu interpretieren, denn Deine These sehe ich nicht untermauert.
Hier hat der 14900K 6% besser Lows, siehe Frametime-Index.
https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/2/
Auch im aktuellen Arrow Lake Review ist das der Fall.
https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/2/
OpenVMSwartoll
2024-10-29, 20:33:08
[...]
Hier hat der 14900K 6% besser Lows, siehe Frametime-Index.
https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/2/
Auch im aktuellen Arrow Lake Review ist das der Fall.
https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/2/
Ach so, Du beziehst Dich auf einen Wert der alten Generation.
Hatte bei Arrow Lake geschaut.
Darkearth27
2024-10-29, 21:54:31
Nah, du hast keine 175fps mit diesen Settings, no way.
89952
89954
Komisch..
Settings sind wie angegeben in dem Bild von den Tschechen, beziehungsweise hab ich mir sogar das Video angesehen (https://youtu.be/Bh_PAmxQgwo), dort sind Settings aber anders als es im Screenshot unten steht (Very High Settings könnte auch das Preset gemeint sein)
89953
720p - Very High, RT Very High, TAA, kein Upscaling
Sollten da weitere Settings eingestellt worden sein, ist dies nicht dokumentiert und dann ist das schon FAIL genug -> wie ich sagte, Glaubwürdigkeit ist dann "super"...
Und wenn man die Settings resettet, wird die Dynamische Auflösung auf 60 gestellt, was schon eine Fehlerquelle sein kann.. nur so als Hinweis...
Wie man sieht, wenn man nicht offen mit allem ist kann man einfach sowas nicht ernst nehmen.
Und bevor du sagst "ist ja nicht alles maxed Out" selbst das habe ich gebenched und komme dann auf 147FPS AVG.
Und um das klar zu stellen, ich Zweifel nicht die Ergebnisse vom Intel an, aber die von den Ryzen CPUs.
mocad_tom
2024-10-29, 23:52:12
Der Ringbus-Takt muss aus zwei Gründen OCed werden:
1. Man steckt schnellen RAM ins System und damit dieser an die Cores kommt muss der Ringbus Takt hoch - keine schwere Schlussfolgerung.
2. die Cache-2-Cache-Latency wird niedriger
Und davon lebte schon Raptor
Und der L3 wird auch schneller erreichbar.
Wenn Arrow in Spieletests aktuell schlechter abschneidet als Raptor, dann geht das zu ca. 60% auf die längere Latency zum RAM und zu ca. 40% auf die langsamere Cache-to-Cache-Latency.
Man kann es gar nicht isoliert auseinandernehmen und betrachten.
Bei dem Computerbase-Setup mit RAM-OC wurde da auch der Ringbus hochgejagd? -> ich kann das nirgends lesen, das wurde nirgends dokumentiert.
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-7#abschnitt_cudimm_bei_arrow_lakes
Wenn da wirklich bloß schneller RAM drin ist und der Ring wurde Original gelassen, dann sind das gute Ergebnisse - und es gibt Luft nach oben.
Wenn Computerbase aber da auch schon den Ring hochgezogen hat, dann sehen wir hier bereits den Final-Ausbau - und naja nicht prickelnd.
Mich hätte das Setup von Der8auer mit schnellem Ring, schnellem RAM und schnellen D2D und dann Remnant 2 oder MS Flight Simulator 2020 interessiert.
https://www.purepc.pl/intel-core-ultra-7-265k-test-recenzja-wydajnosc-opinia?page=0,36
Ich kann es eigentlich nicht fassen - das hier nicht mehr rausspringt.
Ich habe mir auch nochmal HWUB angeschaut und häufiger ist die DDR5-7200er config über der DDR5-8200er config, da passt was nicht.
Ich denke Arrow bekommt nochmal Firmware, bekommt nochmal OS-Updates, bekommt nochmal Game Engine tweaks.
P.S.
@Lehdro
Im Computerbase-Test hat der 7800x3d DDR5-6000CL30 - also eigentlich schon recht feiner Speicher.
dildo4u
2024-10-30, 05:23:18
Teuer RAM hilft aber er Spoilert das 9800x3D alles vernichtet
Wchwh-quceA
Kriegsgeier
2024-10-30, 06:43:06
https://www.mindfactory.de/Produkte/Core_Ultra
Ohje - die werden doch gekauft? But WHY?!
Zossel
2024-10-30, 07:05:30
Public Service announcement.
Merci!
Wenn ich mir den Screenshot von Taskmgr oben rechts anschaue scheint das wieder so ein "Test" zu sein der nur ein paar Sekunden läuft?
Zossel
2024-10-30, 07:22:35
MSI hat sein AMD Support sogar zurück gefahren.
https://youtu.be/VB3iyK9xPlE?si=Kv1ku2KNRJkrJdPl&t=2106
MSI ist eh Dreck, in meiner "Karriere" sind mir bisher 3 Mobos verreckt, zwei von MSI und eins von Epox.
Und ich kaufe sehr streng nach bestimmten Features und danach soll nix kosten.
Dabei sind die unterschiedlichsten Hersteller bei raus gekommen.
ZeroStrat
2024-10-30, 08:16:01
Settings sind wie angegeben in dem Bild von den Tschechen, beziehungsweise hab ich mir sogar das Video angesehen (https://youtu.be/Bh_PAmxQgwo), dort sind Settings aber anders als es im Screenshot unten steht (Very High Settings könnte auch das Preset gemeint sein)
Sind nicht die Settings. Das ist der Punkt. Wenn du jetzt mit "schlecht dokumentiert" kommst, dann sag mir doch mal die exakten Settings, die HUB oder ComputerBase verwendet haben. :rolleyes:
Der Ringbus-Takt muss aus zwei Gründen OCed werden:
1. Man steckt schnellen RAM ins System und damit dieser an die Cores kommt muss der Ringbus Takt hoch - keine schwere Schlussfolgerung.
2. die Cache-2-Cache-Latency wird niedriger
Und davon lebte schon Raptor
Und der L3 wird auch schneller erreichbar.
Der Ringbus hat genügend Bandbreite auch für den schnellsten DDR5, den man sich vorstellen kann. Die Core-2-Core Latenzen werden auch völlig überschätzt, wenn es um Gaming Leistung geht. Der L3 wird schneller angesprochen, ja, aber dafür haben die LC Cores eine fette OOO Engine. Was am Ende auschlaggebend ist, der übertaktete Ringbus macht die Speicherlatenzen besser.
Darkearth27
2024-10-30, 08:27:14
Sind genauso schlecht, kreide ich auch jedes Mal an.
HWU ist ein YT Rotz in meinen Augen, glaube da kein Wort.
Aber wenn man schon Videos posted von Settings und die falsch sind weil sie doch mit anderen benchen (egal wer es macht) ist einfach unglaubwürdig.
Aber ich lasse es nun, soll jeder glauben was er will, die Menschheit ist schon dumm genug und glaubt zu viel, da kommt es auf das ein oder andere unwichtige Detail auch nicht mehr an.
ZeroStrat
2024-10-30, 08:41:07
Aber wenn man schon Videos posted von Settings und die falsch sind weil sie doch mit anderen benchen (egal wer es macht) ist einfach unglaubwürdig.
Aber ich lasse es nun, soll jeder glauben was er will, die Menschheit ist schon dumm genug und glaubt zu viel, da kommt es auf das ein oder andere unwichtige Detail auch nicht mehr an.
Diggi, jetzt atme erstmal tief durch. Die Werte passen schon so. Das liegt daran, dass Spider-Man extrem bandbreitenlastig ist. Ryzens sind bekanntermaßen eher schwachbrüstig, was das betrifft, weil die IF das alles ausbremst (16bytes per Cycle Read, 32bytes per Cycle Write). Der fette L3 Cache kann das nicht kompensieren, die Hitrate auf den L3 liegt teilweise bei unter 50% in der Szene. Kannst du gerne selber mal testen, sag Bescheid.
Die Intel CPU hat ~50% mehr Bandbreite. Das macht hier den Unterschied aus.
Darkearth27
2024-10-30, 08:52:57
Kannst du gerne selber mal testen, sag Bescheid.
Kann ich ja offensichtlich nicht, mir fehlen ja die exakten Settings.
Denn wenn ich mich an die Settings aus dem Video halte habe ich eben 60 FPS mehr (und selbst wenn ich Objektdetails und Sichtweite maximiere sind es immer noch 40).
Aber hey, mach einfach was du immer machst, ich bin raus...
ZeroStrat
2024-10-30, 08:57:51
Kann ich ja offensichtlich nicht, mir fehlen ja die exakten Settings.
Denn wenn ich mich an die Settings aus dem Video halte habe ich eben 60 FPS mehr (und selbst wenn ich Objektdetails und Sichtweite maximiere sind es immer noch 40).
Die Detailstufe geht noch eine Stufe höher, oder? Ich habe das auf Englisch, da heißt es Ultra und man muss es manuell einstellen.
Linmoum
2024-10-30, 08:58:18
Es geht ihm aber nicht um Intel. Davon ab passt es immer noch nicht, dass der 7800X3D langsamer als ein 9950X ist. Das Remaster springt klar auf den extra Cache an, wie seinerzeitige Benchmarks von CB zeigen (5800X3D fast 30% schneller als der 5950X).
Zossel
2024-10-30, 09:02:34
(5800X3D fast 30% schneller als der 5950X).
Nein!? - Doch!! - Ohh!!!
ZeroStrat
2024-10-30, 09:05:35
Es geht ihm aber nicht um Intel. Davon ab passt es immer noch nicht, dass der 7800X3D langsamer als ein 9950X ist. Das Remaster springt klar auf den extra Cache an, wie seinerzeitige Benchmarks von CB zeigen (5800X3D fast 30% schneller als der 5950X).
Der 9950X hat aber mehr Kerne und doppelte IF Lanes = mehr Bandbreite, außerdem RAM OC in diesem Test.
Es gab übrigens irgendwann mal ein Update, dass Ryzens mit 2 CCDs deutliche schneller gemacht hat!
Darkearth27
2024-10-30, 09:07:49
Die Detailstufe geht noch eine Stufe höher, oder? Ich habe das auf Englisch, da heißt es Ultra und man muss es manuell einstellen.
Es ist alles auf Maximum, wie oft soll ich das noch sagen?
147FPS stehen mit Objektdetails (10) und Sichtweite (25) -> maxed Out <- auf dem Tacho (siehe Anhang), mit den Settings aus dem Video (5 und 0) sind es 175 FPS wie ich bereits gepostet habe..
Dort sogar "nur" mit 6000 / 3000 / 2000 MCLK / UCLK / FCLK
89958
Linmoum
2024-10-30, 09:11:31
Der 9950X hat aber mehr Kerne und doppelte IF Lanes = mehr Bandbreite, außerdem RAM OC in diesem Test.
Es gab übrigens irgendwann mal ein Update, dass Ryzens mit 2 CCDs deutliche schneller gemacht hat!Und dann ist der 7950X3D langsamer als der 7950X und 9700X, weil...? Deine Argumentation passt nicht zu den Benchmarks dort. Die sind einfach völlig widersprüchlich und nicht ernst zu nehmen.
mocad_tom
2024-10-30, 09:11:36
@Darkearth
wie viel hast du infinty fabric hochgezogen?
mMn ist das beim 7800x3d bei fordernden Szenen dann das Bottleneck.
Alles was ein 7800x3d komplett aus dem L3-Cache raus füttern kann, dort ist er der King.
Aber wenn man da die Grenzen sprengt, dann braucht man das darunter liegende Subsystem.
Ich habe gerade nochmal nachgeschaut, bei dir ist der FCLK auf 2200 und damit ist dann DDR5-6600CL30 auch symmetrisch zu den 2200?
verstehe
In Spielen lässt man halt aktuell wirklich viel liegen, wenn man sich nicht um den Speicher kümmert und deshalb war diese Runde an Benches komplett schwach(und Computerbase überraschend souverän im Vergleich zu anderen Seiten).
JayzTwoCents hatte ich bisher so noch nicht auf dem Schirm.
Aber krass, wie schnell er da Sachen mit dem übertakteten RAM auf die Beine gestellt hat.
Und ja der 285K ist an manchen Punkten eine Diva - weil er sich nicht genügend auf sein Cache-Subsystem verlassen kann, sondern auch den Speicher gierig braucht.
Darkearth27
2024-10-30, 09:17:21
@Darkearth
wie viel hast du infinty fabric hochgezogen?
Ich habe gerade nochmal nachgeschaut, bei dir ist der FCLK auf 2200 und damit ist dann DDR5-6600CL30 auch symmetrisch zu den 2200?
Richtig, 2200 FCLK und 6600 CL30 RAM somit "1:1"
Dennoch machen 200 FCLK und 600 RAM keine 35 bzw über 60 FPS Unterschied aus.
Falls doch, ist das ja ein fast noch besserer "RAM OC Benchmark" als es seiner Zeit CyberPunk 2077 war.
Ich will auch eigentlich gar nicht weiter drauf eingehen, denn gerade solche OC Benchmarks (wo die Samples alle unterschiedlich gut sind) sind nicht wirklich hilfreich, es geht mir nur einfach darum, solch eine Diskrepanz zu verstehen.
Und dazu kommt halt einfach der Umstand, wenn man Videos von Settings posted, diese aber nicht verwendet, wird es nur noch unübersichtlicher (egal ob da Intel, AMD oder sonst was an Firmennamen dran steht).
mocad_tom
2024-10-30, 09:19:16
@Linmoun
Auch bei AMD gilt, wird der Infinity Fabric Takt hochgezogen, richtig geiler Speicher reingeknallt, dann gibt es einen abnehmenden Grenzertrag.
Zwischen einem 7700X und einem 7800X3D gehen dann die Werte immer näher zusammen (je nach Workload).
Workload, der sich über viel Speicher drüber erstreckt wird vom L3 alleine nicht mehr bedient.
Man kann Szenarien finden, wo ein 7700X und ein 7800X3D bei gleichem Takt ziemlich gleich performen.
ZeroStrat
2024-10-30, 09:25:53
@Dark
Das muss hier doch noch höher gehen, im Englischen geht das bis Ultra.
https://i.imgur.com/4jF0XYK.png
Darkearth27
2024-10-30, 09:27:23
Sehr hoch = Ultra, mehr geht nicht....
mocad_tom
2024-10-30, 09:32:20
von DDR5-6000 + FCLK2000 (147FPS) auf DDR5-6600 + FCLK2200 (175FPS)
ist komplett krank (im positiven Sinn)
-----
klapp mal die Dropdownbox auf - die haben sicher nur über eine ressourcen-datei übersetzt, die Indexe/Reihenfolge muss ja gleich sein
mocad_tom
2024-10-30, 09:38:37
@Darkearth
Die 6600/2200 muss dann auch symmetrisch zu irgendeinem anderen internen Takt sein - unter Garantie - das muss eine "Magic Number" im Design sein.
Ich kann mir das anders gerade nicht erklären.
ZeroStrat
2024-10-30, 09:39:22
Richtig, 2200 FCLK und 6600 CL30 RAM somit "1:1"
Das ist nicht 1:1. Der Speichercontroller taktet mit 3300MHz, der IF mit 2200MHz.
Darkearth27
2024-10-30, 09:42:20
Das ist nicht 1:1. Der Speichercontroller taktet mit 3300MHz, der IF mit 2200MHz.
ALTER 6600 / 3300 MEMCLK = UCLK = 1:1
FCLK 2200 ist da nicht mit gemeint..
89959
Radeonfreak
2024-10-30, 09:52:04
Eben. Der IF Takt ist doch komplett entkoppelt. (hab 2167)
Du sprichst Testern die Kompetenz ab, weil dir die Ergebnisse nicht passen? Das ist ein sportlicher Ansatz. .
Die passen nicht nur, die sind völlig diametral zu praktisch ALLEN Ergebnissen die es jemals für diesen Prozessor gab. Und ja, das ist Stümperei.
mocad_tom
2024-10-30, 10:09:52
Die Szene mit dem gleichen Speicher(6600), den gleichen Settings und dem gleichen Takt
Einmal mit 7700X und einmal 7800X3D
147FPS *1.10 = 162FPS
(der RAM wurde um 10% übertaktet, die FPS gingen aber um 19% hoch)
Kann das sein, das die Anbindung zur PCIe Schnittstelle das Fabric so beschäftigt?
IO-Die muss ja beides Füttern - den Core mit Speicherzugriffe, und dann von Core zu IO-Die zu Graka mit Drawcalls.
Nochmals zur Diskussion, ob der Alza-Test gut ist -> JayzTwoCents hat seine Werte und damit bestätigt er, was in ARL steckt gemeinsam mit gutem RAM.
Im Alza-Test kann man jetzt bemängeln, man hat sich keine Mühe mit dem 7800X3D RAM gemacht.
Aber im Computerbase Test hat man dem 7800X3D auch guten RAM dazu gegeben - allmählich lichtet sich Nebel ein bisschen.
-------
Ich mache mal eine Vorhersage zum 9800X3D -> dort wo es eh schon reicht, dort setzt er nochmals einen drauf(hallo neuer Super-Benchmarkwert in CS2).
Dort wo man nicht genug haben kann, dort wird er wenig ausrichten können, weil es mittlerweile im IO-Die limitiert und man dann selber mit Handtuning rangehen muss.
Wenn man dann das "gewichtete Mittel" macht schaut das alles klasse aus.
E39Driver
2024-10-30, 10:10:55
Wird jetzt hier ernsthaft seit 2 Seiten verbissen über ein Youtube Review eines kleinen unbekannten Tschechischen Kanals diskutiert, wenn auf den ersten Blick klar ist die Werte können nicht stimmen da Zen-non-3d abweichend zu allen anderen Tests nur die selben Werte wie Zen X3d erreicht? Wenn diese Werte also gewürfelt sind, warum sollten dann nicht auch die Arrow-Lake Werte im Video gewürfelt sein...
ZeroStrat
2024-10-30, 10:22:51
Die passen nicht nur, die sind völlig diametral zu praktisch ALLEN Ergebnissen die es jemals für diesen Prozessor gab. Und ja, das ist Stümperei.
Bei so einem Unfug bin ich raus. Alleine durch Boards, Windows Versionen, AGESA Versionen, OC, Settings, Game Updates, Szenen, verwendete GPUs kann sich quasi jede Kombination von Ergebnissen ergeben.
@Dark: Ich poste nachher meine Settings, komme da gerade nicht ran. Was interessant ist, unsere 1% Low Average liegen sehr nahe zusammen.
Zossel
2024-10-30, 10:49:09
ALTER 6600 / 3300 MEMCLK = UCLK = 1:1
Welche Bedeutung hat der Parameter "ALTER"?
Und wo finde ich den in meinen BIOS?
Darkearth27
2024-10-30, 10:50:50
Denk dir einfach ein Komma dazu..
Oder für die Österreicher ein "OIDA".
Zossel
2024-10-30, 10:52:32
Wird jetzt hier ernsthaft seit 2 Seiten verbissen über ein Youtube Review eines kleinen unbekannten Tschechischen Kanals diskutiert, wenn auf den ersten Blick klar ist die Werte können nicht stimmen da Zen-non-3d abweichend zu allen anderen Tests nur die selben Werte wie Zen X3d erreicht? Wenn diese Werte also gewürfelt sind, warum sollten dann nicht auch die Arrow-Lake Werte im Video gewürfelt sein...
Die Tatsache das die teuerste CPU nicht in allen Anwendungen und überall die schnellste ist scheint bei einigen zu Verwirrungen zu führen.
OpenVMSwartoll
2024-10-30, 11:17:18
Bei so einem Unfug bin ich raus. Alleine durch Boards, Windows Versionen, AGESA Versionen, OC, Settings, Game Updates, Szenen, verwendete GPUs kann sich quasi jede Kombination von Ergebnissen ergeben.
Nein.
Edit: Um hier mal zu verdeutlichen, was mich stört: Bei Benchmarks ist es wichtig, zu wissen was genau wie gebenchmarkt wurde.
Alle diese Informationen müssen zwecks Reproduzierbarkeit bekannt sein.
Ein massiver Ausreißer muss einen nachdenklich machen.
Dein Argument würde dazu führen, zu glauben, dass Ergebnisse bedeutungslos seien, da ja irgend etwas herauskommen könne.
Ich glaube, das solltest Du noch mal überdenken.
MiamiNice
2024-10-30, 11:44:04
Wird jetzt hier ernsthaft seit 2 Seiten verbissen über ein Youtube Review eines kleinen unbekannten Tschechischen Kanals diskutiert, wenn auf den ersten Blick klar ist die Werte können nicht stimmen da Zen-non-3d abweichend zu allen anderen Tests nur die selben Werte wie Zen X3d erreicht? Wenn diese Werte also gewürfelt sind, warum sollten dann nicht auch die Arrow-Lake Werte im Video gewürfelt sein...
Völlig losgelöst vom den hier besprochendem Thema, die meisten hier glauben seit Jahren, dass AMD die schnellsten Gaming CPU baut. Kannst Du auf jeder Seite, in jedem Review der letzten Jahre nachlesen. Problem ist nur, das entsprach nie der Realität. Erst mit dem 7800X 3D hat AMD Intel in Sachen Gaming überholt.
Was ich sagen will ist, die Realität die die Fachpresse abbildet ist nicht das, was in der Realität auch Fakt ist.
mocad_tom
2024-10-30, 11:50:02
@Zossel
andersrum wird ein Schuh draus.
Arrow Lake wird gerade gebencht gegen 7800X3d / 9950X / 14900K
Und in jedem einzelnen Bench sagt man, wieso ist die CPU jetzt nicht besser gegen diesen Gegner und im nächsten Bench jetzt nicht besser gegen diesen Gegner.
Nochmal:
Im Computerbase-Parcours haben sie bei den "Anwendungen" die 285K-DDR5-OC-Config rausgenommen.
Das wäre ein Blutbad geworden - es hätte nicht ins Narrativ gepasst.
Weil gleich der Einwurf kommen wird:
Einen Anwendungs-Benchmark-Parcours 9950X mit DDR5-6600CL30 vs 285K mit DDR5-8200CL38 und wir wissen, wer in den nächsten 2 Jahren Anwendungsweltmeister sein/bleiben wird.
][immy
2024-10-30, 11:57:22
@Zossel
andersrum wird ein Schuh draus.
Arrow Lake wird gerade gebencht gegen 7800X3d / 9950X / 14900K
Und in jedem einzelnen Bench sagt man, wieso ist die CPU jetzt nicht besser gegen diesen Gegner und im nächsten Bench jetzt nicht besser gegen diesen Gegner.
Nochmal:
Im Computerbase-Parcours haben sie bei den "Anwendungen" die 285K-DDR5-OC-Config rausgenommen.
Das wäre ein Blutbad geworden - es hätte nicht ins Narrativ gepasst.
Weil gleich der Einwurf kommen wird:
Einen Anwendungs-Benchmark-Parcours 9950X mit DDR5-6600CL30 vs 285K mit DDR5-8200CL38 und wir wissen, wer in den nächsten 2 Jahren Anwendungsweltmeister sein/bleiben wird.
Da wo es eine Rolle spielt, epyc und threadripper. Da hat Intel quasi gar nichts mehr. Und wer wirklich die Anwendungsperformance in dem Bereich braucht ist mit normalen Desktop CPUs eh falsch beraten.
mocad_tom
2024-10-30, 12:03:38
Du holst dir aber mit EPYC und Threadripper so viele andere Pferdefüße mit dazu.
Da lobe ich mir eine Desktop-Plattform - jetzt echt.
Und ja - da haben wir den nächsten falschen Vergleich.
Ich stell mir doch nicht 5 Kisten hin, nur um einmal das zu machen, dann einmal das und dann einmal.
Schonmal Threadripper durch den Spiele-Parcours durchgejagd?
von DDR5-6000 + FCLK2000 (147FPS) auf DDR5-6600 + FCLK2200 (175FPS)
ist komplett krank (im positiven Sinn)
Das ist nicht krank sondern bugged, oder irgend ein anderen Takt oder ein Setting wird beeinflusst. Skalierung über 100% ist nicht möglich wenn nicht irgendwo anders "versehentlich" eine Handbremse gelöst wird.
Darkearth27
2024-10-30, 12:30:44
Ihr vermischt da etwas.
Die 147 FPS sind mit maximalen Details (Objektdichte und Sichtweite auf höchste Einstellung) und das obwohl der RAM und der FCLK "nur" bei 6000 und 2000 waren.
Die 175 FPS sind mit den Werten aus dem Video (5 und 0).
In beiden Fällen ist der 7800X3D aber schneller als das gezeigte im Test von den Tschechen, darauf wollte ich hinaus.
mocad_tom
2024-10-30, 13:32:46
@Darkearth27
danke fürs klarstellen
aber was wäre die richtige Skalierung von 6000 auf 6600 mit den exakt gleichen settings?
Dann noch ein anderes Detail:
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-2
Details zu Leistungsprofilen und Sicherheits-Features
Die Windows-Sicherheits-Features Core Isolation (Kernintegrität) und Memory Integrity (Speicherintegrität, Hypervisor-Protected Code Integrity (HVCI)) waren auch dieses Mal aktiv – auf den genutzten Plattformen sind sie es mit geladenen BIOS-Defaults ab Werk ohnehin. Insbesondere HVCI kostet im CPU-Limit in Spielen teilweise zweistellig an Leistung. Darauf zu achten, ist essenziell. Nach jedem CPU-Wechsel wurde penibel darauf geachtet, dass alle Voraussetzungen für die Nutzung der Features weiterhin vorlagen.
Hut ab vor dieser Entscheidung.
Kein Mensch schaltet heute ASLR DEP NX ab, weil es einfach Sicherheit bietet.
Und genauso wird in den nächsten Jahren kein Mensch darüber diskutieren, ob man VBS und HVCI abschaltet.
Darkearth27
2024-10-30, 13:43:59
Die Skalierung kann ich dir aktuell nicht sagen, das müsste ich separat testen.
Aber im Grunde ist es auch egal.
Die Werte werden nicht zu denen aus dem Video / dem Test passen (deren sind niedriger).
Ich lasse es nun auch bleiben, genug abseits des eigentlichen Themas zugebracht. Mea culpa.
Lehdro
2024-10-30, 14:15:12
Ryzens sind bekanntermaßen eher schwachbrüstig, was das betrifft, weil die IF das alles ausbremst (16bytes per Cycle Read, 32bytes per Cycle Write).
Es ist genau andersherum. (https://images.anandtech.com/doci/17585/SoC_31.png) Macht auch deutlich mehr Sinn, schneller zu lesen als zu schreiben.
aufkrawall
2024-10-30, 14:33:56
Das muss man jetzt auch alles nicht zu hoch hängen. Miles Morales spawnt immer noch weniger Threads auf 8C Zen-CPUs als auf Intels. Warum? Weil Nixxes offenbar blöd sind. Falls dann beim Vorgänger Remastered-Titel alles in Ordnung ist, wäre das purer Zufall. Was ich nicht glaube...
Da kann man jetzt nicht unbedingt irgendwelche Ableitungen für Unterschiede in der Hardware ala "Es liegt an der Bandbreite" usw. anstellen...
@Darkearth27
Hut ab vor dieser Entscheidung.
Kein Mensch schaltet heute ASLR DEP NX ab, weil es einfach Sicherheit bietet.
Und genauso wird in den nächsten Jahren kein Mensch darüber diskutieren, ob man VBS und HVCI abschaltet.
Ich habs aus und werds aus lassen. Wurscht aufm Gaming Rechner.
Prinzenrolle
2024-10-30, 16:49:38
Jeder 285K Test muss mit mindestens DDR5 8800 durchgeführt werden, alles andere ist unnötig. Der AMD kriegt nur DDR 5 5600. So sollte es passen.
Twodee
2024-10-30, 17:01:52
Jeder 285K Test muss mit mindestens DDR5 8800 durchgeführt werden, alles andere ist unnötig. Der AMD kriegt nur DDR 5 5600. So sollte es passen.
Nope, max. DDR5-5600 UDIMM bzw. max. DDR5-6400 CUDIMM für den Intel
https://www.intel.de/content/www/de/de/products/sku/241060/intel-core-ultra-9-processor-285k-36m-cache-up-to-5-70-ghz/specifications.html
Zen4: max 5200 / Zen5: Max: 5600
https://www.amd.com/de/products/processors/desktops/ryzen/7000-series/amd-ryzen-7-7800x3d.html
https://www.amd.com/de/products/processors/desktops/ryzen/9000-series/amd-ryzen-9-9950x.html
Nur CUDIMM 6400. AM5 soll ebenfalls CUDIMM-Support bekommen, haben wir sicherlich wieder Gleichstand nächstes Jahr.
Tralalak
2024-10-30, 17:48:56
Intel's Arrow Lake chips aren't winning any awards for gaming performance but I think its new E-cores deserve a gold star
source: https://www.pcgamer.com/hardware/processors/intels-arrow-lake-chips-arent-winning-any-awards-for-gaming-performance-but-i-think-its-new-e-cores-deserve-a-gold-star
TobiWahnKenobi
2024-10-30, 18:17:10
kaufen, benutzen, reifen lassen und ab und zu mal neue RAMs zustecken.. fast wie immer, weiss gar nicht was es da zu philosopieren gibt. intel wird das portfolio sicher nicht umstricken und wenn man doch schon super duper rechner hat, warum zerbricht man sich über andere produkte den kopf.. da würde ich die superkiste unterm tisch doch zum zocken nutzen statt über dinge zu grübeln, die eh an meinem haushalt vorbeiziehen.. er fährt mercedes aber träumt von maserati.. in seiner freizeit fährt er nicht spazieren, er hockt lieber im maseratiforum rum und scheisst klug.
btw,
ich hätte die platform aus neugierde gern gekauft.. jetzt passend zu meinem langen WE.. aber notebooks hier in hannover hat weder brauchbaren RAM noch CPUs am lager.
(..)
mfg
tobi
Prinzenrolle
2024-10-30, 21:57:25
Nope, max. DDR5-5600 UDIMM bzw. max. DDR5-6400 CUDIMM für den Intel
Schon klar, das war ein Scherz.
Freestaler
2024-10-30, 23:04:51
Was positives: er belebt die Diskussion über Hardware. Bereits jetzt keine 2 Wochen nach release etwa 4mal mehr Posts im ReviewThread hier im 3dc als der RPL überhaupt bis jetzt in seinem ReviewThread.;-)
aufkrawall
2024-10-30, 23:19:40
Wird auch daran liegen, dass die Performance zwischen den Workloads so abartig abweicht wie lange nicht mehr bei einem anderen Produkt. Folglich muss man dann mehr darüber diskutieren, was genau schlecht oder gut ist. Ein gutes Zeichen ist das jedenfalls nicht.
dildo4u
2024-10-31, 05:47:56
Laut diesem Video sind die P Cores schon bei 5.4Ghz am Ende da der Chip zu Warm wird.
Ohne IHS 5.7Ghz
WY_wsJcSKeQ
Zossel
2024-10-31, 08:35:28
Wird auch daran liegen, dass die Performance zwischen den Workloads so abartig abweicht wie lange nicht mehr bei einem anderen Produkt. Folglich muss man dann mehr darüber diskutieren, was genau schlecht oder gut ist. Ein gutes Zeichen ist das jedenfalls nicht.
Schlechtes Balancing. Alle CPU-Architekten reden ständig über balancing.
Als Autovergleich: Eine Formel-1 Karre wird mit einem Schiffsdiesel kein einziges Rennen gewinnen.
Zossel
2024-10-31, 08:42:06
Hut ab vor dieser Entscheidung.
Kein Mensch schaltet heute ASLR DEP NX ab, weil es einfach Sicherheit bietet.
Damit sind auch keine bis kleine Performance Einbußen verbunden. Und ernsthafte Exploits/Shellcodes lassen sich davon nicht aufhalten.
Und genauso wird in den nächsten Jahren kein Mensch darüber diskutieren, ob man VBS und HVCI abschaltet.
Du vergleichst Apfel mit Birnen weil das spürbare Perfomance Performance Einbußen mit sich bringt.
Zossel
2024-10-31, 09:18:55
Diggi, jetzt atme erstmal tief durch. Die Werte passen schon so. Das liegt daran, dass Spider-Man extrem bandbreitenlastig ist. Ryzens sind bekanntermaßen eher schwachbrüstig, was das betrifft, weil die IF das alles ausbremst (16bytes per Cycle Read, 32bytes per Cycle Write).
Damit komme ich auf die folgenden jeweiligen bidirektionalen Bandbreiten pro Richtung:
$ python3 -c "print( 2E9 * 16 / 1E9 )" # Write
32.0
$ python3 -c "print( 2E9 * 32 / 1E9 )" # Read
64.0
$
Das passt doch recht gut zu der unidirektionalen Bandbreite von DDR5.
Der fette L3 Cache kann das nicht kompensieren, die Hitrate auf den L3 liegt teilweise bei unter 50% in der Szene. Kannst du gerne selber mal testen, sag Bescheid.
Welches Messgerät nutzt du zur Ermittlung der Hitraten? Und welche DRAM-Bandbreiten liegen während der Phasen mit der 50% L3-Hitrate tatsächlich an?
Dann könnte man schon mal besser mutmaßen ob es dort ein Latenz- oder ein Bandbreiten-Thema ist, und als nächstes dann schauen welche weiteren Counter die These widerlegen oder bestätigen können.
Ich tippe ja eher auf Latenz, weil dort wahrscheinlich auf heftig verpointerte Strukturen zugegriffen wird.
Meine bisherigen naiven Versuche zur Ermittlung der genutzen DRAM-Bandbreiten waren bisher nicht von Erfolg gekrönt: (Ich habe auch nicht weiter nachgeforscht)
$ sudo perf stat -e umc_mem_bandwidth foo bar
event syntax error: 'umc_mem_bandwidth'
\___ Bad event name
Unable to find event on a PMU of 'umc_mem_bandwidth'
Run 'perf list' for a list of valid events
Usage: perf stat [<options>] [<command>]
-e, --event <event> event selector. use 'perf list' to list available events
$ sudo perf list | grep umc_mem_bandwidth
umc_mem_bandwidth
$
Zossel
2024-10-31, 09:51:36
Was positives: er belebt die Diskussion über Hardware. Bereits jetzt keine 2 Wochen nach release etwa 4mal mehr Posts im ReviewThread hier im 3dc als der RPL überhaupt bis jetzt in seinem ReviewThread.;-)
Wer ist "er"? Klare Bezüge können etwas wunderbares sein.
Dude lies den thread titel :rolleyes:
Zossel
2024-10-31, 10:26:04
Dude lies den thread titel :rolleyes:
Gibt es hier einen User namens "Arrow Lake"?
Matrix316
2024-10-31, 10:50:21
Ich finde auch, dass Arrow Lake viel interessanter ist als Ryzen 9000. Gerade weil er so inkonsistent performt. Wenn das die Über CPU wäre oder er komplett langsam wäre, wäre es langweilig, aber so ist er mal Championsleague und dann Kreisklasse. Das macht die CPU spannend.
Btw. bin ich der einzige der CUDIMM an Rambus damals erinnert? Extra teurer Speicher den man braucht um die Leistung zu bringen...
mocad_tom
2024-10-31, 11:26:13
@Zossel
>Du vergleichst Apfel mit Birnen weil das spürbare
>Performance Einbußen mit sich bringt.
ASLR NX DEP hat damals auch 5% bis 10% Performanceeinbußen gebracht.
Nur wurde es mit jeder Hardware-Generation glatter gebügelt (deshalb ist es sehr wohl ein guter Vergleich).
Wenn du heute das Feature nicht anschaltest wird man seine Prozessor-Architekturen nicht drauf hinoptimieren(und auch dort ist es ein guter Vergleich).
Und nochmal: ich finde es cool eine virtualisierte GPU zu haben und diese dann auch in Windows Subsytem for Linux nutzen zu können.
Das könnte ich unvirtualisiert nicht.
Ich bin gespannt, was Arrow Lake kann, wenn LASS und LAM richtig im System verankert ist. Das müsste speziell bei virtualisierter GPU auch nochmal was bewirken.
Zossel
2024-10-31, 12:29:55
ASLR NX DEP hat damals auch 5% bis 10% Performanceeinbußen gebracht.
In der MMU für Pages mit Programmtext ein anderes Bit zu setzen als für andere Pages kostet sicherlich nicht besonders Performance.
Und Pages für konstante Daten werden schon länger auf read-only gesetzt.
Annekdote dazu: Die HPUX Hobel mit PA-RISC haben keine Cores geworfen wenn man dort NULL-Pointer derefenziert hat, total widerwärtig.
Nur wurde es mit jeder Hardware-Generation glatter gebügelt (deshalb ist es sehr wohl ein guter Vergleich).
Wenn du heute das Feature nicht anschaltest wird man seine Prozessor-Architekturen nicht drauf hinoptimieren(und auch dort ist es ein guter Vergleich).
Hast du nachvollziehbare Zahlen und Messungen für uns?
Und nochmal: ich finde es cool eine virtualisierte GPU zu haben und diese dann auch in Windows Subsytem for Linux nutzen zu können.
Das könnte ich unvirtualisiert nicht.
Ich bin gespannt, was Arrow Lake kann, wenn LASS und LAM richtig im System verankert ist. Das müsste speziell bei virtualisierter GPU auch nochmal was bewirken.
Mir ist immer noch nicht klar was das alles für den von dir benannten Einsatzzweck bringen soll.
Dieses Projekt scheint jedenfalls noch zu leben:
https://www.phoronix.com/news/VirtIO-GPU-Vulkan-QEMU
https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1502664-virtio-gpu-vulkan-support-approaching-upstream-qemu/page2#post1502840
Btw. bin ich der einzige der CUDIMM an Rambus damals erinnert? Extra teurer Speicher den man braucht um die Leistung zu bringen...
Nicht wirklich vergleichbar. CUDIMMs werden bei hohen DDR5 Taktraten zum Standard weil ohne den Clock Driver Chip die Signalqualität zu schlecht ist.
Bei 6400 braucht es noch keine CUDIMMs, nötig wird das erst ab 8000+. Ich finde die sehr interessant und bin gespannt wann erste Dual-Rank CUDIMMs kommen.
lilgefo~
2024-10-31, 18:05:17
Ich finde auch, dass Arrow Lake viel interessanter ist als Ryzen 9000. Gerade weil er so inkonsistent performt. Wenn das die Über CPU wäre oder er komplett langsam wäre, wäre es langweilig, aber so ist er mal Championsleague und dann Kreisklasse. Das macht die CPU spannend.
ARL ist der metaphorische Unfall den man nicht ignorieren kann. Für Nutzer die sich die CPU selber aussuchen können ist er aber komplett nutzlos. Die (theoretische) ST-Perf (150+ im CB24) der Kerne ist schon interessant nur das man praktisch davon (fast) nie was sieht. Abgesehen von der inkonsistenten Perf. die an Intel's Arc erinnert ist er halt nirgendwo das Beste, weder in Spiele-Perf./Anwendungs-Perf., Preis, Effizienz. Aktuell komplett unbeachtenswert aber mit Potential. Nur die Frage, ob und wie AMD weiter abzuliefern gedenkt.
Btw. bin ich der einzige der CUDIMM an Rambus damals erinnert? Extra teurer Speicher den man braucht um die Leistung zu bringen...
Rambus war ja der Versuch, einen komplett neuen Speichertyp parallell zu DDR zu bringen. Cudimms sind einfach DDR5 mit Taktraten die sonst nicht oder nur mit Binning zu erreichen wären. Das mag momentan nur ARL nutzen können auch wenns für DIY Leute natürlich 0 Sinn macht extra Cudimms zu kaufen nur um auf 6400mt/s zu kommen aber eventuell wird das auch für amd relevant. Daher ne, erinnert nicht an Rambus. Zumal der Aufpreis für Cudimms nicht mal ansantzweise mit den 200-400% Aufschlägen die für Rambus zu zahlen waren vergleichbar ist.
Daredevil
2024-10-31, 19:39:01
... das hat ja auch früher niemand davon abgehalten AMDs Vega zu kaufen. #FineVine :D
Der Basteltrieb ist bei einem Produkt mit inkonsistenter Performance halt höher, gerade wenn man nochmal deutlich mehr Stellschrauben im Bios bekommt als vorher um gegebenenfalls Flaschenhälse zu verbreiten. Basteln kannste mit einem 9800X3D bestimmt auch ein wenig, nur ist der eh schon der schnellste im Gaming und allgemein einfach zu gut, wie langweilig. ^^
Trotzdem sollte er nicht so teuer sein, die Kiste sollte 50€ unter nem 9950X liegen und fertig ist die Sache, weil das Produkt halt nicht so überzeugt wie das von AMD.
Dann könnte Intel ja tatsächlich auch einfach mal ne ordentliche Gaming CPU bauen, damit sie nicht so vorgeführt werden von AMD. Das Ego muss doch in Scherben liegen bei den Ingenieuren.
lilgefo~
2024-10-31, 20:18:50
... das hat ja auch früher niemand davon abgehalten AMDs Vega zu kaufen. #FineVine :D
Der Basteltrieb ist bei einem Produkt mit inkonsistenter Performance halt höher, gerade wenn man nochmal deutlich mehr Stellschrauben im Bios bekommt als vorher um gegebenenfalls Flaschenhälse zu verbreiten. Basteln kannste mit einem 9800X3D bestimmt auch ein wenig, nur ist der eh schon der schnellste im Gaming und allgemein einfach zu gut, wie langweilig. ^^
Trotzdem sollte er nicht so teuer sein, die Kiste sollte 50€ unter nem 9950X liegen und fertig ist die Sache, weil das Produkt halt nicht so überzeugt wie das von AMD.
Dann könnte Intel ja tatsächlich auch einfach mal ne ordentliche Gaming CPU bauen, damit sie nicht so vorgeführt werden von AMD. Das Ego muss doch in Scherben liegen bei den Ingenieuren.
Das ist jetzt abgesehen von der 11th Gen die erste CPU von Intel seit >10 Jahren die keine "ordentliche" bzw. im Gaming führende CPU ist (die aber auch nur vs. 10th Gen verloren hat in den meisten Fällen).
Vega war nicht überall führend hatte aber definitiv die Oberhand in manchen Aspekten. Da gibts schon nen Unterschied zu ARL.
Matrix316
2024-10-31, 20:32:07
Also was ich als Vorteil von Arrow Lake sehe ist: Er ist sparsam im Idle und in Games. Raptors sind noch sparsamer auf dem Desktop, verbrauchen in Games sehr viel. AMD sparan zwar bei Games, aber auf dem Desktop brauchen die viel.
lilgefo~
2024-10-31, 23:08:06
Also was ich als Vorteil von Arrow Lake sehe ist: Er ist sparsam im Idle und in Games. Raptors sind noch sparsamer auf dem Desktop, verbrauchen in Games sehr viel. AMD sparan zwar bei Games, aber auf dem Desktop brauchen die viel.
Also mein RPL-R verbraucht so 4W im Idle beim Surfen/Videowiedergabe. Das ist deutlich besser als bei AMD aber auch nicht wirklich relevant. ARL ist zwar theoretisch viel effizienter aber wenn man im GPU Limit spielt ist der Unterschied quasi 0, und wer im 240hz+ Bereich unterwegs ist ist mit einem X3D eh besser bedient. Sehe da 0 Vorteil für ARL. Ja, er ist effizienter als RPL-R/RPL nur wenns einem um Effizienz geht ist man schon lange besser bedient bei AMD. Intels Vorteil war halt die absolute Performance, was für kurze Zeit an die Zen5000 Serie abgegeben wurde bis AlderLake erschien und nun mit dem kommenden 9800x3d wird das wohl für längere Zeit geschehen ausser Bartlett-S mit 12P und 6,2Ghz+ kommt doch noch für den Desktop.
btw: seit 2001 registriert mit über 50k Beiträgen; Respekt xD 6 Beiträge jeden Tag wow
Slipknot79
2024-11-01, 00:19:51
https://www.golem.de/news/intel-core-ultra-9-285k-kaum-jemand-kauft-arrow-lake-2410-190342.html
Error Lake will niemand haben. (y)
Was letzte Preis?
10EUR ich nehme!
(y)
y33H@
2024-11-01, 07:55:47
Mindfactory ist nun nicht gerade als Intel-lastig bekannt.
robbitop
2024-11-01, 08:22:39
Die verkaufen was der Retail Markt abnimmt. Und das ist seit Jahren eher Zen. Auch da gab es Einbrüche als es unattraktiver war: die Anfangszeiten von Zen 4 mit den überteuerten Boards und dem damals noch teuren DDR5 Speicher oder seit kurzem Zen 5% (scr).
fondness
2024-11-01, 09:55:01
https://www.golem.de/news/intel-core-ultra-9-285k-kaum-jemand-kauft-arrow-lake-2410-190342.html
Error Lake will niemand haben. (y)
Was letzte Preis?
10EUR ich nehme!
(y)
95% AMD ist schon extrem deutlich.
dildo4u
2024-11-01, 10:00:36
Mindfactory hat immer noch keine Retail Modelle.
https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1851.html
MSABK
2024-11-01, 10:22:04
Ist doch kein Geheimnis dass AMD den deutschen DIY Markt dominiert.
Matrix316
2024-11-01, 11:58:15
Dafür, dass die kaum einer will, sind gerade die 285er kaum anzutreffen. Oder gibt es nicht so viele im Handel?
Slipknot79
2024-11-01, 19:28:39
Wie nicht zu haben? Liegen doch bei Mondfactory rum wie Blei.
Einfach am Preis drehen und schon wollen 95% Intel. Weiß ned wo das Problem ist. (y)
Zossel
2024-11-02, 08:04:58
Wie nicht zu haben? Liegen doch bei Mondfactory rum wie Blei.
Einfach am Preis drehen und schon wollen 95% Intel. Weiß ned wo das Problem ist. (y)
Ich denke nicht das Intel dort große Spielräume hat, dafür sind die Dinger einfach in der Produktion zu teuer.
Und hat sich Intel schon zum Lifecycle des neuen Sockels geäußert?
dildo4u
2024-11-02, 10:34:26
Wie nicht zu haben? Liegen doch bei Mondfactory rum wie Blei.
Einfach am Preis drehen und schon wollen 95% Intel. Weiß ned wo das Problem ist. (y)
Der 285k ist nicht wirklich verfügbar sieht eher danach aus das Intel bewusst wenig Produziert da sie kaum Marge mit der TSMC Fertigung machen.
Tray über 700€
https://geizhals.de/?cat=cpu1151&v=l&hloc=de&sort=p&bl1_id=30&xf=25_24%7E820_1851
Wann hatte Intel je große Mengen nach einem Oktober/Novemberlaunch verfügbar? Anfang 25 kommen die großen Mengen und da purzeln dann auch die Preise ruck zuck.
Slipknot79
2024-11-02, 15:26:30
Der 285k ist nicht wirklich verfügbar sieht eher danach aus das Intel bewusst wenig Produziert da sie kaum Marge mit der TSMC Fertigung machen.
Tray über 700€
https://geizhals.de/?cat=cpu1151&v=l&hloc=de&sort=p&bl1_id=30&xf=25_24%7E820_1851
Intel hat extrem viel Marge. Hat man gesehen, als AMD vor ein paar Jahren Ryzen rausgeballert hat. Huch plötzlich wurde aus der 2000EUR CPU bei Intel eine 1000EUR CPU, sapperlot aber auch, wie schnell das ged. ;)
Will Intel 95%, dann müssen max 200EUR für den 285k herhalten. So einfach ist das. (y)
Was ist "TSMC ist teuer? Ein Chip am wafer ist von 40$ auf 44$ gestiegen? ;) Dem Kunden kommen die Tränen.
Der einzige der sich solche Moves leisten can, ist Lederjacke: AD102 am wafer 150$? -> 1500$ im Handel. (y) Nächste Generation: 180$? -> 1800$ im Handel? MOAR! (y)
Zossel
2024-11-02, 17:10:11
Intel hat extrem viel Marge.
.... hatte .....
Gelsinger macht den Investoren derweil Zugeständnisse: "[…] Die Margen sind inakzeptabel. Und intern konzentrieren wir uns sehr darauf, dass wir sehr schnell wieder in die 4er und dann wieder in die 5er kommen müssen. Und natürlich müssen manche unserer Produktlinien in den 6er-Bereich kommen."
https://www.heise.de/hintergrund/Intel-Machtspiele-zwischen-Chefs-und-Investoren-9854448.html
Slipknot79
2024-11-03, 01:28:03
Selbst im 3er-Bereich ist die Marge immer noch extrem hoch.
Bloß weil Intel das anders darstellt, muss es ja nicht stimmen.
Der Kunde kauft sicher nicht, weil er die Margenvorstellungen von Intel unterstützen will. Error Lake ist nunmal ein Verkaufsflop. 200EUR und schon sieht die Welt anders aus. (y) Aber bitte, wenn Intel 5er-Bereiche will, dann bitte, nur zu. Der Kunde ist sicher auch dieser Meinung. ;)
Nicht die Margen sind inakzeptabel. Es ist die Leistung zu dem Preis, was inakzeptabel ist.
Exxtreme
2024-11-03, 01:33:33
Ich glaube, dass die Office-PCs und div. Workstations ziemlich gut weggehen werden. Da steht Intel dran und die Instabilitätsproblematik gibt es womöglich auch nicht.
dildo4u
2024-11-03, 08:11:09
245k mit DDR5 6000
Der 9600X kann 100Watt Mit PBO?
8bszpOV5hWM
Darkearth27
2024-11-03, 08:15:28
Die 9000er haben doch den "105w Modus" bekommen.
Die (9700X) sind vorher halt am Powerlimit teilweise verhungert (in Anwendungen merkt man es mehr als beim gaming).
Also ja, die können auch richtig saufen, bringt oftmals aber nur geringen Zuwachs mit höherem Powerlimit.
Zossel
2024-11-03, 08:16:41
Selbst im 3er-Bereich ist die Marge immer noch extrem hoch.
Bloß weil Intel das anders darstellt, muss es ja nicht stimmen.
Zum Vergleich:
In der Analystenkonferenz verriet AMDs Finanzchefin Jean Hu, dass die Bruttomarge der MI300-Beschleuniger noch unter dem Firmenschnitt von 50 Prozent liegt. Das kann einerseits am Hochfahren der Produktion liegen, andererseits versucht AMD womöglich, durch niedrigere Preise Marktanteile zu gewinnen. Der Marktführer Nvidia kommt dank seiner lukrativen KI-Beschleuniger auf 75 Prozent und mehr.
https://www.heise.de/news/AMD-Aktie-bricht-trotz-hohem-KI-Umsatz-ein-9999269.html
Als Halbleiterbutze jongliert man ständig ständig mit vielen fetten Klumpenrisiken und eigentlich unhaltbaren ROIs.
Freestaler
2024-11-03, 08:53:01
Hat hier eigentlich einer jetzt nen ArrowLake mit ersten erfahrung DRam und OC? Ist ja immerhin ne neue Plattform, gibt eas her für die "Bastel" freudigen.
Matrix316
2024-11-06, 13:57:33
Was ich nicht verstehe, warum die Arrow Lakes so niedrig takten? Oder sind das Fake Daten? Der 265er sollte doch nicht nur 5,2 GHz haben sondern mind. 5.4 auf den P-Cores.
ZZOEYELtpZk
Was natürlich "super" ist, dass die E Cores sehr viel schneller geworden sind, aber die P Cores anscheinend langsamer - und Spiele nutzen ja hauptsächlich die P-Cores, oder? AUSSER die Spiele und Anwendungen die ALLE Kerne nutzen. Die profitieren dann massiv von den schnelleren E-Cores.
Ist das vielleicht das simple Geheimnis hinter den Leistungsschwankungen?
dildo4u
2024-11-06, 14:00:38
Laut dem gelten 5.5Ghz nur für 2 Threads.
https://i.ibb.co/84jvB9f/Screenshot-2024-11-06-140112.png (https://ibb.co/FqBZWzy)
https://www.techpowerup.com/review/intel-core-ultra-7-265k/29.html
Sardaukar.nsn
2024-11-06, 14:08:43
Stock vs. Max-OC teils +35%
4xdlkRVxi5o
Matrix316
2024-11-06, 14:15:35
Laut dem gelten 5.5Ghz nur für 2 Threads.
https://i.ibb.co/84jvB9f/Screenshot-2024-11-06-140112.png (https://ibb.co/FqBZWzy)
https://www.techpowerup.com/review/intel-core-ultra-7-265k/29.html
Hä? Warum machen die sowas? :ugly:
Beim 14700K sah das noch ganz anders aus. Mit diesen Taktraten wäre der 265er bestimmt auch schneller... https://www.techpowerup.com/review/intel-core-i7-14700k/25.html
dildo4u
2024-11-06, 14:19:01
Wie willst du Sonst 80? Watt weniger in Gameing erreichen? Jeder weiß das Intel Raptor Lake am Limit fährt.
CB hat 78 vs 160 Watt :eek:
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-4#abschnitt_leistungsaufnahme_in_spielen
Matrix316
2024-11-06, 14:31:57
Wie willst du Sonst 80? Watt weniger in Gameing erreichen? Jeder weiß das Intel Raptor Lake am Limit fährt.
CB hat 78 vs 160 Watt :eek:
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-4#abschnitt_leistungsaufnahme_in_spielen
Aber wenns 100 oder 125 vs 160 Watt gewesen wären, hätte sich auch keiner beschwert. ;)
dildo4u
2024-11-06, 14:33:23
Möglich aber niemand weiß wie 3nm auf diesen Takt auf Dauer reagiert wird interessant ob 285k in einem Jahr stabil sind.
Undertaker
2024-11-08, 12:35:44
285K vs. 9950X in 10 Spielen:
https://youtu.be/bN1wGNYc2dU
Performance wie erwartet recht ausgeglichen, allerdings mal wieder 40-100%(!) mehr Leistungsbedarf für Zen 5. Ohne X3D ist die Effizienz der 12- und 16-Kerner im Vergleich echt unterirdisch schlecht. :o
Daredevil
2024-11-08, 13:06:39
Ein X3D mit 2 CCDs wird mit Sicherheit auch nochmal mehr Energie lutschen, ähnlich wie der 9950X. Bei den "dicken" CPUs ist Arrow Lake gar nicht soooo verkehrt, wenn man nicht nur zocken will, sondern auch tatsächlich CPU Power benötigt. Bei nahezu gleicher Gaming Leistung lutscht ein 9950X ja auch 30% mehr als ein 9700X.
Insofern hätte man hier auch mit einem 9700X vergleichen können und es würde für AMD deutlich besser aussehen. Nur wird die nächtliche Cinebench Session dann halt nicht so gehaltvoll. :D
dildo4u
2024-11-08, 13:10:48
AMD hat die gegen Raptor Lake Konfiguriert was Heute natürlich kein Sinn mehr macht. Bei 5.2Ghz würde der Verbrauch deutlich sinken.
Badesalz
2024-11-08, 13:31:42
285K vs. 9950X in 10 Spielen:
https://youtu.be/bN1wGNYc2dU
Performance wie erwartet recht ausgeglichen, allerdings mal wieder 40-100%(!) mehr Leistungsbedarf für Zen 5. Ohne X3D ist die Effizienz der 12- und 16-Kerner im Vergleich echt unterirdisch schlecht. :oIch verstehe das auch nicht warum die Händler so wenig bestellt haben, kaum nachbestellen und das was wegging solange es da war, sich von der Menge her so verkauft(e) wie der 9600X. Das muss irgendwie ganz andere Gründe haben...
Möglich aber niemand weiß wie 3nm auf diesen Takt auf Dauer reagiert wird interessant ob 285k in einem Jahr stabil sind.Die Gerüchte, daß die 285K bei einigen Testern nicht stabil liefen wollen irgendwie nicht abklingen. Gabs da Biosupdates schon oder was ist damit eigentlich?
Matrix316
2024-11-08, 20:51:09
c80r_4Inqng
dildo4u
2024-11-09, 05:33:56
Intel verspricht Performance Fixes
P2OHRH7221w
Badesalz
2024-11-09, 10:20:28
Intel verspricht Performance Fixes
Bisschen spät was? Was haben sie davor gemacht? Und warum müssen wir darüber erst PR-wirksam reden?
Als alle gemotzt haben, weil die Latenzen beim Zen5 2x CCD mies waren, hat AMD das wieviele Tage nach dem Launch mit neuem Agesa/Biosen behoben? Hat sich da wer von denen vor die Cam gestellt und erstmal darüber geredet?
Intel möchte darüber am Ende KW45 mal reden? MACHEN, dann reden wir :| Was für ein Blödsinn.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/64846-schwacher-core-ultra-200s-start-intel-verspricht-fix-für-dezember.html
Aus den Kommentaren:
"We promised[...][ AL was roughly equivalent to RL in gaming performance at substantially lower power" ... "i still fundamentaly believe that that is true".
Also ist das Ziel, lediglich, wenigstens durch die Bank weg an RL in den charts rankommen, mehr aber auch nicht.
arcanum
2024-11-09, 12:56:28
Intel verspricht Performance Fixes
https://youtu.be/P2OHRH7221w
Intel Fine Wine Technology TM
Fusion_Power
2024-11-09, 13:25:11
Ich setze da als Laie immer den Maßstab meines alten Desktop PCs an, der hat ne alte Intel 65W CPU (i56600) und dann schaue ich, was man heutzutage aus 65W raus holen kann bei den CPUs. Und da muss ich sagen, das ist schon ziemlich viel im Vergleich zu früher. Also getan hat sich definitiv was, gerade wenn man sich die Handhelds mit x86 APU anschaut, was die so alles aus teils nur 15W raus quetschen ist beeindruckend.
Aber gut, ich bin kein Hardcore User der 200W (+) CPUs braucht. Und die Stromkosten hier in der Gegend sind halt auch leider nicht die niedrigsten.
Hakim
2024-11-09, 14:24:38
Der erste Eindruck und Reviews sind immer das was den meisten in den Köpfen hängenbleibt. Die normalen Zen 5 haben seit dem via Windows Updates und FW Updates sich verbessert aber die meisten bekommen davon halt nicht viel mit. Das wird hier nicht viel anders sein. Statt irgendwelche Termine einhalten zu müssen sollte man damit im Hinterkopf den Release besser gestalten
ChaosTM
2024-11-09, 14:31:25
Der erste Eindruck und Reviews sind immer das was den meisten in den Köpfen hängenbleibt. Die normalen Zen 5 haben seit dem via Windows Updates und FW Updates sich verbessert aber die meisten bekommen davon halt nicht viel mit. Das wird hier nicht viel anders sein. Statt irgendwelche Termine einhalten zu müssen sollte man damit im Hinterkopf den Release besser gestalten
Ist so, und AMD hat es im ersten Versuch verkackt, aber jetzt ist da dieser leuchtende Stern in Form des 9800X3D.
So einen Marketing Schachzug trau ich ihnen fast nicht zu, aber als einer der ein paar Jahre lang (1995-1999*) in der Branche gearbeitet hat. Das könnte fast sein..
*seither spiele ich fast nur mehr - der bullshit bringt dich um
Daredevil
2024-11-09, 14:41:20
Hallock hat zum Thema Release und dem "Druck", hinter dem sein Team stand was erzählt.
Kurze Interpretation meinerseits: System Builder wollen Systeme für Weihnachten bauen und deswegen muss der Kram im Oktober fertig sein. DIY Builder liegen ihnen natürlich auch am Herzen, da wird aber die wenigste Kohle verdient, also ist eher releasen besser für die Quartalszahlen als ein optimiertes Produkt im nächsten Quartal, was die Wall Street wegen dem Delay u.U. schockt. Habe mir das komplette Interview reingezogen, war sehr aufschlussreich und ehrlich. ( I know its Marketing, aber besser als Probleme zu verschweigen )
Laut ihren Messungen war offenbar alles in Ordnung, erst die Reviews haben die "Multifaktor" Probleme ersichtlich gemacht.
Hier und bei AMD gehts ja schon lange nicht mehr nur im "perfekte Produkte", sondern auch indirekt immer um die Wall Street, das ist halt die Realität.
Badesalz
2024-11-09, 16:41:35
Ist so, und AMD hat es im ersten Versuch verkackt, aber jetzt ist da dieser leuchtende Stern in Form des 9800X3D.
So einen Marketing Schachzug trau ich ihnen fast nicht zu, aber als einer der ein paar Jahre lang (1995-1999*) in der Branche gearbeitet hat. Das könnte fast sein.
Fands du das auch seltsam, daß sie so grottige Latenzen auf den >8 Kerner hatten und den Quark mit den 65W? Und wie schnell beides - da wohl doch bisschen zu übertrieben - korrigiert werden konnte? :freak:
ChaosTM
2024-11-09, 16:44:34
Fands du das auch seltsam, daß sie so grottigr Latenzen auf den >8 Kerner hatten und den Quark mit den 65W? Und wie schnell beides - da wohl doch bisschen zu übertrieben - korrigiert werden konnte? :freak:
Nein, darüber hab ich mir ehrlich gesagt keinerlei Gedanken gemacht.
Hätte das irgendjemandem genutzt? - nope
Badesalz
2024-11-09, 16:47:52
:rolleyes: Ich meinte, das gehörte zum "Verkacken" des ersten Versuchs...
Exxtreme
2024-11-09, 17:26:02
Intel Fine Wine Technology TM
Bei einer sehr neuen Architektur kann das passieren, ja.
Matrix316
2024-11-14, 23:18:49
Ab der Mitte wirds zu Arrow Lake interessant. Man wollte kein 3D Cache einbauen, weil man es nicht wollte? Hört sich so an...
hZc3kEXvFjY
Badesalz
2024-11-15, 07:58:07
@Matrix316
Hängst du da immernoch so dran? :freak:
So ein Ding wie V-Cache ("3D Cache"?) ist nicht einfach so. Ist ja Intel, können die im halben Jahr dranmachen... Ne. Ist nicht einfach so.
Es hat sich schon rumgesprochen, daß sie damit ständig rumexperimentieren (!) Warum sie da keine Vorteile für sich entdecken, kommunizieren sie nicht... ODer entdecken sie diese doch? Aber? Nun:
Die Efizienz die sie endlich entdeckt haben, die es sehr groß gegenüber den vorherigen Gens. Und gegenüber Zen5? Man sollte sich die Watts mal vernünftig unter Last anschauen und nicht nur ständig im eigenen Saft rumköcheln.
250W Maxpower. Was heißt das für einen V-Cache:
1.Wenn er oben ist, kannst du diese Wärme nicht abführen. Wenn er unten ist, muss du es durch den Cache durchverbinden. Das schränkt dich schon ordentlich ein was die Anzahl der Verbindungen und auch ihre Dicke angeht. Es ist schon vom Vorteil, wenn man mehr davon für die Daten als für den Strom hat ;)
Bei eigentlich, eigentlich sehr ähnlichen Specs darf der 9000X immernoch kleinwenig mehr Spannung fordern als der 9800X3D.
Watt = Volt * Amper...
So ein Teil also mit 1/3 oder gar 1/2 weniger Speicherzellen deswegen, doch zu bringen (vs. AMD), das möchte man aber wohl irgendwie nicht. Wohl die Sorge, daß es sofort ins Negative ausgeschlachtet wird. Kann ich sogar teils nachvollziehen.
2. Ausdehungskoefizienten. Die muss man beim Cache und dem CPU-Die angleichen. Sie erwärmen sich nicht gleich stark, müssen sich aber gleich ausdehnen und wieder schrumpfen.
Wenn diese Bewegungen zu unterschiedlich sind, reißen die (Durch)Verbindungen ab. Das ist tatsächlich das größte Thema dabei. Mit dem größten Knowhow, was AMD da mit TSMC ausgearbeitet hat.
Die für mich nahliegendste Vermutung wäre, daß sie das alles für eine Massenprodution noch nicht draufhaben. Und wahrscheinlich wird das beim Launch von Zen6 auch noch nicht soweit sein. Sonst würden sie schon laaangsaaam was durchsickern lassen. Durchhalteparolen sind da grad halt das Mittel der Wahl.
y33H@
2024-11-15, 09:08:50
Die (bis zu) 250W kann man ja easy nach oben oder unten begrenzen, zumal drastisch mehr Cache vor allem bei Gaming die Power reduziert. Davon ab hat Intel ja Clearwater Forest für 2025 angekündigt - mit Compute Tiles gestackt auf Cache Tiles ...
The_Invisible
2024-11-15, 09:34:23
Hat hier im Forum wirklich noch keiner einen AL?
Anscheinend sind selbst Hardcore Intel User abgewandert zu AMD, schon heftig :freak:
Daredevil
2024-11-15, 09:34:41
@Badesalz
Musst dir das auch anschauen/anhören, sonst ist man auf unterschiedlichen Wissensstände. ^^
Intel baut 2025 X3D unter den Compute Tile, nur eben im Server Markt und ( noch? ) nicht im Consumer Bereich. Die können wenn sie wollen, die wollen aber wohl nicht nicht.
Und solange man mehr deutlich mehr CPUs verkauft als AMD in Branchen wo Millionen Stückzahlen geliefert werden und man daran ( hoffentlich für Intel ) richtig Kohle verdient, braucht man das offenbar auch nicht. Wieso alles abliefern was man kann, wenn es nicht nötig ist? Lunar Lake ist ein richtig rundes Produkt und Arrow Lake ist es auch, letzteres aber eben nicht fokussiert und 100% für Gaming, aber laufen tuts ja schon. Ist nur die Frage wie man sich langzeitig am Markt etabliert und welchen preislichen Platz man neben der X3D Konkurrenz findet. Ich denke 5-10% könnte Intel noch drauflegen auf die AVG Ergebnisse der Testparcours und damit sind sie dann wenige Pünktchen unter einem 7800X3D, das ist in Ordnung für den ersten Versuch der neuen Architektur.
@The_Invisible
Ich bin solange noch interessiert, bis AMD 16c X3D vorstellt und der mehr kann als "nur" ein doppelter 98X3D :D
Die Preise sind allerdings noch zu "Launchartig", das sie sich teilweise gar nicht bewegen oder zu hoch sind. Man muss bei ARL ja wahrlich nicht der erste sein.
Ich finde das Konzept aber sehr spannend und für meinen Anwendungszweck könnte das gut laufen. Ich hätte allerdings lieber 4P und 24E, oder direkt 32E ohne P. ^^
Ich will effiziente MT Anwendungsleistung mit maximaler Perf/Watt mit Option zum Spielen. Die Leistung muss höher sein als ein Zen3 Core und das sollte ein E Core auch hinbekommen. Das wäre für mich schon ein Upgrade.
Badesalz
2024-11-15, 09:46:23
Ich hab nicht geschrieben, daß sie es generell nicht können, sondern das IMHO in Stückzahlen wohl noch nicht funktioniert.
Bleibt spannend :up:
Ja mit V-Cache kann man den Stromverbrauch reduzieren und es wird schneller. Kann man aber soviel reduzieren, daß es lohnend schneller wird? ;)
Ich bin solange noch interessiert, bis AMD 16c X3D vorstellt und der mehr kann als "nur" ein doppelter 98X3D :D
Was fällt denn da so an? (da du damit auf die CPUs eingehst)
@the_invisible
Wenn sich keiner den 200ultra kauft, heißt ja nicht, daß sie alle gleich was anderes kaufen :| Das hörte sich grad irgendwie unerwachsen an...
Matrix316
2024-11-15, 09:54:10
Das Argument im Video ist ja: Wir wollen eine CPU die überall "gut" ist und bei 3D Cache muss man hier und da Abstriche machen und es wird vielleicht zu teuer für den Kunden. (und deswegen bauen wirs nur bei Server CPUs, weil Gaming ja eh keinen interessiert ... ähem ... ist ja nur ein kleiner Markt und Ryzen mit 3D Cache verkaufen sich ja gar nicht... :rolleyes: ... btw. wer kauft noch mal Boxed CPUs? Der Enterprise Server Bereich? :rolleyes: )
Stimmt ja auch, weswegen AMD einfach zwei Varianten rausbringt. Eine Linie ohne 3D Cache und eine mit. (wobei die Reviews bei der Variante ohne Cache eigentlich ähnlich negativ waren wie jetzt bei Arror Lake :naughty: - also vielleicht doch lieber nur mit Cache - vor allem auch, weil sich die 3D Cache Variante sehr viel besser verkauft!)
Und das gleiche könnte Intel auch machen. Oder sie schaffen es den Cache so einzubauen, dass es die Arbeitsperformance nicht behindert. Es müsste ja IMO auch nicht unbedingt 3D Cache sein, sondern L4 Cache nebendran vielleicht. Mit diesem Tile Aufbau sollte man das ja irgendwie bauen können. Einfach in die Mitte noch einen großen Pool an Cache zusätzlich oder so. Im Video wurde ja auch Broadwell erwähnt und da war das ja so ähnlich, oder?
Exxtreme
2024-11-15, 09:57:01
Man sollte bedenken, dass Caches immer nur ein Kompromiss sind um andere, größere Probleme zu kaschieren. Und Intels Speicherkontroller ist offenbar beträchtlich besser als das, was AMD hat. Und AMD kaschiert das Problem mit mehr Cache, Intel ist offenbar der Meinung, dass das nicht nötig sei.
Andererseits könnte viel mehr Cache auch Arrow Lake helfen. Man sieht ja, wie schnell das Ding wird wenn man die Silizium-Lotterie gewonnen hat und den Speicherkontroller hart übertaktet. Sieht schon so aus als Arrow Lake verhungert. Cache hilft bei sowas sehr. Aber gut, man weiss jetzt nicht ob Intel hier mit anderem Microcode noch nachhelfen kann. Ich glaube, in einem Interview haben sie schon Einiges angedeutet.
Badesalz
2024-11-15, 10:10:08
@Matrix316
Klar, wird es für den Kunden zu teuer, wenn die Ausbeute dürftig ist. Oder? So nah dessen was ich schrieb... wobei... was kostet der 285 ohne V-Cache und was der 9800X3D mit V-Cache? :conf:
Die Reviews waren nur aus einer größeren Entfernung ähnlich (Zen5/AL). Näher betrachtet ging es bei dem einen, daß er meist nicht schneller genug ist, bei dem anderen, daß er viel zu oft langsamer als Gen14 ist :naughty:
Ich hatte mal früher auf dem Job eine Lenovo Workstation mit 5775C und dGPU (XP) und muss klar berichten, was der bei seiner TDP gegenüber den anderen der Generation pro Mhz leistete war schon eine Wucht.
@Exxtreme
Nochmal. Sie gehen mit dem Microcode das Thema an, daß er oft so spürbar lahmer als Gen14 ist. Deren Tests waren Mist ("what? bei uns war der nicht so lahm"), deren Microcode ist Mist ("können wir nun aber trotzdem viel schneller machen", warum denn erst anschließend?) Was ist das für ein Launch?
Caches, fangen schon bei L1 an ;) Auch der branch predictor existiert um "andere, größere Probleme" zu umschiffen. Wenn wir damit anfangen, daß alles was zu modernen Architekturen gehört nur aus der Not entstand, weil man es wohl besser nicht drauf hat, dann landen wir mit der Leistung beim Pentium M.
Ist es nicht doch andersrum? Der MemController der Gen14 ist ja nicht soviel schlechter oder? Was ist dann mit dem Rest beim AL, wenn er so abgehangen wird? Umschifft man mit einem überdrehten Speicherinterface nicht die "andere, größere Probleme" vom AL?
Zweitens reißt der hyper IMC und die dafür seit mehreren Gens nötigen high-end RAM-Riegel um gegenüber AMD erwähnenswert zu bleiben das P/L ganz schön nach unten.
Matrix316
2024-11-15, 10:26:55
@Matrix316
Klar, wird es für den Kunden zu teuer, wenn die Ausbeute dürftig ist. Oder? So nah dessen was ich schrieb... wobei... was kostet der 285 ohne V-Cache und was der 9800X3D mit V-Cache? :conf:
Die Reviews waren nur aus einer größeren Entfernung ähnlich (Zen5/AL). Näher betrachtet ging es bei dem einen, daß er meist nicht schneller genug ist, bei dem anderen, daß er viel zu oft langsamer als Gen14 ist :naughty:
[...]
1. Intel könnte ja auch die E-Cores weglassen und dafür mehr Cache einbauen. (wobei der Wegfall von Hyperthreading IMO auch nicht gerade geholfen hat. Sagte der nicht im Video, dass das 20% bringen kann?)
2. Der 9700X war in manchen Benchmarks auch langsamer als der 7700X und in einigen nur ungefähr gleich auf und in vielen ähnlich weit hinter den X3D Chips wie AL.
Lehdro
2024-11-15, 10:36:53
2. Der 9700X war in manchen Benchmarks auch langsamer als der 7700X und in einigen nur ungefähr gleich auf und in vielen ähnlich weit hinter den X3D Chips wie AL.
Das ist heute aber nicht mehr so. Bei PCGH liegt der 9700X mittlerweile durch die Bank ~10% vorn. (https://www.pcgameshardware.de/Ryzen-7-9800X3D-CPU-280948/Tests/Review-Benchmark-Preis-Release-kaufen-vs-7800X3D-1458653/2/) Und das trotz weniger TDP, auch im MT. CB scheint sich hartnäckig zu weigern den 7700X in einem der neueren Tests mit aufzunehmen.
Hoffen wir das Intel bei den ARL-S Updates auch noch ordentlich zulegt, damit man mindestens auf Augenhöhe mit dem 14900K kommt.
Badesalz
2024-11-15, 10:40:36
Man stellt bei Spielen den X nicht gegenüber dem X3D. Beim Blender auch nicht... Man vergleicht hier in sinnig (Spiele), den 9800X3D mit dem 7800X3D. Hier tun sich grad was 1%minFPS angeht streckenweise WELTEN auf.
Intel hat halt keine solche Karte um sie auszuspielen.
Wir werden sehen was da noch alles passiert, wenn bald die 12er und 16er X3D kommen. Und Zen6 bekommt dann auch gleich einen neuen I/O der wohl keineswegs nur eine Art Refresh sein soll.
@Lehdro
AMD hat deswegen 2x AGESA in der Zeit nachgeschoben, in der Intel "oh, es gibt wohl ein Problemmchen?" kommunizieren konnte...
Als wenn man plötzlich in einem spiegelverkehrten Paralleluniversum aufgewacht wäre :rolleyes:
Matrix316
2024-11-15, 11:03:34
Man stellt bei Spielen den X nicht gegenüber dem X3D. Beim Blender auch nicht... Man vergleicht hier in sinnig (Spiele), den 9800X3D mit dem 7800X3D. Hier tun sich grad was 1%minFPS angeht streckenweise WELTEN auf.
Intel hat halt keine solche Karte um sie auszuspielen. [...]
Das ist ja das Problem. AMD kann für Spiele den X3D herzeigen und für Anwendungen den normalen X. Intel kann für Spiele die alten Raptor Lakes zeigen und die Arrow Lakes für Anwendungen. ;)
Die Frage ist auch: Wer kauft sich eine Boxed CPU im Laden und rüstet seinen Rechner auf oder baut ihn neu? Sind das die Anwender? Eher nicht. Sondern die Gamer, oder? Und das ist IMO ein Fehler von Intel die zu vernachlässigen.
Badesalz
2024-11-15, 11:18:37
Welche Anwendungen eigentlich? Ok sie haben imho bei Adobes Premiere PR-wirksam wirklich Manpower reingesteckt.
Was gibts denn da sonst noch? Also, auch gerne außerhalb der Skripten die Phoronix auf Linuxinstallationen laufen lässt.
Sie sind beim 7-zip "160" zu "174" langsamer als 13900k, beim Packen. Beim Entpacken "186" zu "201".
WinRAR packen, "44,3" zu "48,9". Gegenüber dem 7800X3D (!)
(hwbust)
Ja?
edit:
Übrigens auch so eine spannende Geschichte wie sich Ergebnisse je nach Seite unterscheiden...
Daredevil
2024-11-15, 11:26:56
Ist das jetzt seit 24 Seiten was neues, das AMD eine Gaming fokussierte CPU hat und Intel halt eben nicht? Das mag für Intel ein Problem im DIY Gaming Bereich sein und das nimmt ihnen sicherlich auch viel Prestige und Spott in Foren ( Foren aka Nischen ), ist für Intel aber Stückmäßig kein Problem denn dort, wo Millionen Geräte umgesetzt werden aka non-gaming, wird kein X3D eingesetzt weil er zu teuer ist.
Sony bringt ne 799€ Konsole raus mit Zen2 Leistung und manche tun hier, als könnte man ohne X3D Branding kein Spiel mehr spielen und kein Geld mehr verdienen. :D
Ist es denn so unverständlich, das man sich erst um Märkte kümmert, wo man auch Geld verdienen kann bzw. wo AMD wirklich viel Geld abzwackt? ^^
Matrix316
2024-11-15, 11:45:13
Ist das jetzt seit 24 Seiten was neues, das AMD eine Gaming fokussierte CPU hat und Intel halt eben nicht? Das mag für Intel ein Problem im DIY Gaming Bereich sein und das nimmt ihnen sicherlich auch viel Prestige und Spott in Foren ( Foren aka Nischen ), ist für Intel aber Stückmäßig kein Problem denn dort, wo Millionen Geräte umgesetzt werden aka non-gaming, wird kein X3D eingesetzt weil er zu teuer ist.
Sony bringt ne 799€ Konsole raus mit Zen2 Leistung und manche tun hier, als könnte man ohne X3D Branding kein Spiel mehr spielen und kein Geld mehr verdienen. :D
Ist es denn so unverständlich, das man sich erst um Märkte kümmert, wo man auch Geld verdienen kann bzw. wo AMD wirklich viel Geld abzwackt? ^^
Also ich finde schon, weil Intel Gaming eigentlich IMMER im Vordergrund hatte. Zumindest seit Sandy Bridge bis Raptor Lake. Wie lange mussten wir mit 4 bzw. später 8 Kernen auskommen, weil für Gaming braucht man ja nicht mehr? :naughty:
Gaming war doch DAS Mantra bei Intel über viele viele Jahre.
Und jetzt von heute auf morgen nicht mehr? :uponder:
Badesalz
2024-11-15, 12:46:44
Ist das jetzt seit 24 Seiten was neues, das AMD eine Gaming fokussierte CPU hat und Intel halt eben nicht? Das mag für Intel ein Problem im DIY Gaming Bereich sein und das nimmt ihnen sicherlich auch viel Prestige und Spott in Foren ( Foren aka Nischen ), ist für Intel aber Stückmäßig kein Problem denn dort, wo Millionen Geräte umgesetzt werden aka non-gaming, wird kein X3D eingesetzt weil er zu teuer ist.Da wird auch keine Gen14, kein AMD nicht-Gaming ;) und auch kein Ultra200 verbaut.
Der Renner abseits des Rechenzentrums, wo AMD mühsam Quartal für Quartal klettert, sind CPUs die im Dell Optiplex 7070 & Co. verbaut werden. Ganz andere Baustelle.
Daredevil
2024-11-15, 12:47:58
Also ich finde schon, weil Intel Gaming eigentlich IMMER im Vordergrund hatte. Zumindest seit Sandy Bridge bis Raptor Lake. Wie lange mussten wir mit 4 bzw. später 8 Kernen auskommen, weil für Gaming braucht man ja nicht mehr? :naughty:
Gaming war doch DAS Mantra bei Intel über viele viele Jahre.
Und jetzt von heute auf morgen nicht mehr? :uponder:
Nochmal zur Erinnerung was Intel versprochen hat und was nicht.
Gaming ist nicht "von heute auf Morgen" kein Fokus mehr gewesen, ein Stillstand ist bei Arrow Lake ganz explizit ein Ziel gewesen.
Gleichzeitig will man 40% weniger verbrauchen und 15% mehr im MT leisten im Vergleich zu Raptor Lake.
https://www.youtube.com/watch?v=W3evkF909lc
https://s20.directupload.net/images/241115/ieogujr8.png
Vergleich 14900K > 285K laut CB Test
Die MT Leistung ist um 11% höher > Ziel verfehlt um 4%
Die Gaming Leistung ist um 9% niedriger > Ziel verfehlt um 9%
Im Gaming ist die Leistungsaufnahme um 50% gesunken > Ziel übertroffen
Im Gaming steigt die FPS/W Skala um 90% > Ziel übertroffen
Ein 14900K leistet bei 190w das gleiche im CB24 als ein Arrow Lake bei 105w > Ziel übertroffen
Die Temperatur ist um 13°C gesunken > Ziel übertroffen
Es gibt genau zwei Ziele die nicht so erfüllt worden sind, wie Intel sie versprochen hat. Gaming Leistung als großen emotionalen Faktor und Anwendungsleistung. Beides möchte Hallock laut letztem Interview mit Updates angehen und sie möchten erklären, wo sie was geändert haben.
Wir sind nicht große Schritte vom Ziel entfernt, sondern vermutlich, wenn Hallock keinen Käse erzählt hat, kleine. Das sind ja Performance Werte, die AMD mal eben so mit einem Windows Update geliefert hat, das ist schon ziemlich realistisch imho.
Und selbst wenn Intel diese beiden verfehlten Ziele nun nachträglich erreicht, hebt man sich weder vom 9950X in MT Anwendungen ab noch von einem 7800X3D/9800X3D im Gaming.
That's reality.
Badesalz
2024-11-15, 12:59:50
Wir sind nicht große Schritte vom Ziel entfernt, sondern vermutlich, wenn Hallock keinen Käse erzählt hat, kleine.Findest du? Also wenn sie +9% mit Microcode hinbekommen und das nicht an den anderen Werten (!) was ändert, dann werde ich hier meine Bewunderung aussprechen.
Hoffentlich sind sie damit vor dem 12/16 X3D fertig.
Das sind ja Performance Werte, die AMD mal eben so mit einem Windows Update geliefert hat, das ist schon ziemlich realistisch imho.Ja? Kann ich nicht einschätzen. Hab von sowas noch nie gehört. Bin wohl immernoch zu jung.
Daredevil
2024-11-15, 13:03:30
Findest du? Also wenn sie +9% mit Microcode hinbekommen und das nicht an den anderen Werten (!) was ändert, dann werde ich hier meine Bewunderung aussprechen.
Hoffentlich sind sie damit vor dem 12/16 X3D fertig.
Die durchschnittlichen FPS werden wohl kaum um 9% steigen, höchstens die Durchschnitts Performance im gesamten Testszenario über die vielen Spiele heraus.
Eher geht man ( hoffentlich ) die Cases an, wo Arrow Lake Katastrophal performed und das hebt die Schnitt dann bedeutend wieder an.
Wie bereits hier von mir angesprochen
Wenn inkonsistente Werte eliminiert werden und damit die durchschnittliche Performance Overall in einem Gameparcour steigt, kommt ein z.B. 265K schon näher an einen 7800X3D ran.
Bei CB ist der 7800X3D gegenüber dem 265K 21% schneller, was den Schnitt aber extrem runterzieht sind solche Games, wo der 265k/Arrow Lake versagt und wo die X3D CPU extrem schneller ist:
Anno +35%
Baldurs Gate +38%
CP2077 +31%
F124 +36%
Homeworld +35%
Outcast +40%
Das sind z.B. 6/16 Spiele aus dem CB Parcour, wo Arrow Lake deutlich unter dem Schnitt abliefert. Ob man Arrow Lake allgemein noch ein wenig Gaming freundlicher machen kann und die Performance nach oben bringen kann? Das steht natürlich in den Sternen, aber wenn man Ausreißer eliminiert, sofern das keine schwäche der Architektur ist bzw. Stärke des X3D, ist damit schon ein wenig was gewonnen.
Badesalz
2024-11-15, 13:06:54
Beides möchte Hallock laut letztem Interview mit Updates angehenHallock?? Linkedin jedenfalls vermittelt irgendwie nicht das Gefühl, daß Hallock das "angehen" könnte. Imho ist das ein techniches Problem
"Robert is truly a great marketing talent who keenly knows how to position products for exactly what Customers need." Alles klar? ;)
Eher geht man die Cases an, wo Arrow Lake Katastrophal performed und das hebt die Schnitt dann bedeutend wieder an.Da bin ich echt gespannt wie sie Cyberpunk über Microcode regeln. Oder ob sie dafür 2x täglich mit Projekt Red telefonieren...
Daredevil
2024-11-15, 13:10:29
Mir ist schon klar, dass das Marketing ist. Bevor man aber grundsätzlich Misstrauen, Lug und Betrug unterstellt, würde ich jemanden erstmal ne Chance geben, der neu auf der Bildfläche ist bei Intel. Das mag aber jeder selber entscheiden, ich habe bislang noch nicht mehr Fakten und Daten als der Hersteller selbst kommuniziert hat und bei AMD ist Hallock eigentlich immer seinen Worten treu geblieben.
Habe zumindest kein negativ Beispiel in Erinnerung, was ihn jetzt unglaubwürdig darstellen würde. Die Chance ist aber selbstverständlich da.
Man sollte so oder so nie Hardware kaufen mit dem Versprechen oder der Erwartung, das es irgendwann besser werden kann.
Heute ist Arrow Lake ne inkonsistent performende "Gaming Gurke" aus P/L Sicht und dementsprechend sollte man auch handeln, wenn einem Gaming wichtig ist.
Gestern gabs btw. auch ein Livestream bei Roman in Deutsch zu Intel allgemein, Arrow Lake und "3D Cache". Wer möchte kann zwischen den Zeilen lesen oder es besser lieber lassen. :D
Auch hier für nen großen Hersteller m.M. nach überraschend offen und ehrlich.
hZc3kEXvFjY
Badesalz
2024-11-15, 13:12:26
Gestern gabs btw. auch ein Livestream bei Roman
Junge... Letzte Seite. Wegen Durchblick haben und behalten...
Wie bereits hier von mir angesprochen Das haben wir doch zusammen ausgerechnet.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13649240#post13649240
Jetzt müssen sie 37% von bedauerlichen Einzellfälen umschiffen und dann siehts wieder gut aus...
Matrix316
2024-11-15, 13:18:35
Nochmal zur Erinnerung was Intel versprochen hat und was nicht.
Gaming ist nicht "von heute auf Morgen" kein Fokus mehr gewesen, ein Stillstand ist bei Arrow Lake ganz explizit ein Ziel gewesen.
Gleichzeitig will man 40% weniger verbrauchen und 15% mehr im MT leisten im Vergleich zu Raptor Lake. [...]
Sagt dir die Redewendung: Stillstand bedeutet Rückschritt was? ;)
Man war ja bislang schon oft hinter einem 7800X3D. Und der 9800X3D legt ja noch mal was drauf.
Mit Arrow Lake die Gaming Performance zu halten war schon ein Rückschritt. Wenn man Wert drauflegen würde, hätte man das Ziel ausgegeben aber mindestens mal an den 7800X3D ranzukommen. Stattdessen fällt man hinter die eigene Last Gen zurück... :ugly:
Daredevil
2024-11-15, 13:26:26
Sagt dir die Redewendung: Stillstand bedeutet Rückschritt was? ;)
Man war ja bislang schon oft hinter einem 7800X3D. Und der 9800X3D legt ja noch mal was drauf.
Der 9800X3D leistet in den durchschnittlichen AVG FPS 14% mehr und schickt dir 10% bessere Frametimes auf den Screen, während er durchschnittlich 35% mehr verbraucht.
Aus der Sicht der Effizienz ist das nicht mal ein Stillstand, sogar tatsächlich ein großer prozentualer Rückschritt, der in totalen Zahlen aber natürlich vernachlässigt werden kann weil es immer noch Top Notch ist.
Jeder Hersteller muss manchmal einen Tradeoff eingehen.
Intel fokussiert sich dieses mal auf die Effizienz mit Arrow Lake.
AMD fokussiert sich dieses mal auf die Performance mit Zen5/X3D.
Das Resultat ist, das beide in der Gaming Perf/Watt zusammen rücken.
Da der 7800X3D großflächig vom Markt verschwunden ist, schaut die aktuelle Perf/Watt Skala nun einmal so aus:
https://s20.directupload.net/images/241115/jmwzhzxr.png
Cubitus
2024-11-15, 13:29:43
Der 9800X3D leistet in den durchschnittlichen AVG FPS 14% mehr und schickt dir 10% bessere Frametimes auf den Screen, während er durchschnittlich 35% mehr verbraucht.
Aus der Sicht der Effizienz ist das nicht mal ein Stillstand, sogar tatsächlich ein großer Rückschritt.
Das habe ich auch bei CB geschrieben: Stillstand, Brechstange, hoher Preis und Intel-Methoden. AMD ist nun offiziell dort, wo Intel einst war. Die CPU ist zweifellos gut, aber ein gebrauchter 7800X3D für etwa 300 Euro wäre preislich attraktiver.
dildo4u
2024-11-15, 13:43:57
Ziemlich unwahrscheinlich daß es keine Low End x3D geben wird der 5700x3d hat sogar das High End Modell ersetzt.
Das braucht nur seine Zeit und vermutlich mehr Konkurrenz Druck.
vinacis_vivids
2024-11-15, 14:21:52
Das habe ich auch bei CB geschrieben: Stillstand, Brechstange, hoher Preis und Intel-Methoden. AMD ist nun offiziell dort, wo Intel einst war. Die CPU ist zweifellos gut, aber ein gebrauchter 7800X3D für etwa 300 Euro wäre preislich attraktiver.
Es gibt keine Konkurrenz von Intel und der Markt spricht was anderes.
Preise für den
7800X3D ~ 350€ gebraucht bis 530€ neu
9809X3D ~ 600€ bis 760€ neu
Da wird sich auch nichts "normalisieren" bei den Preisen. Wer billiger will, greift halt zum 7500F AM5 + A620 MB oder 5700X3D + B550 MB für untern Weihnachtsbaum. Oder eben 7800X3D + B650 als langsamere Alternative.
Badesalz
2024-11-15, 14:54:49
Da der 7800X3D großflächig vom Markt verschwunden ist, schaut die aktuelle Perf/Watt Skala nun einmal so aus: Betriebt hier jemand ein RZ, daß er SO drauf achten muss?
Wobei... Ok. Hier mal paar genauere Beispiele, ohne pseudoallgemeine Skalen. Perf/W auf GN zum in deiner Liste zweitplatziertem 245k (und auch dem gesamten Rest)
https://gamersnexus.net/cpus/intel-core-ultra-5-245k-cpu-review-benchmarks-vs-5700x3d-13700k-more
Rechts ist "jump to section". Da kann man sich auch die FPS dazu anschauen...
Ja. Leider basiert zwar beides auf weitgehend sinnlosen AVG-FPS, aber damit ergibt sich auch ein Vergleich ;)
9809X3D ~ 600€ bis 760€ neuDas kann sein, daß der soviel kostet. Was den 9800X3D angeht, wenn man nicht komplett falsch zum Scalper abbiegt, den gab es bisher von 529 bis 549.
Matrix316
2024-11-15, 14:55:42
Es gibt keine Konkurrenz von Intel und der Markt spricht was anderes.
Preise für den
7800X3D ~ 350€ gebraucht bis 530€ neu
9809X3D ~ 600€ bis 760€ neu
Da wird sich auch nichts "normalisieren" bei den Preisen. Wer billiger will, greift halt zum 7500F AM5 + A620 MB oder 5700X3D + B550 MB für untern Weihnachtsbaum. Oder eben 7800X3D + B650 als langsamere Alternative.
Die Frage ist nur, warum Intel so Mondpreise abruft? 650 fürn 285er, 440 fürn 265er und 330 für einen 245er sind jeweils mind. 100 Euro zu viel.
dildo4u
2024-11-15, 15:11:15
Die Frage ist nur, warum Intel so Mondpreise abruft? 650 fürn 285er, 440 fürn 265er und 330 für einen 245er sind jeweils mind. 100 Euro zu viel.
Was sollen sie sonst machen die Dinger sind so komplex wie nie und sie bezahlen TSMC für die Fertigung.
vinacis_vivids
2024-11-15, 15:26:05
Intel muss 3nm zahlen und 3nm ist verdammt teuer pro Wafer. Die können nicht runter mit dem Preis, das geht einfach nicht. Zumindest nicht bei 3nm.
Für Intel ist es sogar gut, dass die Kunden die Preise bei AMD höher treiben. So kann man eben den eigenen Preis hochhalten, um zu überleben.
Hat ja bei VW auch sehr lange gut geklappt mit den hohen Preisen und Steuersubventionen (bis Tesla usw. Sie weit überholt hat).
Ich sehe bis 2030 kein Land mehr für Intel. Zen6 klopft an der Tür mit 3nm/2nm und meilenweiter Abstand ist wieder angesagt.
Was zu den Wünschen über billige CPU-Preise : Deutschland muss eigene Chips bauen auf 7nm / 5nm Basis, die halbwegs mithalten können mit der Welt.
X86_x64 7nm CPU ist in der EU(De) möglich. 8C/16T für die Masse dürfte extrem billig sein zurzeit.
Ansonsten ist Intel halt "US-Import" und war, ist und bleibt teuer. Die CPUs werden nur in der USA im bundle vielleicht etwas günstiger abgeben und Intel-typisch sehr hohe Plattformkosten werden dann weitergegeben.
Matrix316
2024-11-15, 15:50:32
Was sollen sie sonst machen die Dinger sind so komplex wie nie und sie bezahlen TSMC für die Fertigung.
Najaaaaaaa... wenn man sich die 7800X3D Preise ansieht, die gehen aktuell in Richtung 500 Euro. Eine ganze Weile lang, waren die um 330~350. Und da hat bestimmt kein Händler die unter Einkaufspreis verkauft. Wie hoch wird der sein für die neuen Ultra 200 Chips? Bestimmt nicht 650 Euro für den 285, oder? Da muss man halt mit den Margen etwas runter und über die Masse Geld einnehmen.
Wobei gekauft werden die schon. Mindfactory hatte 285er da und die waren relativ schnell weg.
Daredevil
2024-11-15, 15:59:29
Die Frage ist nur, warum Intel so Mondpreise abruft? 650 fürn 285er, 440 fürn 265er und 330 für einen 245er sind jeweils mind. 100 Euro zu viel.
Weil das Leben nicht nur aus Gaming besteht.
Ich stimme dir aber zu, die Preis sind ( noch ) zu hoch. Nicht, weil es den Spaß nicht wert ist, sondern weil man den Early Adopter Preise zahlt, wo sich noch nichts getan hat. So richtig breit ist das ganze aber auch noch nicht verfügbar.
Der 285K ist nur an 7 Stellen zu finden im Netz laut Geizhals und einer ist für nen Mondpreis lieferbar ( 749€ ).
Ein 14900K ist bei 639€ gelistet worden und ist nach nem Jahr nun bei 475€, 3 Monate nach Release bei 595€. Nur war die Kiste in dem Moment auch Gamings First Choice. Ich erwarte bei Arrow Lake durch Angebot und Nachfrage hier einen schnelleren Preisrutsch. Der 9950X war nach einem Monat schon direkt für 100€ weniger zu haben und steigt gerade im Preis auf knapp 40€ unter Release Preis.
maximus_hertus
2024-11-15, 16:23:10
Da muss man halt mit den Margen etwas runter und über die Masse Geld einnehmen.
Wobei gekauft werden die schon. Mindfactory hatte 285er da und die waren relativ schnell weg.
Es gibt halt keine Masse. Und "dank" Pat hat man den 40(!)% Rabatt bei TSMC verloren. Komplett.
Die größeren Stückzahlen werden wohl erst ab 2025 kommen.
Und mal Hand aufs Herz, würden (Stückzahlen vorausgesetzt) jetzt eine große Zahl an Leuten einen Ultra 9 für 550 statt 650 Euro kaufen? Eher nicht.
Man sieht ja, dass im DIY Markt die Gaming Performance ziemlicher King ist.
Ergo rein aufs Gaming gemünzt dürfte der Ultra keine 400 Euro kosten. Und das ist komplett untrealistich für den Fertigungsaufwand. Das hat auch nichts mit "ein bisschen auf Marge verzichten" zu tun.
Intel ist vor allem bei den OEMs aktiv und dort zählt eben nicht nur die Gaming Performance und dementsprechend hat Intel den (MSRP) Preis ausgewählt.
Badesalz
2024-11-15, 16:24:59
So richtig breit ist das ganze aber auch noch nicht verfügbar.
Der 285K ist nur an 7 Stellen zu finden
Da gibt es eh nur 2 Erklärungen:
1. Keiner bestellt es.
2. Es liegt halt nicht alleine an TSMC...
Kriegsgeier
2024-11-15, 16:30:09
Komisch, der 265K überall reichlich vorhanden und für 420€ auch ok bepreist meiner Meinung nach.
Lawmachine79
2024-11-15, 16:40:15
Hat hier im Forum wirklich noch keiner einen AL?
Das hier ist ein Hardwareenthusiastenforum, kein DAU-Forum.
Matrix316
2024-11-15, 16:43:36
Komisch, der 265K überall reichlich vorhanden und für 420€ auch ok bepreist meiner Meinung nach.
Der ist ja noch langsamer als ein 285K. Und selbst der ist bei Games im Schnitt auf 14600K Niveau - welcher so 240 Euro kostet. Gegen einen 14700K haben die alle keine Chance und selbst der ist im Handel billiger als der 265K.
dildo4u
2024-11-15, 16:46:37
Komisch, der 265K überall reichlich vorhanden und für 420€ auch ok bepreist meiner Meinung nach.
9700X ist 100€ billiger und hat besser Gameing Leistung logisch das keiner zuschlägt.
https://i.ibb.co/4jQqMYk/Screenshot-2024-11-15-164746.png (https://ibb.co/vJtFmQ9)
Bei deiner CPU konnte man argumentierten das sie mit AMD in Gameing mithält jetzt hat man nur noch bessere Anwendungsskalierung.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.