Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Raptor Lake ("RTL", Alder-Lake-Refresh, 8C+16c, 7nm, Ende 2022, Refresh Ende 2023)
lilgefo~
2023-08-27, 20:26:01
Jo, der 14700k ist sehr interessant, dem 13700k fehlen 20% cachce zum 13900k, dem 14700k nur noch 10%. Zusätzlich noch 4 Cinebench Bescheluniger mehr und die Aussichten auf höhere Taktraten bei gleichem/geringerem Verbrauch.
Cubitus
2023-08-28, 08:41:30
langweilig. 14600k bleibt bei 6/8 Konstellation nur das die Power Kerne mit 5,3 statt 5,1Ghz laufen. Etwas was bei meinem 13600 schon seit der ersten Woche mit gutem UV auch schon läuft.....
Joa so sieht es aus :)
dildo4u
2023-10-11, 07:40:25
Paar Benches von Intel 14900k/7950x3D.
https://wccftech.com/official-intel-slides-core-i9-14900k-cpu-faster-than-amd-ryzen-9-7950x3d-in-gaming/
Bin gespannt wie die Preise aussehen die neuen AMD Modell sind massiv im Preis gefallen.
Schätze mal wenig Interesse an so vielen Kernen im Consumer Bereich.
dildo4u
2023-10-16, 08:23:15
Intel Folien Benchmarks/Preise.
https://videocardz.com/newz/intel-14th-gen-core-raptor-lake-refresh-to-maintain-13th-gen-pricing-official-specs-confirmed
Leonidas
2023-10-16, 09:21:56
= exakt gleiche Preise wie bei der 13. Core-Generation
Linmoum
2023-10-16, 10:34:40
Intel Folien Benchmarks/Preise.
https://videocardz.com/newz/intel-14th-gen-core-raptor-lake-refresh-to-maintain-13th-gen-pricing-official-specs-confirmed
Jemand sollte Intel mal sagen, dass es CS:GO nicht mehr gibt. :freak:
davidzo
2023-10-16, 11:48:44
Jemand sollte Intel mal sagen, dass es CS:GO nicht mehr gibt. :freak:
Ich verstehe echt nicht wieso Intel sich hier bei den Spielen so aus dem Fenster lehnt. Es wäre viel einfacher die CPU über ihre Anwendungsleistung zu vermarkten. Das großspurige gepose ist doch unnötig und wird nur Kritik in den Reviews hervorrufen. Der 13900KS ist in Spielen im Schnitt etwas langsamer als ein7950x3d und das auch bei den Frametimes. Und eine Performancedifferenz zwischen KS und 14900K ist extrem unwahrscheinlich da weiterhin dasselbe Raptor Lake B0 Stepping zugrunde liegt. Ein geringerer Energieverbrauch durch Binning hat in spielen zudem keine Auswirkungen, hier zählt nur der Takt welcher gleich bleibt zum KS.
Die Performance des 14900K wird in den Reviews also nicht anders ausfallen als wie im bisherigen Duell 13900KS vs 7950X3D. Je nach Spieleauswahl gibt es bestenfalls einen Gleichstand.
Ich halte es nicht für Klug von Intel einen Vorsprung auf AMD anzukündigen der sich in den Reviews nachher nicht bewahrheitet. Glauben die wirklich sie können erfahrene Reviewer mit so billigen cherry gepickten Marketingfolien zu einem confirmation Bias drängen?
Intel wird die Ergebnisse zwar sicher so gemessen haben. Mit unterschiedlichem speicher, timings und Biosversionen kann man im einstelligen Prozentbereich alles produzieren, auch einen Vorsprung vor dem 13900KS mit gleichem Kerntakt. Aber das wird sich doch spätestens in den Reviews als Realitätsfern herausstellen oder was erwartet Intel da?
dildo4u
2023-10-16, 12:11:22
Das wir sich rechnen sie haben jetzt 3 Jahre mit den selben Chips zumindest mitgehalten.
Wenn man so sieht wie Arsch teurer 5nm Chips sind fahren sie vermutlich nicht viel schlechter mit ihrer verkrusteten Fertigung.
Das einzige was für Intel vermutlich überraschend war wie langsam der IGP bei AMD Desktop Modellen ist daher kann AMD aggressive Preise aufrufen.
Schätze mal Raptor Lake hat deutlich mehr GPU Power?
reaperrr
2023-10-16, 12:16:39
Glauben die wirklich sie können erfahrene Reviewer mit so billigen cherry gepickten Marketingfolien zu einem confirmation Bias drängen?
Wahrscheinlich nicht, nur: Wieviele käufliche und/oder unerfahrene/unfähige Reviewer gibt es mittlerweile auf YT, und wieviele Mainstream-Interessenten lesen noch richtige Reviews?
Es geht bei sowas auch gar nicht darum, alle zu überzeugen.
Wenn sie mit diesen Folien und Marketingaussagen nur ein paar Prozent von Leuten überzeugen können, die sie ohne diese Marketing-Folien nicht überzeugt hätten, haben sie ihr Ziel bereits erreicht, weil sie dadurch ein paar zusätzliche Verkäufe generieren, die sie sonst eben nicht generiert hätten.
maximus_hertus
2023-10-16, 17:22:23
Die Performance des 14900K wird in den Reviews also nicht anders ausfallen als wie im bisherigen Duell 13900KS vs 7950X3D. Je nach Spieleauswahl gibt es bestenfalls einen Gleichstand.
Na ja, es sind seit dem 7950X3D 8 Monate vergagnen. Es gibt neue Spiele mit eigenen Performance-Charakteristiken, siehe Starfield. 2-3 solcher Games und schon kippt ein Rating (nicht dramatisch, aber genug, um von z.B. 1-3% Rückstand jetzt 2-5% vorne zu sein). Beides ist eigentlich egal, aber in der Reallität eben dann doch nicht.
In der Realtität wird ein Produkt "vernichtet", wenn es 2% hinten ist. Clickbait und Co machen es möglich.
Freestaler
2023-10-16, 17:49:02
Vom tick-tock zum tick, tick,tick und tock. Schade das hier AMD nicht mehr Druck auf Intel bewirkt. Offensichtlich reicht auch Intel so bissel schnell zu sein.
Daredevil
2023-10-16, 18:56:46
Intel is doing Intel things. :D
https://abload.de/img/bildschirmfoto2023-106dc9u.png
yEHoqshYDCw
Ist übrigens gelauncht, der hoch spannende Gerät! Kein Review Thread? Well, dann so:
Intel Core i9-14900K, i7-14700K und i5-14600K im Test: Diese Prozessoren hätte man sich sparen können (https://www.pcgameshardware.de/Core-i9-14900K-CPU-279978/Tests/Refresh-Review-i7-14700K-i5-14600K-UVP-Release-Benchmark-Specs-1431342/)
VxSUP45p-BQ
MfG
Raff
MiamiNice
2023-10-17, 15:48:59
GGEhTyjDJxZG8LGW
Linmoum
2023-10-17, 16:02:38
Das dürfte der mit Abstand peinlichste Launch einer CPU-Gen seit Faildozer sein.
Faildozer war wenigstens technisch interessant. Langsam, aber neu und viel zu testen.
MfG
Raff
dildo4u
2023-10-17, 16:10:39
Das dürfte der mit Abstand peinlichste Launch einer CPU-Gen seit Faildozer sein.
11900k hatte weniger Multicore Leistung als der Vorgänger.
maximus_hertus
2023-10-17, 16:16:56
Bitte gehen sie weiter, hier gibt es nichts zu sehen..... ;)
Immerhin wurde auch nicht mehr als das erwartet, von daher gibt es auch keine Enttäuschung.
Ein Dank an alle Tester, die für diesen laaaaangweiligen Launch so viele Stunden opfern mussten. Bulldozer und auch andere Produkte, die gefloppt sind, waren, wie Raff geschrieben hat, zumindest technisch interessant.
Damit heißt es warten auf Arrow Lake. Also wohl bis Q4 2024.
Schauen wir mal, ob und wie AMD reagiert, gerade beim i7 gab es dann doch ein wenig Fortschritt. Aber gfühlt wird da wohl nciht viel passieren. Wahrscheinlich ist es für AMD relevanter, wann Zen 5 kommt und ab wann man ggf. die Zen 4 abverkauft. Falls Zen 5 schon früh in 2024 anstehen würde (halte ich für eher unwahrscheinlich), dann könnte ich mir Holiday-Season Angebote vorstellen. Wenn Zen 5 aber erst irgendwann Richtung Sommer oder später kommt, dann wird wohl nciht mehr viel im CPU MArkt (Preise) passieren.
Lehdro
2023-10-17, 16:21:41
Das dürfte der mit Abstand peinlichste Launch einer CPU-Gen seit Faildozer sein.
Diese Ehre wird für immer Kaby Lake X gebühren.
- komplett unnötig (keinerlei Vorteile vs. Kaby Lake)
- fragwürdige Kompatibilität (nicht alle Boards unterstützten KBL-X & es gab sogar KBL-X only Boards)
- fragwürdige I/O (teilweise nicht einmal komplette Features wie in S1151, wie vollständige PCIe Lanes, DRAM Channel etc)
- Möglichkeit die CPU zu grillen (von 1.8V für IVRs des SKL-X -> zu 1.1V KBL-X)
- hohe Preise (teurer als Kaby Lake und teurere Boards nötig)
- nach nicht einmal einem Jahr Produktion eingestellt
- Support komplett eingestellt direkt von Intel
aceCrasher
2023-10-17, 16:28:13
11900k hatte weniger Multicore Leistung als der Vorgänger.
War trotzdem 100x mal interessanter und besser. Für Multicore gab es damals sowieso noch X299. Der 11900K war eine neue Architektur mit bessrere ST- und Gaming Leistung. Die 14-Serie ist selbst für einen Refresh peinlich
MiamiNice
2023-10-17, 16:30:19
Wieso nennt ihr den Bulli Faildozer? Der Spitzname der CPU ist doch Pushcart.
AXXWxYd3tI0
Der 14700k ist im Grunde ne versteckte Preissenkung und macht den 14900k für die allermeisten Nutzer komplett uninteressant. Leider verbraucht er auch fast soviel :freak:.
Der 14900K ist ja auch der neue 13900KS, demnach enger selektiert und gar nicht in Masse herstellbar ;) Vielleicht haben die einfach das Lineup besser an den Markt angepasst und die größeren Modelle attraktiver gemacht. Aber ja... super lahm... dass es nicht mal ein neues stepping gibt find ich hart. Gleiche Logik, gleiche Kerne okay... aber hätte man nicht wenigstens nen C0/D0 respinen können, der mal wirklich ein paar Prozent mehr Takt oder weniger Power bringt?
DSD512
2023-10-17, 18:38:23
Der 14700k ist im Grunde ne versteckte Preissenkung und macht den 14900k für die allermeisten Nutzer komplett uninteressant. Leider verbraucht er auch fast soviel :freak:.
Nein.
Man holt sich in der Regel ein Intel, weil einem der Stromverbrauch Wumpe ist und man keinerlei Restriktionen (Factory Fused Limit :rolleyes: ) bezüglich RAM und CPU OC haben möchte.
Das Ziel sind Direct Die Watercooling + Apex Encore + DDR5-8800+ bzw. 5,8 bzw. 5,9 Allcore.
Alles unter 13900K(S)\14900K ist in Bezug auf den IMC meistens Schrott.
Da muss man schon Glück bzw. die Möglichkeit haben, CPU's selektieren zu können.
User im OC-Forum:
Apex Encore + 14900K + 2x 24 GB -> 5600@9000.
Solche Tests erwarte ich von den gängigen PC-Redaktionen. Das Maximum aus dem Stück Sand rausholen. Dafür ist die Technik da.
Irgendwelche Intel-Tests ala CB sind doch völlig uninteressant & langweilig.
https://www.overclock.net/threads/overclocking-raptor-lake-refresh-14900k-14700k-14600k-etc-results-bins-and-discussion.1807439/post-29247527
w0mbat
2023-10-17, 20:21:46
Man holt sich Intel, wenn man keine Ahnung von Technik hat ;)
/s
Linmoum
2023-10-17, 20:32:14
Man holt sich in der Regel ein Intel, weil einem der Stromverbrauch Wumpe istthe fuck did I just read
So delusional sind nicht einmal die absoluten Tryhard-Fanboys, ihr System für +-0% an Performance beim Gaming >>100% mehr saufen zu lassen.
Ex3cut3r
2023-10-17, 20:34:10
Man holt sich Intel, wenn man keine Ahnung von Technik hat ;)
/s
Ist halt etwas für die Enthusiasten, die einfach mal an einem dunklen Herbstwochenende sich zu Tode Tweaken wollen, was 6,0GHZ Takt angeht und DDR5 9000. Gespielt wird dann das AAA Game in 4K ohne DLSS und man erfreut sich an 0,0 % Prozent Leistungsgewinn. im Vergleich zum 12900k mit DDR5 6000. :tongue:
Wer das Geld und die Lust hat, soll das gerne machen. Alle anderen warten auf eine natürliche Leistungssteigerung.
Der eigentliche Witz daran ist, dass Games sich trotzdem zu Tode Stuttern, looking at you UE5 und UE4 Games.
Chrisch
2023-10-17, 20:47:57
t+-0% an Performance beim Gaming >>100% mehr saufen zu lassen.
Und 0,1% der Spiele sind relevant?
Als ob alles immer nur Gamer sind und man nur nach dem Verbrauch beim zocken kauft :rolleyes:
Ich bin da z.B. anders, mein PC wird zu 95% zum Surfen / Lesen / Netflix etc genutzt und befindet sich daher meistens im "Ruhezustand", in dem Bereich ist der ach so ineffiziente Intel leider wesentlich effizienter als die AMD Gegenstücke.
Ansonsten hat mein 13900KS ein niedriges Powerlimit gesetzt und erreicht in 98% der Games trotzdem seine Taktraten.
Und PS: Ja, ich hatte den direkten Vergleich. Ich hatte nen AM5 Board + 7800X3D und bin wieder back to Intel.
latiose88
2023-10-17, 20:56:02
Nur bei richtig lastigen Anwendung ,da verbrennt Intel förmlich den Strom in wärme.Weis ich weil ich das bei wem ausprobiert haben durfte.Geil ist es dann was anderes.Da ist ja sogar Zen 4 System besser.Aber die Leistung reicht mir nicht aus,also warte ich auf Zen 5 und vielleicht auf dem Nachfolger bei Intel.Erhoffe mir aber dennoch nicht allzuviel wenn das stimmt was man so liest und erfährt.
Im zweifel muss man bei Intel wohl länger warten um richtig gute Leistung ohne nen Stromkraftwerk nebendran zu haben.
Chrisch
2023-10-17, 21:00:52
Nur bei richtig lastigen Anwendung ,da verbrennt Intel förmlich den Strom in wärme.
Definitiv, keine Frage. Sind in dem Fall beim i9 aber halt auch 24 Cores / 32 Threads die gefüttert werden wollen und entsprechend ist dann aber auch die Leistung in MT Anwendungen.
Wem es stört kann das Powerlimit niedriger setzten, bissel Leistung einbüßen und einiges an Strom sparen. Es werden halt die letzten paar Prozent mit der Brechstange geholt was mMn einfach nicht nötig wäre. Aber für nen größeren Balken macht man ja alles (egal ob Intel, AMD oder NV).
maximus_hertus
2023-10-17, 21:36:04
befindet sich daher meistens im "Ruhezustand", in dem Bereich ist der ach so ineffiziente Intel leider wesentlich effizienter als die AMD Gegenstücke.
Dafür gibts Apple Silicon ;) Ernsthaft: Die Ineffizienz bei Intel und AMD sorgt doch bei deinem beschrieben Szenario dafür, dass es sich fast lohnt, einen z.B. Mac Mini zu kaufen und den Gaming Rig wirklich nur zum Zocken anzumachen.
Und wesentlich effizienter? Nun ja, wenn ich mir z.B. CB anschaue: https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/2/#abschnitt_leistungsaufnahme_in_anwendungen
60W vs 62W. Aber es ist nicht nur die CPU, Mobo und Co sind ein nicht unwesentichen Faktor beim Idle Verbrauch. Ergo kann das bei jedem deutlich anders aussehen.
Aber jeder kann natürlich das kaufen und nutzen was er / sie mag :) No offense.
Chrisch
2023-10-17, 22:14:22
Ich (ich betone nochmal, ICH) hab keine Lust mir hier mehrere Geräte hin zu stellen und ggf. mit irgendwelchen USB / DP Switches etc zu arbeiten.
Bin eh meiste Zeit des Tages arbeiten und wenn ich dann @ home bin mach ich das ding an, lese in Foren und gucke aufm 2ten Monitor YT / Netflix / Disney+ etc. Und wenn ich dann bock habe schmeiss ich für ne Stunde irgend nen Game an.
Und ich weiß auch nicht was CB dort testet (vermutlich die Cstates nicht manuell aktiviert), ich hatte hier wie gesagt selbst den direkten Vergleich. Identische Systeme (bis auf Mainboard, CPU & Speicher), identisches Nutzerverhalten. Bei beiden Systemen sämtliche Stromsparmechanismen aktiv und ich kann dir sagen es waren 20W+ Differenz beim Surfen (nicht nicht einfach nix tun) und noch ne Ecke mehr wenn es dann dazu ging Streams zu gucken. Hatte dazu aber auch damals was in dem entsprechenden AMD Thread gepostet.
dildo4u
2023-10-18, 07:42:00
Laut CB befinden sich alle CPU ca auf den selbe Level bei Teillast du hast bei AMD zu viel Verbrauch wenn du schnellen Ram nutzt.
Also wenn Effizienz das Ziel ist ein X3D Modell kaufen und den Ram bei 5200 lassen.
Der 7800X3D liegt unter den auf 180 Watt gelockten 13600k.
dargo
2023-10-18, 07:51:32
0oALfgsyOg4
Der Stromverbrauch bei Intel ist einfach nur noch irre. :eek:
Exxtreme
2023-10-18, 08:34:27
Ja, die betreiben es komplett an der Kotzgrenze. Man sollte diese CPU echt dringend drosseln. :)
Dr.Doom
2023-10-18, 09:10:29
https://youtu.be/0oALfgsyOg4
Hmm, ok, dann darf der 12700 im Zweit-PC bleiben.
Disco_STFU
2023-10-18, 10:31:09
Der Launch war echt unnütz. Naja, wenigstens kann man jetzt mit der 14th Gen werben!!1 :rolleyes:
Freestaler
2023-10-18, 10:43:10
@Chrisch, dein Teillast, gemessen an der Steckdose mir Pumpe und 15 Lüfter (geschätzt)?
mocad_tom
2023-10-18, 12:00:13
Hier die Leistungsaufnahme in Leerlauf und Teillast Oktober 2023
https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/2/#abschnitt_leistungsaufnahme_in_anwendungen
Hier die Leistungsaufnahme im Februar 2023
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/3/#abschnitt_leistung_und_effizienz_in_anwendungen
Auffällig ist, dass die Werte für Ryzen 7950X3D nicht mehr neu vermessen wurden - da stehen die Werte vom Februar 2023 drin.
Nachdem aber Hardware Unboxed GAMERS NEXUS diese Videos mit den chillig aufgeplatzten Ryzen Packages gemacht haben(im Juni oder Juli), haben alle Mainboard Hersteller neue Mainboard-Firmwares gemacht. Unter anderem wurde speziell im Idle und unter Teillast der Verbrauch nach dem Firmware Update höher (weil man bestimmte Blöcke nicht mehr power gated hat, damit man dort die Sensoren ordentlich auslesen konnte).
Ist das mutwillig oder einfach nur schlampig?
Auch die Speichercontroller bei den Ryzen wurden nicht mehr ganz so scharf eingestellt (kann aber sein, dass man ein Update später wieder hochgezogen hat, irgendwas war da).
Hakim
2023-10-18, 13:12:29
Ja bis auf 14700k, aber Leute "3" Gens eine Platform wo sogar ddr4 berücksichtigt wurde. Das kann man loben, auch wenn es wohl ursprünglich nicht so geplant war :)
Chrisch
2023-10-18, 13:17:25
@Chrisch, dein Teillast, gemessen an der Steckdose mir Pumpe und 15 Lüfter (geschätzt)?
Ich messe immer an der Steckdose also komplettes System bis auf Monitore.
Und ja, Pumpe & 8 Lüfter werden da auch mit gemessen.
Matrix316
2023-10-19, 10:27:36
Intel hätte schon viel früher das 3D Cache Prinzip von AMD klauen sollen. Wenn man sieht wie ein 7800X3D da abgeht... und der 14900K müht sich ab... :ugly:
MiamiNice
2023-10-19, 10:29:11
Du meinst Intel hätte sich mal eher dran erinnern sollen, nachdem AMD es von Intel nachgebaut hat ;)
Der_Korken
2023-10-19, 10:44:50
Du meinst Intel hätte sich mal eher dran erinnern sollen, nachdem AMD es von Intel nachgebaut hat ;)
Du meinst hoffentlich nicht Intels Non-3D-eDRAM-Billo-Cache?
amdfanuwe
2023-10-19, 11:09:37
Intel hätte schon viel früher das 3D Cache Prinzip von AMD klauen sollen. Wenn man sieht wie ein 7800X3D da abgeht... und der 14900K müht sich ab... :ugly:
Erst mal können. Foveros Direct ist noch nicht so weit.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/61056-multi-chip-packages-intel-über-glassubstrate,-die-testing-und-package-fertigung.html
Da hat Intel eher den Infinity Cache von AMD geklaut.
MiamiNice
2023-10-19, 11:15:28
Da kommen sie wieder aus den Löchern gekrochen :) Zusätzlicher Cache auf der CPU, ist keine Erfindung von AMD, sondern von Intel. War auf den Broadwells schon zu finden, AMD nahm die Idee, hat diese Idee verfeinert und einen 3D Cache draus gebastelt, der auf den Cores gestaplet wird und als zusätzlicher L3 gehandelt wird (Dafür muss der Takt runter und die Latenzen leiden). Mit Arrow Lake kommt dann die nächste Überarbeitung der Idee, den Intel implementiert das nochmals anders, als L4 Cache in einem seperatem Tile auf einem aktiven Interposer. Hoffentlich ohne Nachteile beim Takt und Latenz. Werden wir wohl bald live sehen.
dildo4u
2023-10-19, 11:22:48
Die Desktop Modelle bekommen das vermutlich nicht das ganze wird als L4 Konzipiert damit man die dicken IGP in den APU beschleunigen kann laut den Leaks hat Arrow Lake Desktop nur 4XE Cores.
https://www.computerbase.de/2023-10/cpu-geruechte-neue-und-alte-hinweise-zu-intel-arrow-lake/
MiamiNice
2023-10-19, 11:40:58
Laut Gelsinger hat der Cache Tile Datenleitungen in jeden Core, bzw. in jedes Chiplet auf dem Interposer. Würde mich überraschen, wenn der nur für die GPU ist. Scheint mir eher ein Win - Win zu sein. Mehr Speicher für iGPU + Cache für die Kerne. Wird sicher spannend wie das genau funktioniert.
Da es ein zusätzliches Tile ist, kann man den sogar extra anbieten. Sagen wir z.b. nur die k CPUs bekommen den extra Cache und die mobile SKUs. Die Mainstream CPUs (i3, i5) aber nicht. Intel wird das sicher nutzen um dem 3D Cache zu egalisieren. Alles andere wäre ziemlich dumm, IMO.
Der_Korken
2023-10-19, 11:58:02
Zusätzlicher Cache auf der CPU, ist keine Erfindung von AMD, sondern von Intel. War auf den Broadwells schon zu finden, AMD nahm die Idee, hat diese Idee verfeinert und einen 3D Cache draus gebastelt, der auf den Cores gestaplet wird und als zusätzlicher L3 gehandelt wird.
Broadwell war technisch völlig anders. Zusätzliche Cache-Stufe statt integriert, DRAM statt SRAM, Verbindung über Package statt über VIAs. Da kann man auch gleich sagen, dass Broadwell nur eine Kopie von irgendwelchen IBM-Chips aus den 80ern war, wo Caches noch nicht in die CPUs integriert waren, sondern immer extra Chips auf dem Package. Meteor Lake ist wesentlich näher an der AMD-Implementierung dran.
Complicated
2023-10-19, 12:59:01
Da kommen sie wieder aus den Löchern gekrochen :) Zusätzlicher Cache auf der CPU, ist keine Erfindung von AMD, sondern von Intel.
Und das immer nur wegen einem planlosen Intel Fanboy der ahnungslos Techniken in einen Topf wirft. Wann dir klar wird zum wievielten mal du dich schon öffentlich zum Obst gemacht hast mit deinen Sprüchen, ist das eigentlich spannende an deinen Beiträgen...
Matrix316
2023-10-19, 13:13:45
Du meinst Intel hätte sich mal eher dran erinnern sollen, nachdem AMD es von Intel nachgebaut hat ;)
Da bin ich gar nicht so sicher, weil das Prinzip von 3D Cache ist ja so ähnlich wie bei High Bandwith Memory, oder? Und das hat laut Wikipedia AMD miterfunden. https://de.wikipedia.org/wiki/High_Bandwidth_Memory
amdfanuwe
2023-10-19, 14:54:34
Da bin ich gar nicht so sicher, weil das Prinzip von 3D Cache ist ja so ähnlich wie bei High Bandwith Memory, oder?
Nicht ganz. Die ersten HBM sind noch mit Balls dazwischen gestackt worden wie Intel das auch macht.
Die neueren verwenden wohl auch die direct Copper to Copper Verbindungen wie sie AMD beim 3D Cache einsetzt.
[QUOTE]Für Foveros sieht Intel eine Weiterentwicklung von 36 µm (wie bei Meteor Lake eingesetzt) zu 25 µm. Foveros Direct ist eine Technik zur Verbindung mehrere Chips nicht mehr über die µBumps, sondern eine Kupfer-zu-Kupfer-Verbindung, wie sie TSMC bereits für Apples M1 Ultra anbietet oder wie sie auch für den zusätzlichen SRAM auf den Ryzen- und EPYC-Prozessoren mit 3D V-Cache zum Einsatz kommt. Foveros Direkt steigt dabei mit einem Bump-Abstand von 10 µm ein, dieser soll aber schnell auf bis zu 5 µm verringert werden.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/61056-multi-chip-packages-intel-über-glassubstrate,-die-testing-und-package-fertigung.html
AMD hat 9µm Bump Abstand, was gegenüber den 36µm und Balls einen Flächen- und Energievorteil bietet.
Sony setzt übrigens die dirkte Verbindung schon länger bei ihren Bildsensoren ein.
Matrix316
2023-10-19, 15:02:05
Heißt dass, dass Intel die Speicherchips nicht übereinander stackt, sondern nebeneinander wie bei den Apple M CPUs?
Bei HBM und 3D Cache sind ja die Chips direkt übereinander (außer die, die halt daneben sind ;)).
https://www.anandtech.com/show/16725/amd-demonstrates-stacked-vcache-technology-2-tbsec-for-15-gaming
davidzo
2023-10-19, 18:34:03
Laut Gelsinger hat der Cache Tile Datenleitungen in jeden Core, bzw. in jedes Chiplet auf dem Interposer.
Hast du ne Quelle?
Da es ein zusätzliches Tile ist, kann man den sogar extra anbieten. Sagen wir z.b. nur die k CPUs bekommen den extra Cache und die mobile SKUs. Die Mainstream CPUs (i3, i5) aber nicht.
ADM ist ziemlich sicher kein extra Tile, sondern einfach ein anderer base-DIE. Das zeigt zumindest das ADM-Patent US20210081538A1.
Die Anordnung von GPU, SOC, CPU und I/O DIE ist ja auch fixiert bei MTL und ARL. Einen weiteren DIE dazwischen zu schieben würde bedeuten dass die Leistungslängen, capacitance, resistance etc. nicht mehr stimmen. Und wo sollte man den cache von außen dran pappen, an die GPU oder an das CPU-DIE beide Zentimeter voneinander entfernt sind? Wenn der dann wirklich als L4 für beide zugänglich ist könnte das extra Latenzen verursachen.
Das Patent listet zwei verschiedene Konfigurationen für das base-DIE: ADM or passive interposer. Bisher ist der Interposer in 22FFL gefertigt, also dem auch bei Lakefield genutzten Prozess für Foveros. Das bedeutet hier wird wohl nach wie vor kein hybrid bonding verwendet sondern µBumps. Ist auch nicht schlimm, da es wesentlich mehr TSV Fläche gibt als bei AMDs cache und die DataRate pro Pin dadurch viel niedriger ist. Der größte Unterschied zu Foveros 1st Gen bei Lakefield ist dass der Pitch von 50µm auf 36µm gesunken ist.
* 1st gen: 55µm, 0.15 pJ/bit, 10nm auf 22FFL
Products: lakefield (50µm, foveros 1+?)
* 2nd gen: 45µm, 0.15 pJ/bit?, Intel7 auf 14FFL
Products: keine? FPGAs?
* 2+ gen: 36µm, 0.2 pJ/bit?, TSMC N5 auf Intel7 und Intel4 auf Intel7, TSMC N3 auf Intel7(?)
Products: Ponte Vecchio, Meteorlake, Arrowlake,...
Bei Ponte Vecchio ist der Base-Die immerhin schon in Intel7 gefertigt und hat 17 Layer, also soviel wie früher eine ganze CPU. Das dürfte nicht gerade billig sein.
Allerdings sind da neben dem Foveros DIE Interconnect, also recht simplen FCK rx/tx transceivern auch ein Memory Fabric mit mehreren TB/s, Capacitors und Fully integrated Voltage regulators (FIVR) sowie ganze 144mb an L3 Cache drauf. Die 17 Layer Intel7 werden also gut genutzt.
ADM könnte ähnlich sein und die hohen Kosten der Grund wieso es nicht für MTL, Base-SKUs und den Desktop kommt sondern nur beim entsprechend teuren ARL-Halo-Produkt eingesetzt wird.
Unklar ist ob MTL und ARL auch auf Foveros Omni setzen wie bei PV offentichtlich verwendet wurde. Da es nur ein einziger Interposer ist wäre das nicht unbedingt notwendig, allerdings kann man Diefläche sparen indem man für Power Delivery nicht den Base-DIE benutzt sondern direkte fette Copper Pillars vom Substrat durchroutet und dann mit einem Interposer auskommt der insgesamt kleiner ist als die Top DIEs.
Danach siehts in den Schemata aber bisher nicht aus. Andererseits hat Intel bei PV auch nicht von Foveros Omni gesprochen, obwohl es durch die multiple Base-DIEs praktisch nichts anderes sein kann.
dildo4u
2023-10-21, 12:54:40
Laut CB befinden sich alle CPU ca auf den selbe Level bei Teillast du hast bei AMD zu viel Verbrauch wenn du schnellen Ram nutzt.
Also wenn Effizienz das Ziel ist ein X3D Modell kaufen und den Ram bei 5200 lassen.
Der 7800X3D liegt unter den auf 180 Watt gelockten 13600k.
Bissel OT hier sieht man wie niedrig Ryzen im idle gehen kann mit einem sparsamen Board.
33 Watt 7700X DDR5 6000 mit 4060.
P2CUi9W2DI0
Chrisch
2023-10-22, 11:23:28
Gibt's das auch irgendwo schwarz auf weiß? Ich finde leider absolut keine Tests oder User Ergebnisse die solche Verbräuche widerspiegeln (auf AM5 bezogen).
Selbst im Luxx im "Wieviel Watt verbraucht euer PC im Idle-Modus ?" sind die AMDs sehr rar gesät, eigentlich komisch obwohl die ja so effizient sind.
Intel Core i9 13900KS
MSI Z690 Tomahawk D4
32GB DDR4 G.Skill TridentZ @ 4100 C17
Inno3D RTX 4070Ti
Fractal Ion+ 860W NT
1x Kingston A2000 500GB NVMe
1x Kingston KC3000 1TB NVMe
1x Kingston KC3000 2TB NVMe
1x Aquacomputer D5 Next
3x Arctic P14 PWM Lüfter
2x Arctic P12 PWM Lüfter
2 Monitore aktiv (FHD @ 60Hz & WQHD @ 144Hz)
Verbrauch mit geöffneten Browser & aktiven Stream
https://abload.de/img/1t0edg.jpg
Verbrauch mit geöffneten Browser ohne Stream
https://abload.de/img/262dta.jpg
Einfach idle aufm Desktop gehts auf ~52W
davidzo
2023-10-22, 16:13:10
Ja, das wäre echt mal ein Test Wert. Ein umfangreicher Vergleichstest von AM5 und LGA1700 entry Midrange und Highend Boards mit Energieverbrauchsvergleich. Viel besser als irgendwelche Raptorlake Refresh tests die eh keinen Interessieren.
Mein Eindruck ist dass Intel einfach die umfangreicheren design tools und support Motherboard & Plattform Design liefert und daher die meisten Plattformen besseres power management umsetzen und näher beieinander liegen. Es ist ja nicht nur dass die Phasenkonfiguration bei vielen Highendboards ineffizient ist, sondern vor allem das Power-management für Idle was bei vielen AMD boards schlecht implementiert ist. Das schließt anscheinend nicht aus dass es auch AMD boards mit einer sparsamen, idelfreundlichen Implementierung gibt, aber die Schere geht halt viel weiter auseinander als bei Intel. Aber die starke Streuung mit ein paar sehr guten Idle-Resultaten und vielen schlechten, legt nahe dass es nicht nur ein grundsätzliches Problem der Chipletarchitektur ist. Ryzen 5000 war ja auch trotz 12LP io-Die schon besser.
Ich weiß das so ein Rundumschlag besonders viel Arbeit ist, insbesondere mit Energiemessungen (Idle, max, Joule pro Job). Aber neben der theoretischen Architekturbetrachtung die das sehr interessant macht wäre damit auch vielen Lesern geholfen die eher sweetspot midrange Systeme bauen und nicht nur Highend. In Zeiten steigender Strompreise und enorm populärer Mini-PVs ist das Thema Verbrauch bei tatsächlicher Nutzung für Viele sicher interessant. Wenn Raff oder y33H@ für sowas mal Zeit hätten wäre das Großartig! Sonst traue ich sowas auch Igor zu, der zwar nicht die kühle Logik und Stringenz bei der textlichen Aufbereitung und Präsentation zeigt wie Raff oder Marc, aber üblicherweise nicht vor Messorgien zurück schreckt, das muss man ihm lassen.
Platos
2023-10-22, 20:13:42
Bissel OT hier sieht man wie niedrig Ryzen im idle gehen kann mit einem sparsamen Board.
33 Watt 7700X DDR5 6000 mit 4060.
https://youtu.be/P2CUi9W2DI0
Idle ist nur leider nicht relevant. Niedriglast-Szenarien sind relevant. Also sowas wie Browsing, Youtube-Videos, Office usw.
Der Idle dürfte wie du schon sagst am Board liegen. Das ist mir aber Suspekt. Habe dazu schon im ultra lowpower-thread darüber geschrieben. Es gibt da teils vom exakt gleichen Board extrem unterschiedliche Werte.
y33H@
2023-10-22, 21:20:58
Wenn Raff oder y33H@ für sowas mal Zeit hätten wäre das großartig! Sonst traue ich sowas auch Igor zu, der zwar nicht die kühle Logik und Stringenz bei der textlichen Aufbereitung und Präsentation zeigt wie Raff oder Marc, aber üblicherweise nicht vor Messorgien zurück schreckt, das muss man ihm lassen.Ich arbeite seit einem Jahr für Intel als EMEA Tech Comms, sprich meine Hardware Ecke ist deutlich kleiner geworden ... bis auf meinen privaten Gaming-PC habe ich kaum noch was zur Hand außer paar SSDs ^^
Platos
2023-10-23, 10:19:11
Ja, also mal endlich ausführliche Tests zu niedrigen Stromverbräuchen bei Mainboards, fände ich auch gut. Aber viel wichtiger wäre es, bei halbwegs grösseren CPUs (i5 aufwärts und entsprechen bei AMD) ganze Systeme zu testen. Also die Idee dahinter wäre, Systeme herauszufinden, die bei Niedriglast (Browser, Office, Mausbewegung, Scrollen, Videos schauen etc) möglichst wenig Strom verbrauchen. Aber eben NICHT mit solchen Ultra-Low-End Prozessoren, denn dann kann ich mir auch einfach ein NUC kaufen. Ne, mit Gaming-tauglichen Prozessoren (eben i5 aufwärts ab 12th gen aufwärts bzw. gleiches für Zen ab Zen4).
dildo4u
2023-10-23, 10:50:41
Es gibt doch tonnen Laptop Tests das AMD Intel schon lange hinter sich gelassen hat, das "Problem" ist das am Desktop fast jeder OC Ram nutzt was unnötig den Verbrauch erhöht.
Zen 4 APU 10 Stunden Laufzeit gegen 6.
https://youtu.be/fo_8geZ9EuI?si=ZhZl9BO_IeMQAPy3&t=850
Complicated
2023-10-23, 11:33:47
Das Problem, oder besser der Grund für den Ruf nach mehr Tests im Desktop, ist dass die APUs lange brauchen und teilweise gar nicht im Retail-Markt ankommen.
Hier muss man AMD zu gute halten, dass sie die geschäftlichen Prioritäten vermutlich auf der Balance-Fähigkeit für Chiplet-Produkte erhalten wollen zwischen Server<->Consumer CPUs. Die Weiterentwicklung der Chiplets muss vorangetrieben werden und die Desktop CPUs bilden einen flexiblen Zweitverwendungsmarkt, der relative schnell durch Marketing/Preis hoch skaliert werden kann. Die Server-Zyklen sind auch relativ vorhersehbar. Ich denke APUs werden erst dann im Desktop Prio bekommen wenn über 50% Serveranteil erreicht sind. Bis dahin sind auch die GPU-Teile leistungsstark und die Bandreiten hoch genug um chipletbasierte und monolithische APU-Designs in ausreichend Stückzahlen abzusetzen.
MiamiNice
2023-10-23, 11:54:46
Hast du ne Quelle?
Ich hatte mir die Slides zu ARL angeschaut. Weiß aber leider nicht mehr, welche das genau waren. Es hieß aber klar, das der Cache Tile mit allen anderen Tiles verbunden ist. Schaue mal ob ich das noch wiederfinde.
Platos
2023-10-23, 13:54:14
Es gibt doch tonnen Laptop Tests das AMD Intel schon lange hinter sich gelassen hat, das "Problem" ist das am Desktop fast jeder OC Ram nutzt was unnötig den Verbrauch erhöht.
Zen 4 APU 10 Stunden Laufzeit gegen 6.
https://youtu.be/fo_8geZ9EuI?si=ZhZl9BO_IeMQAPy3&t=850
Logischerweise war die Aussage von mir auf Desktops bezogen (sieht man jan auch an der Prozessorwahl). Und ich habe die Prozessoren auf aktuelle eingeschränkt, APUs von AMD fliegen also (wir immer) raus, wenn man was aktuelles haben will am Desktop.
davidzo
2023-10-24, 18:55:00
Ich hatte mir die Slides zu ARL angeschaut. Weiß aber leider nicht mehr, welche das genau waren. Es hieß aber klar, das der Cache Tile mit allen anderen Tiles verbunden ist. Schaue mal ob ich das noch wiederfinde.
Also nicht "Laut Gelsinger".
Schade, ein imaginäres Zitat von Miami aus dem 3Dcenter ist leider keine neue interessante Quelle.
Ich bezweifle aber auch gar nicht dass der CPU-Tile irgendwie auf den L4 zugreifen kann. Ich bezweifle eher dass das für die CPU-Leistung Performance-relevant ist.
Der Nutzen als SRAM statt des DRAMs um den Boot/Post-vorgang zu beschleunigen setzt ja vorraus dass der Cache irgendwie von der CPU angesprochen werden kann.
Allerdings ist damit nicht gesagt ob das tatsächlich als CPU performance-Booster taugt oder eben nur von denzwei SOC-Die Kernen für einen secure-Boot oder für die Verschlüsselungs-Engine benutzt wird wie im Patent beschrieben.
Ein L4 würde halt die eh schon hoheDRAM Latenz erhöhen und womöglich die Latenzverbesserungen die der neue L3 Cache auf dem CPU-Die mit sich bringt wieder auffressen. Klar, 24MB sind jetzt auch nicht die Welt vor allem wenn es um Spiele geht, aber bisher mussten sich die 24Kerne 32T bei RTL ja auch nur 36mb teilen.
Ich vermute aber dass der L4 vor allem auf hohe Bandbreite setzt damit die GPU ordentlich profitiert und man keine diskreten chips für neue Ultrabooks braucht. Bei hoher Bandbreite gibt es zwangsläufig den Tradeoff höherer Latency. Wenn die GPU von ADM besonders profitieren soll, dann wird es eher schlecht für die CPU skalieren.
mocad_tom
2023-10-24, 19:15:22
Lunar Lake wird CPU & GPU auf einem Tile haben
Panther Lake wird CPU & GPU auf einem Tile haben
Da Arrow Lake-S das SOC-Tile von Meteor Lake recyceln kann, wird da nicht so großartig umgebaut werden.
https://images.anandtech.com/doci/20046/SoC%20and%20IO%20Deep%20Dive_FINAL%20CLEAN-18.png
w0mbat
2023-10-24, 21:16:27
Hat RPL-R jetzt DLVR aktiviert oder nicht? Ich höre gegenteilige Aussagen, war aber der Meinung, dass DLVR eh nur Teil von RTL-H war/ist.
Hat jemand hier mehr Infos?
dildo4u
2023-10-25, 04:58:44
Ist aktiv nur wird der i9 zu sehr geprügelt und der i7 hat mehr Kerne.
Der 14600 ist effizienter als sein Vorgänger.
https://www.techpowerup.com/review/intel-core-i5-14600k/22.html
y33H@
2023-10-25, 07:36:30
Nope.
Wie nu, isses aktiv oder nicht? :P
iamthebear
2023-10-29, 00:52:53
Ich glaube das behauptet nur MLID und reimt sich seine Geschichten zum 14600K zusammen. Der wird von Intel einfach etwas besser gebinned sein.
DLVR ist abhängig vom CPU Strom. Da müsste der 14900K beim ST Verbrauch viel besser abschneiden, tut dies aber nicht.
00-Schneider
2024-02-13, 11:51:57
Intel Core i9-14900KS Limited Edition CPU Leak: Up To 6.2 GHz Clock, Over 100C Temps & 400W+ Power Consumption
Starting with the specifications, the Intel Core i9-14900KS Desktop CPU will feature the same 24 cores and 32 threads in an 8 P-Core & 16 E-Core config. The chip will feature 36 MB of L3 cache and 32 MB of L2 cache. As for clocks, the base frequency will be set at 3.2 GHz while the boost frequency will be set at 6.2 GHz, making this CPU the fastest-clocked chip on the planet. This is 200 MHz faster than the current fastest Core i9-13900KS and Core i9-14900K CPUs.
But with higher frequencies also come higher power draw & temperatures. The Intel Core i9-14900KS features a base TDP (PL1) of 150W and can hit a peak power consumption of up to 410W with an average power rating of 330W. With such high TDPs, the temperatures of the chip reached up to 101 degrees (Celcius) and the maximum reported frequency was 5.9 GHz across all P-Cores.
https://wccftech.com/intel-core-i9-14900ks-cpu-leak-up-to-6-2-ghz-clock-100c-temps-400w-power/
----------------
(Habs mal hier rein gehauen, wenn es woanders besser passt, gerne verschieben.)
maximus_hertus
2024-02-13, 12:11:07
Man muss keinem Lager angehören um 410W nur für die CPU (Desktop, nciht WOrkstation) als etwas absurd anzusehen.
Und das gerade mal für, sorry, lächerliche 3,3% Mehrtakt, die in 1-2% Mehrperformance münden aka im Bereich der Messtoleranz landen.
Zossel
2024-02-13, 12:25:17
Man muss keinem Lager angehören um 410W nur für die CPU (Desktop, nciht WOrkstation) als etwas absurd anzusehen.
Dann wird es ja langsam Zeit für neue brennende Schrottstecker um Mainboards mit Strom zu versorgen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.