PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intel kündigt Tiger Lake-H an und gibt Infos zu RKL, ICL-SP & ADL


Leonidas
2021-01-12, 05:56:17
Link zur News:
https://www.3dcenter.org/news/intel-kuendigt-tiger-lake-h-und-gibt-informationen-zu-rocket-lake-ice-lake-sp-alder-lake

Gast
2021-01-12, 07:35:59
Gleichfalls hat Intel eine offizielle IPC-Angabe zu Rocket Lake getroffen, wonach es "bis zu 19%" mehr IPC (vermutlich gerechnet gegenüber Comet Lake) geben soll. Die "up to" Anmerkung irritiert dabei einigermaßen, denn wenn hierbei tatsächlich der reine Spitzenwert angegeben wurde, dann ist der (einzig relevante) Mittelwert eher irgendwo bei der Hälfte hiervon zu erwarten.

Vermutlich eher eine Sicherheitsangabe, nicht dass jemand einen Benchmark findet, der weniger IPC-Steigerung bietet und dann Intel verklagt.

Gast
2021-01-12, 08:07:31
"Damit wäre das Rocket-Lake-Die trotz nur 8 CPU-Kernen immerhin um ein Drittel größer als das Comet-Lake-Die mit 10 CPU-Kernen."
Na, das klingt nicht gerade vielversprechend, was die Lieferbarkeit angeht. Bei 1/3 größerem Die kommen entsprechend weniger Die/Wafer raus. Und da die Wafer Zahl limitiert ist, kann man nur hoffen, dass Intel möglichst bald möglichst viel aus dem Mobile und Server Segment in 10nm fertigen kann.
Wenn man sich die +25% bis über +30% Gerüchte zu Rocket Lake von nach Weihnachten anschaut, dann widerspricht Intel denen übrigens höchst selbst (da deutlich weniger Abstand zum Ryzen als in den Gerüchten und auch deutlich weniger Vorsprung vor Comet Lake).
Am meisten gespannt bin ich auf Tiger Lake H gegen Cezanne, das dürfte ein richtig spannender Fight werden.

Gast
2021-01-12, 08:17:48
Computerbase relativiert die Benchmark Werte von Intel indirekt gleich wieder. Bei denen steht nämlich zu lesen, dass Resizable Bar zusammen mit NVidia entwickelt wird. Da die Test GPU von NVidia stammt, liegt es nahe, dass bei Intel das Feature aktiv war, beim AMD Testsystem hingegen nicht (da es das offiziell noch nicht in Kombination AMD CPU & NV GPU gibt).
Da Resizable Bar/SAM im Bereich von 3-8% Leistung bringt, könnte das den Großteil oder sogar den gesamten Vorsprung von Intel vor AMD ausmachen.

Leonidas
2021-01-12, 08:33:44
Vermutlich eher eine Sicherheitsangabe, nicht dass jemand einen Benchmark findet, der weniger IPC-Steigerung bietet und dann Intel verklagt.


Denkbar. Muß sich noch erweisen.

Gast
2021-01-12, 10:15:53
Denkbar. Muß sich noch erweisen.

Hm: https://youtu.be/YhjCV0-DrfE?t=1426

"... upwards 14%..."

Würde genau genommen bedeuten, dass 14% die untere Grenze ist, was aber eigentlich auch nicht stimmen kann, wenn man an die alte Ice-Lake Folie denkt, mit IPC-Gains im Bereich 5-30%.

Andererseits spricht er hier eigentlich nur über Gaming und 14% Minimum beim Gaming könnte durchaus stimmen.

Gast
2021-01-12, 10:17:18
Computerbase relativiert die Benchmark Werte von Intel indirekt gleich wieder. Bei denen steht nämlich zu lesen, dass Resizable Bar zusammen mit NVidia entwickelt wird. Da die Test GPU von NVidia stammt, liegt es nahe, dass bei Intel das Feature aktiv war, beim AMD Testsystem hingegen nicht (da es das offiziell noch nicht in Kombination AMD CPU & NV GPU gibt).

Du kannst dir sicher sein, dass Nvidia resizeable BAR auf beiden Plattformen unterstützen wird, es macht überhaupt keinen Sinn für Nvidia das auf Intel zu beschränken.

Geldmann3
2021-01-12, 10:21:54
Arm, +2% in einem selbst herausgepickten Benchmark und noch dazu nicht gegen die Toplösung des Konkurrenten?
Mal schauen ob es für mich reichen wird, meinen 9900k im Intel System damit zu ersetzen.

dildo4u
2021-01-12, 10:23:23
Klar sie werden keine 800€ für ein 8 Core nehmen.

Dorn
2021-01-12, 10:30:58
Schlussendlich wird der Verbrauch dank 14nm durch die Decke gehen, egal wie gut der CPU sein mag, 14 nm gehört nicht mehr ins Jahr 2021.

dildo4u
2021-01-12, 10:33:00
Die Dinger haben doch AVX Offsets für Benchmarks, für Games ist das eh nicht relevant würde mich wundern wenn sie dort über 100 Watt nehmen.

Legendenkiller
2021-01-12, 10:42:16
@Dorn

naja der 5800x und 5900x braucht 143W, die TPD von 105W sind ja im Realbetrieb nix Wert.

Der 10850/10900k lauft bei 125TPD Real, wenn es auf dem MB richtig eingestellt ist und ist damit sparsamer.
Die 250W Setting oder unendlich P2 timings sind Overclocking und damit kein Vergleichswert zu ein regulär betriebenen CPU.

Also selbst wenn 11900 mit 150W TPD kommt ist das die selbe Liga wie AMDs 5800x/5900x mit ihren 143W.
Also auch bei 7nm geht der Verbauch durch die Decke.
Die aktuellen Intels verbrauchen mit 10core 125W, ich sehe da kein Grund warum der 8Core nicht auch mit 125W TPD kommen sollte und damit wäre er bei Spielen absolut konkurenzfähig oder sogar leicht besser als Zen3.


Und mit Werksettings verbrauchen AMD aktuelle CPUs mehr als Intels "veraltete" 14nm CPUs.

https://scr3.golem.de/screenshots/2101/10850K-Benches-Apps/thumb620/09-system-power-consumption-(system)-chart.png

Gast
2021-01-12, 11:15:31
Schlussendlich wird der Verbrauch dank 14nm durch die Decke gehen, egal wie gut der CPU sein mag, 14 nm gehört nicht mehr ins Jahr 2021.

Mein Ryzen zuhause verbraucht trotz 7nm im Arbeitsalltag wesentlich mehr, als der Intel in meinem Büro obwohl der Intel in 14nm, obwohl der Intel im Büro die eigentliche Arbeit macht und der Ryzen nichts anderes als eine Citrix Verbindung sowie Kommunikationstools wie Skype, Teams und Webbrowser laufen.

Zusammen mit dem Stromfresser X570 ist der Systemverbrauch vom Ryzen sogar mehr als doppelt so hoch.

Wenn man nicht gerade 24/7 rendert, bei dem der Ryzen unbestritten deutlich besser ist, da er vor allem auch deutlich schneller ist und damit wesentlich weniger Zeit unter Volllast verbringen muss ist der Verbrauch von Intel durchaus konkurrenzfähig, trotz 14nm vs 7nm.

Bei geringer Last ist Intel sogar deutlich besser, und das hält an, je nach Software bis zu einer Auslastung von 4-6 Kernen.

Erst mit einer Auslastung von über 6-8 herrscht Parität die dann bei noch höherer Auslastung zu einem Vorteil für AMD umschlägt.

Nur wie oft hat man im realen Alltag eine derartige Auslastung?.

WedgeAntilles
2021-01-12, 11:36:08
Schlussendlich wird der Verbrauch dank 14nm durch die Decke gehen, egal wie gut der CPU sein mag, 14 nm gehört nicht mehr ins Jahr 2021.

Dass die auch so katastrophalen Intel im Idle halt mal 20 Watt oder so weniger verbrauchen ignorierst du?
Weißt du es nicht oder passt es nicht zu deinen Daten?

Gleiches gilt ja auch für die GraKas.

Wenn man unter Last 30 Watt oder so mehr verbraucht, im Idle aber 20W weniger, kommt unterm Strich kein gigantisch großer Mehrverbrauch raus.

Aber klar, eine differenzierte Betrachtung ist natürlich völlig uninteressant, besser man haut raus wie unglaublich toll die eigene Firma ist und wie unglaublich beschissen doch die anderen sind.


Rocketlake steht und fällt mit dem Preis.
Ist RL teurer als Zen 3 gibt es für Rocketlake keine Argumente.
Und falls man Anwendungen hat die 12 Kerne aufwärts brauchen natürlich sowieso nicht. Da gibt es ja nur AMD.
Ist RL aber günstiger ist es die attraktivere Variante als Zen 3.

Mayhem
2021-01-12, 12:05:52
Und mit Werksettings verbrauchen AMD aktuelle CPUs mehr als Intels "veraltete" 14nm CPUs.

https://scr3.golem.de/screenshots/2101/10850K-Benches-Apps/thumb620/09-system-power-consumption-(system)-chart.png

Es kommt wohl halt immer auf die Quelle/Config an mit dem Verbrauch? Bei CB
https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/#diagramm-test-leistungsaufnahme-teillast-windows-10-cb-r20-sc-steckdose darf der 10850k wohl unlimitiert ran und verbrät dann unter Volllast mal 60-70W mehr. Auch SC verbraucht er hier mehr.

Schnoesel
2021-01-12, 14:03:33
Gleichfalls hat Intel eine offizielle IPC-Angabe zu Rocket Lake getroffen, wonach es "bis zu 19%" mehr IPC (vermutlich gerechnet gegenüber Comet Lake) geben soll. Die "up to" Anmerkung irritiert dabei einigermaßen, denn wenn hierbei tatsächlich der reine Spitzenwert angegeben wurde, dann ist der (einzig relevante) Mittelwert eher irgendwo bei der Hälfte hiervon zu erwarten.

Mal das Kleingedruckte lesen dannn wirds klar:

"Up to 19% IPC performance improvement (gen over gen) - Source: Intel estimates as of January 2021. Based on measurements on Intel Internal reference platforms running SPEC CPU 2017 1-copy rate on 11th Gen Intel® Core™ i9-11900K vs 10th Gen Intel® Core™ i9-10900K (running each at the same fixed frequency). "

Ein einzelner Bench von SPEC CPU 2017. Intel Marketing as its best:

https://edc.intel.com/content/www/us/en/products/performance/benchmarks/events/

BTW auch nicht leicht zu finden.

Gast
2021-01-12, 15:13:56
Auch SC verbraucht er hier mehr.

???

Also ich seh da im Singlecore knapp 10W weniger bei 10900/10850 gegenüber 5900/5950.

Und man darf nicht vergessen, das ist SC-AVX, wieviel Software verwendet denn tatsächlich dermaßen viel AVX?

Mega-Zord
2021-01-12, 15:27:33
Man sollte eigentlich mal den 9900k, den 10900k und den 11900k mit dem selben RAM testen. Ich kann verstehen, dass diverse Tester sich an die Herstellervorgaben halten, aber ein in der realen Welte vergleichbarer Test ist das eben nicht. Gleich 3600er, dann ist das auch mit einem praktikablen Maximum beim Zen3 vergleichbar.

Arm, +2% in einem selbst herausgepickten Benchmark und noch dazu nicht gegen die Toplösung des Konkurrenten?
Mal schauen ob es für mich reichen wird, meinen 9900k im Intel System damit zu ersetzen.

Mein 9900k werde ich frühestens durch einen Alder Lake ersetzen. Aber AMD wird ja auch vielleicht noch einen Zen3-Refresh bringen. Es ist ja nicht so, dass der 9900k jetzt irgendwo zu langsam wäre, wird halt nur etwas warm in der Bude. :D

Gast
2021-01-12, 20:16:16
Dass die auch so katastrophalen Intel im Idle halt mal 20 Watt oder so weniger verbrauchen ignorierst du?
Weißt du es nicht oder passt es nicht zu deinen Daten?
Gibt's für die Behauptung auch einen Test, der das zeigt?
Bei Computerbase (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/#abschnitt_leistungsaufnahme_von_leerlauf_bis_volllast) braucht ein i7-9700 im Idle 42W, ein Ryzen9 5950X auf einem B550 braucht...42W. Also genau 0W mehr. Selbst auf einem X570 sind es mit 56W nicht 20W mehr wie von dir behauptet, obwohl der Chipsatz geradezu mit PCIe 4.0 Lanes um sich wirft. Sicherlich gibt es von Board zu Board noch etwas Schwankungen, aber die 20W Mehrverbrauch bei vergleichbaren Systemen kann man zumindest bei Computerbase nicht ansatzweise sehen.

Flusher
2021-01-12, 22:08:47
Bin ich der einzige dem die neuen Codenamen völlig unübersichtlich erscheinen? Muss Intel denn wirklich jedem Ding einen neuen See-Namen verpassen? Liegt das daran, dass die Tränen der Investoren die Seen so schnell füllen?

Gast
2021-01-13, 16:35:29
Gibt's für die Behauptung auch einen Test, der das zeigt?

Ein realer Arbeitstag im Homeoffice.

Mein privater Ryzen Rechner vor dem ich sitze und auf dem im Wesentlichen ein Webbrowser, Citrix für die Remoteverbindung, Skype + Teams für die Kommunikation läuft.

https://i.imgur.com/rAVobWP.png

Mein Rechner im Büro mit einem veralteten 14nm Intel, auf dem die eigentliche Arbeit läuft.

https://i.imgur.com/ra4QhTM.png

Also gerade mal ein Unterschied von grob dem Faktor 10 und das bei einem Rechner der "nichts" macht außer meine Eingaben zu verarbeiten und 2 Bilder auszugeben, zu einem auf dem die eigentliche Arbeit läuft.

Bei Ryzen gibt es im Idle im Wesentlichen 3 Probleme.
Erstmal der verdammt hohe "SOC" Verbrauch. Der SOC scheint keine Powerstates oder ähnliches zu kennen und verbraucht immer weitestgehend gleich viel. Der reine Verbrauch der CCX ist im Idle sogar extrem gut und geht sogar auf quasi 0 runter.
Der Idle-Takt ist viel zu hoch, Intel geht hier bis 800Mhz runter, AMD bis minimal ~2000MHZ
Und das größte Problem, beim Ryzen schießt wegen jedem "Furz" der Takt hoch. Einmal irgendwo Scrollen und schon ist mindestens 1 Kern auf 4500MHz. Intel reagiert hier bei 1-2% CPU-Auslastung die es fast immer gibt so gut wie gar nicht.

Wegen letzterem gibt es bei AMD einen riesigen Unterschied zwischen komplettem Idle, und ganz wenig machen. Irgendwo in einem Dokument Scrollen und schon bist du bei 50W+, während es bei Intel nicht mal eine Hand voll an Watt Unterschied gibt zwischen "echtem" Idle bei dem wirklich gar nichts passiert und ganz leicher Belastung wie man sie üblicherweise im Alltag hat.

Legendenkiller
2021-01-14, 11:29:45
Läuft der Ram in beiden Rechnern mit normalen 1,2V?
Der Verbrauch geht mit OC Ram auch in der CPU teils extem hoch, also >20W nur durch Ram OC wenn die Spannugen auf 1,35V eingestellt sind.

Auch MB Hersteller "optimieren" gerne sehr stark Richtung max Perfomace. Hier sollte man das Bios nochmal checken.
Nur damit der Vergleich fair ist.


PS: Aber ja speziell die 5000 sind sehr agrressiv eingstellt. Bei Games hab ich folgenden beobachtet.

Ein Spiel läuft unlimitiert mit 100FPS ... ein 10850 und der 5800x laufen beide am Hersteller TPD mir vergleichbaren FPS...
Limitiert man nun auf 60fps Sync geht der Intel durchaus 20-50W runter, wärend der 5800x weiter nahe am TPD bleibt obwohl er nur noch Teillast hat.

Gast
2021-01-14, 14:38:37
Läuft der Ram in beiden Rechnern mit normalen 1,2V?
Der Verbrauch geht mit OC Ram auch in der CPU teils extem hoch, also >20W nur durch Ram OC wenn die Spannugen auf 1,35V eingestellt sind.


Der RAM am Ryzen läuft mit XMP und 1,35V, im Büro weiß ich nicht aber ich vermute mal JEDEC mit 1,2V.

Und ja das ist mir auch schon aufgefallen, dass RAM-OC beim Ryzen extrem teuer ist im Bezug auf den Verbrauch, teilweise sogar so weit, dass man mit RAM-OC, wenn man nicht gleichzeitig das Powerlimit erhöht, Leistung verlieren kann.

Das ist aber eine weitere Eigenheit von Ryzen.

Hier mal mein zweites Intel-System was quasi als NAS fungiert und ebenfalls mit XMP-RAM und 1,35V läuft.
https://i.imgur.com/g4ImaAw.png
Der Verbrauch zeigt sich davon ziemlich unbeeindruckt.


Nur damit der Vergleich fair ist.


Wenn man die maximale Leistungfähigkeit der Systeme betrachtet, sowohl pro Thread als auch insgesamt, ist der Vergleich nicht fair. Beides ist beim Ryzen-System unbestritten höher.
Und diesen Anspruch sollte dieser Vergleich auch nicht haben, das einzige was er zeigen soll ist wie diese Systeme bei vergleichbarer real abgefragter Leistung verhalten und gleichzeitig etwas mit realem Praxisbezug zeigen.

Und damit eben auch, dass die Welt nicht nur schwarz und weiß im Bezug auf die Energieeffizienz ist, sondern dass es auch sehr viele Stufen dazwischen gibt, und nicht in allen Stufen ist AMD überlegen, in manchen sogar sehr deutlich unterlegen (abgesehen davon dass, wenn einem Effizienz so wichtig ist eh kein Weg an Apple vorbei und sowohl AMD als auch Intel regelrecht vorgeführt werden).

Und das sieht man eben wenn man den realen Verbrauch beobachtet und nicht nur die rein theoretischen Maximallasten und 0-Lasten welche die meisten Tests zeigen, was sie zwecks Vergleichbarkeit auch müssen, weil einen "typischen Arbeitsalltag" kann man eben schwer reproduzieren, was man für einen fairen Vergleich aber tun müsste.

PS: Aber ja speziell die 5000 sind sehr agrressiv eingstellt. Bei Games hab ich folgenden beobachtet.

Ein Spiel läuft unlimitiert mit 100FPS ... ein 10850 und der 5800x laufen beide am Hersteller TPD mir vergleichbaren FPS...
Limitiert man nun auf 60fps Sync geht der Intel durchaus 20-50W runter, wärend der 5800x weiter nahe am TPD bleibt obwohl er nur noch Teillast hat.


Genau so ist es. AMD ist hier quasi binär, da gibt es im Prinzip nur vollsprint und still sitzen, während Intel falls notwendig auch locker vor sich hin traben kann.

Mein Verdacht ist ja, dass AMDs CPB 2.0 trotz theoretisch noch schnellerer Reaktionszeiten einfach in der Realität nicht mit Intels Speedshift mithalten kann, und AMD deshalb den extrem aggressiven Weg wählt, um nicht bei den ganzen Webtests, die ja enorm von Speedshift profitieren, hinten zu liegen.
Es kommt eben nicht nur auf die Reaktionszeit sondern auch wie "intelligent" man diese einsetzt.