PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 16./17. Juli 2022


Leonidas
2022-07-18, 11:05:14
Link zur News:
https://www.3dcenter.org/news/news-des-1617-juli-2022

GerryB
2022-07-18, 11:35:33
Da wird dann wohl ein 13600k für Gaming reichen.

https://www.techpowerup.com/296932/intel-core-i5-13600k-ups-the-e-core-count-to-8-tested-in-cpu-z-bench

btw.
Klappt das eigentlich inzwischen besser@W10 mit den E-Cores?
oder
Muss man dann zwingend auf W11 wechseln?

Bei so ner kleinen CPU sind dann auch ca.15W mehr ggü. 12600k noch easy zu kühlen und spielen praktisch keine Rolle.

Lowkey
2022-07-18, 12:05:55
Die Profis beim DDR5 OC schalten die E-Kerne ab, weil deren Existenz die DDR5 Leistung schmälert.

Ein Vergleich von 12700k und 13700k wäre für Raptor Lake aussagekräftiger, da Intel wie nie zuvor die CPUs selektiert. Auch wäre ein 12900ks vs 13900k ein besserer Vergleich.

Windows 11 dürfte je nach Spiel mal so und mal so laufen. Für Gaming kann man auf E-Kerne verzichten, aber ein 12700k(f) hat nicht die Qualität eines 12900(k)f.

https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Windows-10-vs-Windows-11-Gaming-Performance-2022-1394575/2/

Das AMD Zen3 Problem unter W11 habe ich weiters nicht verfolgt.

Gast
2022-07-18, 12:48:53
Die Min FPS sind schon krass, da gibt Intel gut Gas. Der Verbrauch ist halt dann die Kehrseite, aber mal schauen, wie das dann bei AMD wird.
Ich finde den Kampf Raphael gegen Raptor wirklich gut, da ist für jeden was dabei.

Der_Korken
2022-07-18, 13:25:30
Mich würde interessieren, wo Intel die +26% bei den min fps hernehmen will. Es dürfte kein Szenario geben, wo der Takt gegenüber Alder Lake um 26% steigt - sofern man nicht den 12900K mit 125W und den 13900K mit 250W gemessen hat. Die zusätzlichen E-Cores bringen in Spielen null. Selbst die jetzigen 8 E-Cores bringen quasi nichts, weil die allermeisten Spiele nicht über 8 große Cores hinaus skalieren. Es bleibe einzig und allein der größere L2-Cache. Möglich, aber gemäß der Regel des abnehmenden Ertrags hätten wir bereits beim Schritt von 512kB -> 1,25MB einen mindestens genauso massiven Sprung sehen müssen.

Gast
2022-07-18, 13:26:15
Bitte dann bei CPU-Tests ausführlich bei gleichem Takt messen (Raptor Lake auf Alderlake takten lassen). Aber nicht nur das überteuerte i9 Modell.

Bei solchen Stromverbräuchen wird es immer wichtiger, denn Stromverbrauch selbst zu bestimmen. Da ist es aber sehr wichtig zu wissen, wie viel Perfomance genau drinn liegt mit gleich viel Takt.

Gast
2022-07-18, 13:43:00
Da ist es aber sehr wichtig zu wissen, wie viel Perfomance genau drinn liegt mit gleich viel Takt.

Wen interessiert die Performance pro Takt.
Die Performance bei gleichen Powerlimits ist interessant, welcher Takt sich daraus ergibt ist doch vollkommen nebensächlich.

Lehdro
2022-07-18, 14:53:37
Mal die minimum FPS ausgeklammert, da ich nicht weiß wie diese zu deuten sind (0,1%? 1% lows? oder doch tatsächliche minimum FPS?):

Intel schafft 4,x% mehr Leistung mit 19% Strom. Nochmal ineffizienter als der 12900K je war - wow. AMD könnte demzufolge einfach Däumchen drehen, der 5800X3D scheint ja als Konkurrenz immer noch zu reichen. Wobei der WQHD Wert deutlich zeigt, dass die Benchmarks nichts wert sind: FHD skaliert also schlechter als WQHD...ok.

Gast
2022-07-18, 15:09:14
Mal die minimum FPS ausgeklammert, da ich nicht weiß wie diese zu deuten sind (0,1%? 1% lows? oder doch tatsächliche minimum FPS?):

Intel schafft 4,x% mehr Leistung mit 19% Strom. Nochmal ineffizienter als der 12900K je war - wow. AMD könnte demzufolge einfach Däumchen drehen, der 5800X3D scheint ja als Konkurrenz immer noch zu reichen. Wobei der WQHD Wert deutlich zeigt, dass die Benchmarks nichts wert sind: FHD skaliert also schlechter als WQHD...ok.

Ich klammere einfach das Hauptargument aus, weil es mir nicht passt und schon gibt es keine großen Argumente mehr! Was für eine schlaue Art und Weise.

FHD skaliert schlechter als WQHD, wenn man wie du die Hälfte aus ideologischen Gründen ausklammert um sich selbst ein Argument zu basteln.

BlacKi
2022-07-18, 15:28:20
min fps sind nicht in allen spielen aussagekräftig. die schwanken je nach testrun mit der selben hardware schon sehr extrem. von daher sieht das eher enttäuschend aus. da aber auch die grafikkarte unbekannt ist, könnte auch fhd die avg fps beeinflussen.


und natürlich ist das kein finales bios.

greeny
2022-07-18, 16:16:45
EU: Sehenden Auges in die Mega-Krise []
[Telepolis]

Gast
2022-07-18, 17:17:00
min fps sind nicht in allen spielen aussagekräftig. die schwanken je nach testrun mit der selben hardware schon sehr extrem. von daher sieht das eher enttäuschend aus. da aber auch die grafikkarte unbekannt ist, könnte auch fhd die avg fps beeinflussen.


und natürlich ist das kein finales bios.

Steht doch da 3090Ti. Müsstest nur auf den Hyperlink klicken schauen.

Meridian12
2022-07-18, 20:57:15
Mache ich einen Denkfehler, oder wäre der 13900 dann doch eine ziemliche Entäuschung?

Weil wenn man den 12900 dann ebenfalls mit 102W verbrauch laufen lassen würde (also dann höherer Takt), dann wäre der doch sogar schneller als der 13900,oder?

Leonidas
2022-07-19, 03:59:52
Die Frage ist, ob man den 12900K überhaupt unter Spielen auf so einen Stromverbrauch bekommt. Das bißchen Mehrtakt dürfte es kaum machen.



[Telepolis]

Gefixt. Danke für den Hinweis.

Gast
2022-07-19, 07:52:44
Und schon rast der nächste Hypetrain gegen die Wand. Tic Tic Tic, Intel macht weiter wie bisher. Höherer Preis, höherer Verbrauch.

Schön zu sehen, wenn der Prozessor unter 1080p was leisten muss wie der Verbrauch ansteigt. Soll wohl die Heilkur für die ganze Branche sein, um Leistung freizusetzen. Ineffizienz komme was da wolle. Schön billig. Vorbei die Zeiten als Effizienz noch die Entwicklung prägte, es wird auf das Silizium eingeprügelt als gäbe es kein Morgen mehr.

Das Geschreie nach mehr und mehr Leistung, von einigen wenigen denen der Verbrauch egal ist wird prompt beantwortet. Keine Ahnung wo das hinführen soll. CPUs mit 300w und GPUs mit bis zu 800w in Spielerechnern, krank. Alles in einer Zeit wo die Ressourcen für die Energieerzeugung 1qnichf erst seit heute oder diesem Jahr auf längere Sicht immer kostspieliger werden. Eine komplette Fehlentwicklung der Industrie um vor allem das Preisniveau weiter nach oben anpassen zu können, ohne dafür gross was leisten zu müssen.

Einfach liegen lassen und eben nicht kaufen, dann merken sie es schon von allein.

Leonidas
2022-07-19, 08:10:04
Einfach liegen lassen und eben nicht kaufen, dann merken sie es schon von allein.

Korrekt. Wer diese Entwicklung nicht mag, der sucht halt in TDP-limitierten Bereichen oder setzt selber UV und niedriger Power-Limits an.

Gast
2022-07-19, 10:20:42
Vorbei die Zeiten als Effizienz noch die Entwicklung prägte, es wird auf das Silizium eingeprügelt als gäbe es kein Morgen mehr.



Diese immer beschworene glorreiche Zeit gab es nie.

Höhere Performance wurde immer zum Teil durch Mehrverbrauch erkauft. Ein 286er hatte noch einen einstelligen Verbrauch.

Und seit das Dennard Scaling ca. im Bereich der 65-45nm Prozesse quasi komplett zusammengebrochen ist geht es beim Verbrauch immer stärker nach oben.

Die Effizienzsteigerungen kamen hauptsächlich daher, dass kleinere Prozesse immer geringe Betriebsspannung benötigten. Die letzte große Verringerung gab es allerdings mit der Einführung der FINFET-Transistoren, seit dem dümpeln wir grob auf der selben Spannung herum. Und mehr Transistoren bei gleicher Betriebsspannung resultiert logischerweise in höherem Verbrauch.

Gast
2022-07-19, 12:19:47
Diese immer beschworene glorreiche Zeit gab es nie.

Höhere Performance wurde immer zum Teil durch Mehrverbrauch erkauft. Ein 286er hatte noch einen einstelligen Verbrauch.

Und seit das Dennard Scaling ca. im Bereich der 65-45nm Prozesse quasi komplett zusammengebrochen ist geht es beim Verbrauch immer stärker nach oben.

Die Effizienzsteigerungen kamen hauptsächlich daher, dass kleinere Prozesse immer geringe Betriebsspannung benötigten. Die letzte große Verringerung gab es allerdings mit der Einführung der FINFET-Transistoren, seit dem dümpeln wir grob auf der selben Spannung herum. Und mehr Transistoren bei gleicher Betriebsspannung resultiert logischerweise in höherem Verbrauch.
Ich lese das eher als Art sarkastische Anspielung von ihm. Die Dies wachsen immer weiter und mit der Anzahl der ALUs steigt auch die Perfomance, aber sie ist proportional zu dem Einheitenzuwachs und damit steigt auch die TDP. Wo bitte wird hier etwas weiterentwickelt? Die Ausführungseinheiten sind Stand 2005-2010! Es werden einfach immer mehr Einheiten dazu gepackt, nichts weiter. Gleiches im Bereich der GPUs.

Das wirkliche Potential, auch für eine vertretbare Effizienz, liegt also im ausführbaren Code und nicht in der Hardware, da sind die Hersteller längst am Limit angekommen. Hat Koduri vor Jahren schon gesagt und wurde dafür ausgelacht. Etwas einfach nur künstlich aufzublasen und als Neuerung zu verkaufen, macht es nicht besser.

Gast
2022-07-19, 12:48:47
Die Ausführungseinheiten sind Stand 2005-2010! Es werden einfach immer mehr Einheiten dazu gepackt, nichts weiter. Gleiches im Bereich der GPUs.


Nicht wirklich, die Ausführungseinheiten steigen zwischen den meisten x86 Generationen kaum oder gar nicht.

Der einzige der mit extrem vielen Ausführungseinheiten ausschert ist Apple, und siehe da sie sind damit enorm Effizient.

Mehr Ausführungseinheiten scheinen also nicht so schlecht zu sein, zumindest wenn man sie auch auslasten kann.



Das wirkliche Potential, auch für eine vertretbare Effizienz, liegt also im ausführbaren Code und nicht in der Hardware, da sind die Hersteller längst am Limit angekommen.


Das ist nicht finanzierbar. Effizienzsteigerungen beim Code sind extrem Zeitaufwändig, und da Arbeitszeit mitunter das teuerste ist kann sich das niemand, zumindest nicht für "Allerweltssoftware" leisten.

Es ist auch insgesamt extrem ineffizent, da dies eine Anpassung jeglicher Software erfordert, während die schnellere und effizientere Hardware nur 1x entwickelt werden muss.

Zudem führen Anpassungen in Software die zur effizienteren Ausführung auf der Hardware führen in aller Regel zu fehleranfälligerer, langfristig unwartbarer Software und meistens auch zur Verringerung der Sicherheit.

Energieeffizienz ist das eine, aber wenn man dafür massiv Effizienz bei der Softwareerstellung einbüßt hat man nichts gewonnen sondern jede Menge verloren.


Hat Koduri vor Jahren schon gesagt und wurde dafür ausgelacht. Etwas einfach nur künstlich aufzublasen und als Neuerung zu verkaufen, macht es nicht besser.[/QUOTE]

Lehdro
2022-07-19, 14:39:23
Ich klammere einfach das Hauptargument aus, weil es mir nicht passt und schon gibt es keine großen Argumente mehr! Was für eine schlaue Art und Weise.
Erkläre mir was da mit "minimum fps" genau gemeint und gemessen wurde. Kannst du nicht? Dann ist es auch kein Argument.

Wenn es hingegen wirklich "minimum fps" sein sollten, so sind die eh wertlos da diese schon von Run zu Run massiv variieren können. Man benutzt aus gutem Grund 1% lows / 99% percentiles.

FHD skaliert schlechter als WQHD, wenn man wie du die Hälfte aus ideologischen Gründen ausklammert um sich selbst ein Argument zu basteln.
Bitte führe genau aus warum FHD schlechter als WQHD skalieren sollte. Das widerspricht jeglicher Logik beim CPU testen. FHD bedeutet weniger GPU-limitierung - mehr Möglichkeiten in denen sich die CPU voll entfalten kann.

Gast
2022-07-19, 15:01:45
Bitte führe genau aus warum FHD schlechter als WQHD skalieren sollte. Das widerspricht jeglicher Logik beim CPU testen. FHD bedeutet weniger GPU-limitierung - mehr Möglichkeiten in denen sich die CPU voll entfalten kann.

Es gibt durchaus Spiele die abhängig von der Auflösung mehr rendern.
Sofern die GPU noch nicht am Limit ist könnte es daher durchaus Situationen geben, in denen die CPU-Skalierung mit 1440p besser ist.

StefAlb
2022-07-21, 12:06:16
Kurze Verständnisfrage, der K 13900 hat für 3,2% mehr Fps 26% mehr Strom benötigt in 4k?

Leonidas
2022-07-21, 13:25:20
Sieht ganz danach aus. Der größte Teil dürfte sinnvoll verpulvert sein, aber natürlich ist da auch die Steigerung der Min-Framerate, die wenigstens zweistellig ist. Effektiv ist das trotzdem nicht.

Lehdro
2022-07-21, 15:07:08
Es gibt durchaus Spiele die abhängig von der Auflösung mehr rendern.
Sofern die GPU noch nicht am Limit ist könnte es daher durchaus Situationen geben, in denen die CPU-Skalierung mit 1440p besser ist.
Hat man beim 5800X3D so nicht gesehen, ebenso bei keiner anderen CPU jemals. Muss also ein Spezialfall sein der nur bei RPL auftritt. Wieder etwas gelernt :cool:

Gast
2022-07-21, 15:12:54
Hat man beim 5800X3D so nicht gesehen, ebenso bei keiner anderen CPU jemals. Muss also ein Spezialfall sein der nur bei RPL auftritt. Wieder etwas gelernt :cool:

Und Ruckler und minimum Frames tauchen mal auf und manchmal nicht, kann man nichts machen, ist von Run zu Run zufällig und nicht nachvollziehbar ... Wieder etwas gelernt :cool:

Vielleicht mal das eigene System saubermachen, wenn dein System so unrund läuft? Weil ein normaler Rechner hat diese Varianz NICHT!

MiamiNice
2022-07-21, 15:23:45
Sieht ganz danach aus. Der größte Teil dürfte sinnvoll verpulvert sein, aber natürlich ist da auch die Steigerung der Min-Framerate, die wenigstens zweistellig ist. Effektiv ist das trotzdem nicht.

Da die min FPS der wesentliche Wert beim Gaming sind, kann ich Deine Aussage nicht nachvollziehen. Es sieht so aus als würde Raptor genau das machen was er soll. Der 13900K ist quasi schon in der Kiste.

Lehdro
2022-07-21, 18:52:32
Und Ruckler und minimum Frames tauchen mal auf und manchmal nicht, kann man nichts machen, ist von Run zu Run zufällig und nicht nachvollziehbar ... Wieder etwas gelernt :cool:

Vielleicht mal das eigene System saubermachen, wenn dein System so unrund läuft? Weil ein normaler Rechner hat diese Varianz NICHT!
Ahh, das erklärt warum 1080p beim 13900k durch die Bank schlechter skaliert als 1440p. Was man nicht alles lernt. :freak:

Ansonsten einfach mal lesen was ich schreibe und den Schaum vom Mund wischen. "Minimum FPS" sind unzuverlässig, kannst du jeden Reviewer fragen. Die benutzen aus guten Grund 99%/1% low oder ähnliche statistische Mittel und definitiv keine Absolutwerte -> "minimum FPS". Du kannst massive Abweichungen zwischen den Runs haben, das geht schon beim Shadercompiling los und endet bei allen möglichen Prozessen die dazwischenfunken können. Vorallem bei einem Test dessen Reviewer absolut niemand kennt und einschätzen kann. Du tust so als habe die Heiligkeit Igor höchstpersönlich das Ding vermessen und die Werte sind unfehlbar. Plottwist: Sind sie nicht.

Leonidas
2022-07-22, 03:30:38
Da die min FPS der wesentliche Wert beim Gaming sind, kann ich Deine Aussage nicht nachvollziehen. Es sieht so aus als würde Raptor genau das machen was er soll. Der 13900K ist quasi schon in der Kiste.

Ich wollte nur darauf hinaus, das die Energiesteigerung unter höheren Auflösungen größer ist als der Zugewinn an Min-fps. Und jener könnte in der Praxis noch kleiner sein, wenn man rein die Perzentile betrachtet.

Damit: Nicht besonders effizienter Energie-Einsatz. Aber womöglich einfach notwendig, um dies zu erreichen. Gaming-Performance ist immer hart erkämpft.