PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 15. März 2022


Leonidas
2022-03-16, 09:12:31
Link zur News:
https://www.3dcenter.org/news/news-des-15-maerz-2022

Gast
2022-03-16, 11:46:48
Aktuell sieht es so aus, als wäre Rembrandt unter 45W effektiver als Alder Lake. Aber aktuell kennen wir ja auch nur AlderLake H. Wie das mit AlderLake P oder U aussieht, muss man abwarten. Da speckt Intel ja einige Sachen etwas ab, das kann durchaus hilfreich für die Effizienz sein.
Aktuell wirkt es aber durchaus so, als wäre AlderLake nur bei ausreichend TDP deutlich vor Rembrandt, aber ob das auch bei den reduzierten Modellen noch der Fall ist, sieht man erst mit deren Test. Kann durchaus sein, dass hier das Hybrid Konzept noch besser zum Tragen kommt.

Ahnungsloser Passant
2022-03-16, 11:55:54
Schöner CPU Vergleich. Das findet man im Mobile Bereich leider viel zu selten. Man sollte auch noch die aus dem Stromverbrauch resultierenden Folgen für Akkulaufzeit und Geräuschkulisse nicht vergessen. Gerade im Arbeitsumfeld sind das wichtige Punkte.

Gast
2022-03-16, 12:13:15
Schade dass nicht die P und U Modelle von Intel auch dabei waren. Eine Frage zu klären wäre, ob die P und U Modelle nicht besser gebinnt sind und daher dann auch bei unter 45w besser skalieren. Bzw auch wie genau sich das 2+8 die schlägt. Da sollte die Effizienz deutlich höher liegen, nur die mt Performance wird wahrscheinlich aber nicht an die 6/8 core amd mit 15w kommen, wobei sich auch dort die Frage stellt wie viel bei AMD mit festgesetztem 15w tdp zu erreichen ist.

Gast Ritis
2022-03-16, 12:50:44
Der Punkt mit dem Sweetspot ist ein sehr guter.

Die Tests auf CB sind auch gut, das Fazit und darum herum Geschreibsel leider nur meh. Wer Geekbench für einen Arch-Vergleich hernimmt, dem ist technish auch nicht mehr zu helfen.

Man muss in den übrigen Benchmarks auf die Single-Core Werte im Verhältnis zur Wattangabe achten. Da sieht man, dass der Rembrandt in der gleichen Liga wie Apples M1 bei 35W spielt obwohl in schlechterer Struktur gebaut. Für einen besseren Vergleich fehlen mehr Messungen. Der AMD ist aber bei 25W im Single Core natürlich mit der gleichen Leistung unterwegs, beim M1 weiss man es nicht wie weit der runter kann.

Bei Intel sieht man die im Single Core Vergleich mit 35W über Apps 8% vorne wobei nicht klar ist ob die das bei 25W halten könnten. Auch muss man unbedingt auf Cinebench 15 vs Cinebench 20 achten, letzteres zeigt den Intel-Vorteil mit AVX auf, was bei den AMDs die Ergebnisse drückt und die App-Leistung des Intels je nach eigener Anwendung relativiert.

Dann schaut man auf die sehr gute Multi-Core Skalierung beim AMD bis 45W die dann offensichtlich in den höheren Werten stark nachlässt. Der Alder Lake legt da etwas besser zu, vor allem höher zu.

Gut möglich, dass der Uncore und iGPU von Intel da schlechter ist und das runter zieht, weil beispielsweise die Fertigung doch nicht auf ganz Augenhöhe mit TSMCs 6nm liegt.
Ohne AVX-Anwendung auf Laptop würde ich jetzt eher zum Rembrandt tendieren.

Gast
2022-03-16, 12:53:27
die Schwierigkeit der weiteren Bitcoin-Erzeugung eine expontionelle Kurve darstellt, die Zeiten der wirklichen Energieverschwendung noch gar nicht angebrochen sind.

Das ist ein logischer Trugschluss. Die "mining difficulty" kompensiert nur die (durch Moore's Law etc.) steigende, oder manchmal auch (durch Preiseinbrüche) fallende globale Hashrate, um die Bitcoin-Neuerzeugung zeitlich konstant zu halten.

Der Stromverbrauch fürs Mining steigt nur, wenn es wirtschaftlich ist, d.h. wenn der Bitcoinpreis steigt oder der Strompreis sinkt.

Die Vorhersage, dass der Stromverbrauch fürs Mining noch exponentiell steigen wird, ist also gleichbedeutend mit der Vorhersage, dass der Bitcoinpreis exponentiell steigen wird (sogar unter der unrealistischen Annahme, dass der Strompreis gleich bleibt). Und ich vermute mal, dass das nicht deine Annahme war.

Nicht der eine Gast
2022-03-16, 13:03:45
Alles, was oberstes Performance-Niveau im Mobile-Segment ist, kann Intel wohl nicht genommen werden – auch nicht mittels hochgezogener TDPs auf AMD-Seite.

Der Satz ergibt so keinen Sinn. Das nicht oder Intel müsste ausgetauscht werden.

Lehdro
2022-03-16, 14:24:18
Zu dem Kryptoverbot seitens der EU: Der Entwurf sah durchaus eine Übergangszeit von weit mehr als 2 Jahren vor (ab irgendwann im Jahre 2025). Das ist kein Kriterium gewesen, an dem es scheiterte. Eher der Fakt dass das ein Holzhammer war der grundsätzlich PoW killen sollte, egal in welcher Form und Ausprägung. Technologieverbot halt.

Wex
2022-03-16, 14:53:10
die entwicklung der schwierigkeit hat recht wenig korrelation mit dem energieverbrauch, weiterhin sollte sich wirklich niemand für den energieverbrauch eines miners interessieren wenn er an irgendeinem geothermie werk mitten in der pampa von island hängt.

Leonidas
2022-03-16, 15:21:06
Die Vorhersage, dass der Stromverbrauch fürs Mining noch exponentiell steigen wird, ist also gleichbedeutend mit der Vorhersage, dass der Bitcoinpreis exponentiell steigen wird (sogar unter der unrealistischen Annahme, dass der Strompreis gleich bleibt). Und ich vermute mal, dass das nicht deine Annahme war.

Nein, natürlich nicht. Eventuell liege ich ja falsch. Aber normalerweise muss es ja immer schwieriger werden, Bitcoins zu erzeugen. Das sollte bedeuten, dass die dafür aufgewendete Rechenleistung steigt - bei ansonsten unveränderten anderen Bedingungen. Trugschluß?

Gast
2022-03-16, 16:05:57
Ohne AVX-Anwendung auf Laptop würde ich jetzt eher zum Rembrandt tendieren.
Warum ohne AVX? Das ist doch bei AMD angeblich effizienter als bei Intel und AVX-512 kann AlderLake auch nicht.

Gast
2022-03-16, 16:10:24
Schade dass nicht die P und U Modelle von Intel auch dabei waren. Eine Frage zu klären wäre, ob die P und U Modelle nicht besser gebinnt sind und daher dann auch bei unter 45w besser skalieren. Bzw auch wie genau sich das 2+8 die schlägt. Da sollte die Effizienz deutlich höher liegen, nur die mt Performance wird wahrscheinlich aber nicht an die 6/8 core amd mit 15w kommen, wobei sich auch dort die Frage stellt wie viel bei AMD mit festgesetztem 15w tdp zu erreichen ist.
Ja, hatte ich auch schon geschrieben. Nur das mit dem Binning wird soweit mir bekannt nichts, weil die nicht den großen Chip nutzen, sondern sowieso kleinere mit weniger P-Kernen. Da wird dann Intel auch nichts binnen können, zumindest nichts von den großen Kernen. Interessant wäre für mich, wie viel z.B. das Reduzieren von PCIe Gen.5 auf PCIe Gen.4 und PCIe Gen.3 bringt, was Intel ja auch plant.

Mr.Smith
2022-03-16, 16:19:15
AMD ist einen langen Weg gekommen, von Schrott und Meilenweit von Intel im mobilen Bereich weg, zu sehr annehmbar mit Ryzen 6000 Mobile.

Bin schon sehr gespannt was TSMC N5 sowie IP und Speicherverbesserungen da noch bringen werden.

Lehdro
2022-03-16, 16:49:35
AMD ist einen langen Weg gekommen, von Schrott und Meilenweit von Intel im mobilen Bereich weg, zu sehr annehmbar mit Ryzen 6000 Mobile.

Bin schon sehr gespannt was TSMC N5 sowie IP und Speicherverbesserungen da noch bringen werden.
Schon vergessen das AMD im Mobile die Krone hatte bevor ADL kam? ;)

Gast
2022-03-16, 17:33:23
Da dürfte der Thread-Daddy wohl nicht wirklich mit dem Powerlimit skalieren.

Offensichtlich ändert sich hier an der Prio P-Kerne dann E-Kerne dann 2. Thread der P-Kerne nichts.

Das ist aber bei niedrigem Powerlimit kontraproduktiv, da damit die P-Kerne die das ganze Powerlimit auffressen, und damit sowohl P-Kerne als auch E-Kerne niedrig takten müssen um das Powerlimit einzuhalten.

Sinnvoll wäre bei niedrigem Powerlimit die E-Kerne nahe maximum laufen zu lassen und die P-Kerne mit dem Rest des Powerbudgets zu versorgen falls noch was da ist.

Mit den 2 + 8 CPUs die für Powerlimits <35W gedacht sind sollte die Effizienz bei Intel in dem Bereich deutlich ansteigen.

Gast
2022-03-16, 17:55:38
also mit kurz 60W und dann 35W ist der Core i7-12700H 1% schneller als dauerhaft 45W?

Gast
2022-03-17, 00:57:29
Nein, natürlich nicht. Eventuell liege ich ja falsch. Aber normalerweise muss es ja immer schwieriger werden, Bitcoins zu erzeugen. Das sollte bedeuten, dass die dafür aufgewendete Rechenleistung steigt - bei ansonsten unveränderten anderen Bedingungen. Trugschluß?
Ja, Trugschluss.

Vielleicht hilft es, sich alles Bitcoin-Mining weltweit zusammen als einen großen Supercomputer vorzustellen. Hinein geht eine schwankende Hashrate, herauskommen soll als Belohnung eine zeitlich vorherbestimmte (https://en.bitcoin.it/wiki/Controlled_supply) Gesamtmenge an Bitcoin alle 10 Minuten. Die Difficulty hat dabei eine rein regulierende Funktion, die immer dem "Input" entgegensteuert, damit der "Output" gleich bleibt.
Hashrate und Difficulty kann man in diesem Kontext also einfach als eine "Black Box" zusammenfassen.

Wir können also dieses simple Modell benutzen, um den globalen Stromverbrauch zu schätzen:

$_in -> [black box] -> $_out

mit:
$_in = Gesamt-Stromverbrauch [S] * durchschnittlicher Strompreis [SP]
$_out = fixe Bitcoin-Menge [B] * Bitcoin-Preis [BP] (in Wirklichkeit kommen noch Transaktionsgebühren dazu, aber das vernachlässige ich hier mal)

Also:
S * SP = B * BP

Oder umgeformt:
S = (B * BP) / SP

Oder:
S / BP = B / SP

Aktuell beträgt der Bitcoin-Reward 6,25 BTC pro Block, also 328.500 BTC pro Jahr. Nimmt man zusätzlich einen (willkürlichen) Strompreis an, ich sage jetzt mal unrealistisch 0,10 $/kWh, kann man damit einen "global rentablen" Gesamt-Stromverbrauch pro Jahr berechnen:

S / BP = (328500 * BP) / (0,10$/kWh) = ~3,3 GWh pro $ (Bitcoin-Preis)

Mit dem aktuellen Preis von 40.000$ kommt man mit dieser (sehr groben) Schätzung auf 132 TWh pro Jahr, was sogar recht nah an der Realität ist.

Leonidas
2022-03-17, 05:49:03
also mit kurz 60W und dann 35W ist der Core i7-12700H 1% schneller als dauerhaft 45W?

In Tests, wo nur ein Durchlauf gemessen wird (sprich keine Dauerlasten): Ja.

Gast
2022-03-17, 07:24:58
Ja, hatte ich auch schon geschrieben. Nur das mit dem Binning wird soweit mir bekannt nichts, weil die nicht den großen Chip nutzen, sondern sowieso kleinere mit weniger P-Kernen. Da wird dann Intel auch nichts binnen können, zumindest nichts von den großen Kernen. Interessant wäre für mich, wie viel z.B. das Reduzieren von PCIe Gen.5 auf PCIe Gen.4 und PCIe Gen.3 bringt, was Intel ja auch plant.

Der beste alder lake p hat 6+8

G3cko
2022-03-17, 08:01:22
Ich vermute Nvidia und AMD gehen mit dem Verbrauch an die Kotzgrenze um Intel den Einstieg so schwer wie möglich, vielleicht sogar unmöglich zu machen. Das Duopol hat es sich gemütlich gemacht. Da stört nur ein Dritter.

Wenn der Verbrauch am Maximum ist, dann wird eine ineffizientere Architektur zwangsläufig langsamer sein. Option Brechstange entfällt für Intel um mit der Performance ihrer wahrscheinlich ineffizienteren Architektur gleichzuziehen. Sie müssen ihrer Architektur auch ausreizen und man wird sehen wo sie rauskommen. Im Duopol konnte immer derjenige mit der effizienteren Architektur im Sweet Spot arbeiten. Und der andere musste sehen wo er sich ins Marktgefüge einordnet.

Das erinnert mich ein wenig an die Zeit 280x vs 4870 wo es massiv um Marktanteile ging und man die Karten praktisch verschenkt hatte. Die Architekturen waren praktisch auch an der Kotzgrenze.

Gastone
2022-03-17, 09:33:54
Gut möglich, dass der Uncore und iGPU von Intel da schlechter ist und das runter zieht, weil beispielsweise die Fertigung doch nicht auf ganz Augenhöhe mit TSMCs 6nm liegt.


hier ist was AMD dazu sagt:
https://youtu.be/qKQAY0k8f1E?t=1510

also mehr oder weniger das gleiche.

Gast
2022-03-17, 09:54:41
Der beste alder lake p hat 6+8
Ok, da geht dann Binning. Aber bei den kleineren Cores muss Intel halt verschiedene Versionen bringen, um entsprechend binnen zu können.

Gast
2022-03-17, 10:07:05
Ich vermute Nvidia und AMD gehen mit dem Verbrauch an die Kotzgrenze um Intel den Einstieg so schwer wie möglich, vielleicht sogar unmöglich zu machen. Das Duopol hat es sich gemütlich gemacht. Da stört nur ein Dritter.

Wenn der Verbrauch am Maximum ist, dann wird eine ineffizientere Architektur zwangsläufig langsamer sein. Option Brechstange entfällt für Intel um mit der Performance ihrer wahrscheinlich ineffizienteren Architektur gleichzuziehen. Sie müssen ihrer Architektur auch ausreizen und man wird sehen wo sie rauskommen. Im Duopol konnte immer derjenige mit der effizienteren Architektur im Sweet Spot arbeiten. Und der andere musste sehen wo er sich ins Marktgefüge einordnet.
Nein, sehe ich nicht so: Je mehr AMD und NVidia ihre Karten Richtung Kotzgrenze bringen, je mehr Effizienz geht verloren. Wer sagt denn, dass Intel mit deren Topmodellen mithalten will? Vielleicht reicht denen auch eine Mittelklasse Karte. Und eine an die Kotzgrenze gebrachte Mittelklasse ist halt auch ineffizient und Intel tut sich leichter, mit ihrer Karte die Effizienz zu erreichen. Dafür brauchen sie vielleicht einen größeren Chip, der sie mehr kostet (damit weniger bis kein Gewinn), aber der Einstieg wäre für Intel meiner Meinung nach dann leichter. Denn Geld hat Intel genug. Und mit dem Geld können sie den Rückstand dann auch irgendwann aufholen.
Ein deutlicher Effizienz Rückstand ist hingegen schwieriger. Vega hatte das Thema ja auch, fand nur Abnehmer bei Leuten, die gerne an den Settings gebastelt haben. Da müsste Intel dann auch über den Preis verkaufen, hätte dann aber auch weniger Absatz (weil in erster Linie nur Bastler), das wäre viel schlimmer für Intel.

Rabiata
2022-03-18, 16:24:14
Nein, sehe ich nicht so: Je mehr AMD und NVidia ihre Karten Richtung Kotzgrenze bringen, je mehr Effizienz geht verloren. Wer sagt denn, dass Intel mit deren Topmodellen mithalten will? Vielleicht reicht denen auch eine Mittelklasse Karte. Und eine an die Kotzgrenze gebrachte Mittelklasse ist halt auch ineffizient und Intel tut sich leichter, mit ihrer Karte die Effizienz zu erreichen. Dafür brauchen sie vielleicht einen größeren Chip, der sie mehr kostet (damit weniger bis kein Gewinn), aber der Einstieg wäre für Intel meiner Meinung nach dann leichter. Denn Geld hat Intel genug. Und mit dem Geld können sie den Rückstand dann auch irgendwann aufholen.
In dem Zusammenhang werden auch Multi-Chip Designs interessant. AMD hat vor Jahren mal verglichen (Artikel in englisch) (https://www.techspot.com/news/84207-amd-chiplet-design-affords-massive-cost-cutting-opportunities.html), wie viel Kosteneinsparungen ein Multi-Chip Design bei den CPUs bringt.
Wenn das auch bei den GPUs klappt, könnten sie zum selben Preis wesentlich mehr Transistoren verbauen. Die können dann je nach Taktung entweder schneller oder sparsamer sein als ein Monolith. Oder ein Kompromiß zwischen beidem.

Gast
2022-03-18, 18:35:09
AMD hat vor Jahren mal verglichen wie viel Kosteneinsparungen ein Multi-Chip Design bei den CPUs bringt.Marketing-Gelaber. Sie konnten ja nicht ihre frische Lösung schlecht reden. Zumal die Aussage bis heute so nicht stimmt. Siehe APUs.

Man muss AMD genauso mistrauen, wie Nvidia und Intel.

Leonidas
2022-03-19, 01:54:11
Man muss AMD genauso mistrauen, wie Nvidia und Intel.

Was zu unterstreichen wäre ...

Lehdro
2022-03-19, 12:31:13
Marketing-Gelaber. Sie konnten ja nicht ihre frische Lösung schlecht reden. Zumal die Aussage bis heute so nicht stimmt.
Wer sagt dir das die Kosteneinsparungen bei dir ankommen?
Und sind nicht gewisse Produkte (bzw. Marktauftritte in bestimmten Segmenten) durch Chiplets für AMD erst möglich geworden?

Siehe APUs.

Was haben Chiplets mit APUs zu tun? Oder was willst du damit sagen?

Gast
2022-03-20, 01:28:51
Wer sagt dir das die Kosteneinsparungen bei dir ankommen?
Und sind nicht gewisse Produkte (bzw. Marktauftritte in bestimmten Segmenten) durch Chiplets für AMD erst möglich geworden?

Was haben Chiplets mit APUs zu tun? Oder was willst du damit sagen?
Keine Ahnung, was die 1. Frage soll.
Chiplets sparen. AMD baut APUs monolithisch. Passt nicht.