PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 26. April 2021


Leonidas
2021-04-27, 08:57:18
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-april-2021

Dancisfrake
2021-04-27, 10:06:37
Ich hoffe, dass wir nicht bald vor weiteren Engpässen stehen - so wie es aussieht gibt es eine seit langem anhaltende Dürre im sonst so mit Regenwasser gesegneten Taiwan. Das betrifft offenbar auch TSMC und könnte damit auch Auswirkungen auf die Chipproduktion haben. Siehe dazu den BBC-Artikel "Why the world should pay attention to Taiwan's drought": https://www.bbc.com/news/world-asia-56798308

Platos
2021-04-27, 10:45:22
Bei weniger Fortschritt hält der PC länger :D

Bei Spielen ist die Optik doch sowieso schon ausreichend. Man sollte lieber mal bessere Storys entwickeln etc.

WedgeAntilles
2021-04-27, 12:11:51
Bei weniger Fortschritt hält der PC länger :D

Bei Spielen ist die Optik doch sowieso schon ausreichend. Man sollte lieber mal bessere Storys entwickeln etc.

Ja, eigentlich ist es doch sogar komfortabel.
6 Jahre alte CPU die damals 250 Euro gekostet hat? Egal. Genügt immer noch.

Hätten wir nicht die explodierenden GraKa Preise wäre eigentlich alles gut^^

Gast
2021-04-27, 12:53:12
Bei Spielen ist die Optik doch sowieso schon ausreichend. Man sollte lieber mal bessere Storys entwickeln etc.

Davon sind wir noch meilenweit entfernt. Alleine VR hat die erreichbare Grafikqualität um gut 10 Jahre zurückgeworfen um die erforderliche Performance und Pixelmengen zu erreichen.

Von Raytracing will ich gar nicht erst anfangen, das steht ja gerade erst am Anfang und braucht noch massiv an Mehrperformance.

Vor allem stehen sich die Anforderungen und die reale Hardwareentwicklung momentan diametral zueinander.

Die benötigte Leistung für mehr an Qualität steigt exponentiell an, während sich gleichzeitig sich der Geschwindigkeitsanstieg der Hardware immer mehr abflacht, ganz im Gegensatz zu vor 10-15 Jahren als der Geschwindigkeitsanstieg der Hardware wesentlich schneller war als von der Software eigentlich benötigt wurde.

Problematisch ist vor allem die seit Jahren kaum mehr ansteigende Singlethread-Leistung bei den CPUs, es wird einfach nur einfallslos ein Kern nach dem anderen dazugebaut. Und das betrifft nicht nur Spiele sondern auch sehr viele andere Anwendungen.

Gast
2021-04-27, 12:54:47
Die neueste Fertigung ist ja auch einer der Gründe, warum der Apple M1 so gut ist. 30% Verbrauchsvorteil gegenüber AMD alleine durch die Fertigung ist schon nicht ohne. Spannend wird, ob AMD vielleicht in Zukunft wieder aktuellere Nodes verwenden wird, um nicht zu weit hinter Apple zurück zu hängen. Vielleicht lässt man die kleinen APUs ja in Zukunft in modernerer Fertigung laufen. Für Business Notebooks reichen die ja meist schon und man hätte dadurch kleine Chips (leichter zu fertigen), die dem Kunden mehr Laufzeit und/oder mehr Leistung bieten. Dadurch könnte man Erfahrung für größere Chips sammeln...

Gast
2021-04-27, 13:19:03
Hey, wollte nur kurz Bescheid geben, dass der Link zu „Todesfälle mit Coronavirus in Deutschland nach Alter & Geschlecht“ nicht funktioniert, wenn man keinen Forenaccount hat. Ich dachte, das Forum ist für alle lesbar?

Legendenkiller
2021-04-27, 13:38:01
Davon sind wir noch meilenweit entfernt. Alleine VR hat die erreichbare Grafikqualität um gut 10 Jahre zurückgeworfen um die erforderliche Performance und Pixelmengen zu erreichen.

Von Raytracing will ich gar nicht erst anfangen, das steht ja gerade erst am Anfang und braucht noch massiv an Mehrperformance.

Vor allem stehen sich die Anforderungen und die reale Hardwareentwicklung momentan diametral zueinander.

Die benötigte Leistung für mehr an Qualität steigt exponentiell an, während sich gleichzeitig sich der Geschwindigkeitsanstieg der Hardware immer mehr abflacht, ganz im Gegensatz zu vor 10-15 Jahren als der Geschwindigkeitsanstieg der Hardware wesentlich schneller war als von der Software eigentlich benötigt wurde.

Problematisch ist vor allem die seit Jahren kaum mehr ansteigende Singlethread-Leistung bei den CPUs, es wird einfach nur einfallslos ein Kern nach dem anderen dazugebaut. Und das betrifft nicht nur Spiele sondern auch sehr viele andere Anwendungen.

Die Silizium / Cmos Technik ist halt ausgereitzt und ihre absoluten Limits bereits in Sichtweite.

Eigentlich müsste jetz massiv an neue Techniken geforscht werden.
weiß nicht ... Nano-Kohlenstoff basiert oder rein optisch oder sowas. Quantencomputer sind kein Ersatz für aktuelle Rechentechnik.

VR / RT kommen als Standard wenn >80% der Nutzer die Technik haben, also 300€ GRakas das können.
Das verzögern sich also nun nochmal um mehrere Jahre.

PS: Die wenigen RT Titel die es aktuell gibt sind für mich eher Techdemos mit Bombastgrafik und mäßigen Spielinhalten für die ich kein Geld ausgeben werden und damit auch keine RT Graka brauche. .

Gast
2021-04-27, 14:04:15
Davon sind wir noch meilenweit entfernt. Alleine VR hat die erreichbare Grafikqualität um gut 10 Jahre zurückgeworfen um die erforderliche Performance und Pixelmengen zu erreichen.

Von Raytracing will ich gar nicht erst anfangen, [...]

Ich glaube, Platos meint eher Optik von Spielen insgesamt und nicht bestimmte grafische Features. Die meisten Spiele brauchen kein VR oder Raytracing um "gut genug" auszusehen

Ich persönlich finde auch, dass aktuell die Jagd nach mehr Realismus oder Detailreichtum so langsam abflacht. Die Spiele verwende ich als ein Escape von meiner Alltag. Um es überspitzt zu formulieren: Ich will nach 8 Stunden Büroarbeit nicht in "Landwirtschaftsimulator 2036 VR" 3 Stunden lang Bauer in einem japanischen Reisfeld "spielen" oder in "Beuwerksimulator 2029 VR" ein Bauarbeiter in der Flughafen BER mit perfekter Realismus "spielen".

Vielmehr erwarte von einem Spiel, dass es unrealistisch ist, sowohl von Gameplay her, aus auch Optik. Es soll realitätsfern anfühlen, damit es mir spaß machen kann.

(Vermutlich mag ich deswegen auch aktuelle "GaaS" Spiele nicht, denn fast alle davon sind Online-only und damit irgendwie Competitive. Dein aktuelles Performace wird ständig mit dem von andere Spieler verglichen. Sei es, weil du direkt gegen andere Spieler spielst und ein MMR oder Rank bekommst. Oder, weil es ein In-game Economy gibt und dein Inventur hat einem messbaren Wert direkt in Geldwert hat (unabhängig davon, ob solcher Art von Trading eigentlich erlaubt ist oder nicht). Viele davon sind auch "grindy" damit ein Spieler möglichst lange in einem GaaS seine Zeit verbringt und damit möglichst viel Geld dort ausgibt.

Das alles reizt mich nicht. In einem competitive Umfeld zu grinden fühlt sich wie Arbeit an, dann hätte ich gleich länger im Büro arbeiten können. :D )

Mr.Smith
2021-04-27, 15:03:35
3nm-Chips für den PC wird es somit nicht vor dem Jahr 2024 geben * von TSMC

Gibt ja auch noch Samsung. Wobei die direkt mit GAA 3nm bringen wollen.

Mr.Smith
2021-04-27, 15:10:18
Die Silizium / Cmos Technik ist halt ausgereitzt und ihre absoluten Limits bereits in Sichtweite.

Eigentlich müsste jetz massiv an neue Techniken geforscht werden.
weiß nicht ... Nano-Kohlenstoff basiert oder rein optisch oder sowas. Quantencomputer sind kein Ersatz für aktuelle Rechentechnik.
..

wird doch geforscht, aber die Silizium Technik ist sooo weit fortgeschritten, da besser zu sein ist nicht einfach.

dazu kommt jetzt mit 2-3nm das ganze GAA Geraffel, was nochmal massiv helfen wird.

2024 PC Chips in N3, dann 2026-2027 N2 mit GAA bei TSMC .. und bis im Jahr 2023 sind wir dann ziemlich am Ende angekommen, was Silizium angeht, und dann braucht man was anderes.
Das ist auch wo China ansetzt, an die Technik nach EUV.. Weil den Wissensvorsprung schaffe se nicht schnell genug aufzuholen.

Gast
2021-04-27, 15:44:23
Die neueste Fertigung ist ja auch einer der Gründe, warum der Apple M1 so gut ist. 30% Verbrauchsvorteil gegenüber AMD alleine durch die Fertigung ist schon nicht ohne.

Bei einem Effizienzvorteil in der Richtung 5x-10x sind die potentiellen 30% die vom Prozess kommen sowas von irrelevant.

Platos
2021-04-27, 16:54:04
Davon sind wir noch meilenweit entfernt. Alleine VR hat die erreichbare Grafikqualität um gut 10 Jahre zurückgeworfen um die erforderliche Performance und Pixelmengen zu erreichen.

Von Raytracing will ich gar nicht erst anfangen, das steht ja gerade erst am Anfang und braucht noch massiv an Mehrperformance.

Vor allem stehen sich die Anforderungen und die reale Hardwareentwicklung momentan diametral zueinander.

Die benötigte Leistung für mehr an Qualität steigt exponentiell an, während sich gleichzeitig sich der Geschwindigkeitsanstieg der Hardware immer mehr abflacht, ganz im Gegensatz zu vor 10-15 Jahren als der Geschwindigkeitsanstieg der Hardware wesentlich schneller war als von der Software eigentlich benötigt wurde.

Problematisch ist vor allem die seit Jahren kaum mehr ansteigende Singlethread-Leistung bei den CPUs, es wird einfach nur einfallslos ein Kern nach dem anderen dazugebaut. Und das betrifft nicht nur Spiele sondern auch sehr viele andere Anwendungen.

Auch wenn die Verkäufe zunehmend sind, ist VR immer noch nur ein Nischenmarkt und auf diesen habe ich mich nicht bezogen.

Und bei RT nimmt die Leistung bisher ja ziemlich gut zu bei nvidia.

Und ich habe ja gesagt, dass die Optik in Spielen eigentlich doch schon ziemlich gut aussieht. Man würde sich besser mal auf den Spieleinhalt kümmern. Von diesem Standpunkt aus interessiert also RT nicht. Vor allem, wenn man bedenkt, dass auf den Konsolen nicht viel RT Power zu finden ist.

VR wäre aber ein guter Einwand, da durch die höhere Framerate und 2 Displays die Anforderungen steigen, aber das ist immer noch nicht standart. Eigentlich ist heutzutage das meiste nicht standart, was nicht bei den Konsolen weite Verbreitung findet.


Hey, wollte nur kurz Bescheid geben, dass der Link zu „Todesfälle mit Coronavirus in Deutschland nach Alter & Geschlecht“ nicht funktioniert, wenn man keinen Forenaccount hat. Ich dachte, das Forum ist für alle lesbar?

Nein, das Politikunterforum ist nicht lesbar ohne Anmeldung. Ist keine Neuheit und wenn ich mir so ansehe, was dort so gepostet wird, ist das auch ganz gut so :freak:

GerryB
2021-04-27, 19:41:06
Net nur der Process wird interessant, sondern auch die Arch., wo AMD sich wohl an Apple orientiert.

https://www.overclock3d.net/news/cpu_mainboard/amd_s_zen_5_strix_point_cpus_will_reportedly_feature_a_big_little_design/1

Leonidas
2021-04-27, 19:43:28
Hey, wollte nur kurz Bescheid geben, dass der Link zu „Todesfälle mit Coronavirus in Deutschland nach Alter & Geschlecht“ nicht funktioniert, wenn man keinen Forenaccount hat. Ich dachte, das Forum ist für alle lesbar?

Hab ich leider nicht dran gedacht. Ist im Politik-Forum, dass kann man von außen nicht einsehen. Sorry.




* von TSMC

Korrekt. Gefixt.

iamthebear
2021-04-27, 20:17:43
Bei weniger Fortschritt hält der PC länger :D

Bei Spielen ist die Optik doch sowieso schon ausreichend. Man sollte lieber mal bessere Storys entwickeln etc.

1.) Also ich sehe da noch einiges an Optimierungsbedarf:
.) Durchgehend 4K/120
.) Raytracing
.) Ein paar kleinere Effekte, die sicher dazu kommen werden
.) Im Mainstrembereich um die 300 Euro

Bis das der Fall ist wird es noch einige Zeit dauern.

2.) Dass die High End Smartphonehersteller immer auf die neueste Fertigungstechnologie setzen hat lediglich den Grund der Verlustleistung. Die Kosten/Transistor sind deutlich höher.
Am Desktopbereich ist das nicht so ein Thema. Auf 5-10% Takt verzichten und schon laufen auch die Chips der Vorgeneration noch erstaunlich kühl und bei Single Core Lasten kann man ja trotzdem problemlos hoch pushen.
Im Notebookbereich ja da wäre mehr Akkulaufzeit nett aber wenn das wirklich wichtig wäre würden einfach größere Akkus verbaut werden. Klar ist es nett wenn das Notebook leicht ist aber sind da ein paar Gramm mehr wirklich so ein Thema? Meine Notebooktasche hat mit dem gesamten Inhalt 11kg. Ob das jetzt 11kg oder 10.8kg sind ist doch ziemlich egal.

Platos
2021-04-28, 01:57:54
Ich sage ja nicht, dass die Optik perfekt ist. Ich meine ja nur, dass wir mittlerweile auf nem recht hohen Level sind und weniger achneller Fortachritt m.M.n nicht das wichtigste ist. Wie gesagt, eher mal bessere Spielinhalte produzieren.

Aber klar, kommt drauf an, aus welcher (Preis-)Perspektive man das sieht. Mit ner RTX XX50 wirds natürlich noch dauern, bis man das selbe Level einer z.B RTX 3070 erreicht.

Platos
2021-04-28, 02:05:29
@News: Wie rechnet man eig. die mögliche Mehrleistung aus (bei gleichem Stromverbrauch) mit diesen üblichen Angaben von x% weniger Fläche, weniger Stromverbrauch und höherem Takt?

Kann man da einfach bei z.B 30% weniger Stromverbrauch ca 40% mehr Transistoren rauf klatschen (wenn die Packdichte mind. um 40% sinkt)? Also 140% Transistoren* 0.7% Stromverbrauch wäre dann etwa wieder etwa 100% Stromverbrauch. Die Packdichte muss einfach mindestens 40% höher sein, damit die Chipfläche nicht steigt.

Allerdings ist in der Rechnung der Takt kein bisschen drinn.

Gast
2021-04-28, 06:12:44
Net nur der Process wird interessant, sondern auch die Arch., wo AMD sich wohl an Apple orientiert.

https://www.overclock3d.net/news/cpu_mainboard/amd_s_zen_5_strix_point_cpus_will_reportedly_feature_a_big_little_design/1

Die erzählen was von 8 big und 4 small cores in 2024 O_o
Wenn schon jetzt kritisch über alder lake 8+8 thematisiert wird, wie soll es realistisch sein, dass Zen 5 8+4 sein wird? Speziell nachdem man schon 16 ab dem 3950x hat und womöglich Zen 4 noch mehr als 16 cores im consumer Bereich bieten könnte.
Ausser wenn die 8+4 so was wie eine apu für low end bis mid range Desktop oder mid range/high end für laptops wäre.
Der Artikel scheint mir voll von Spekulationen zu sein.

Zossel
2021-04-28, 07:31:07
Ich hoffe, dass wir nicht bald vor weiteren Engpässen stehen - so wie es aussieht gibt es eine seit langem anhaltende Dürre im sonst so mit Regenwasser gesegneten Taiwan. Das betrifft offenbar auch TSMC und könnte damit auch Auswirkungen auf die Chipproduktion haben. Siehe dazu den BBC-Artikel "Why the world should pay attention to Taiwan's drought": https://www.bbc.com/news/world-asia-56798308

Am besten noch ein paar alte Kohlemeiler kaufen und wieder anwerfen um Cryptoscheisse zu minen, dann geht das bald wieder vorbei.

MasterElwood
2021-04-28, 07:55:21
Ich sage ja nicht, dass die Optik perfekt ist. Ich meine ja nur, dass wir mittlerweile auf nem recht hohen Level sind und weniger achneller Fortachritt m.M.n nicht das wichtigste ist. Wie gesagt, eher mal bessere Spielinhalte produzieren.


Warum wird sowas immer und immer wieder aus dem Keller geholt? :facepalm:

Spielinhalte und Grafik(technik) sind VOLLKOMMEN UNABHÄNGIG voneinander und KEIN "entweder-oder"! :freak:

Legendenkiller
2021-04-28, 08:27:45
Naja das Problem ist doch das "gute" Siele-Grafik nicht = technisch das beste was geht ist.

Mir gefällt z.b.das classische Minecaft grafisch besser als GTA5 oder Tombraider.
Deep Rock Galaktic sieht für mich cooler aus als BF5 / CoD.
Cliff Empire war für mich ein schönes spiel mit wunder schöner passender Grafik.

Das genial VR Spiel SUPERHOT läuft auf einer GeForce GTX 650 (1024 MB Ram) und hat imo auch eine coole Grafik.

Ich will in Spielen gar keine fotorealistische Grafik, die hab ich im RL genug. Ich möchte schöne Grafik und die ist nicht direkt von der Graka Power abhängig.

Gast
2021-04-28, 08:35:08
VR wäre aber ein guter Einwand, da durch die höhere Framerate und 2 Displays die Anforderungen steigen, aber das ist immer noch nicht standart. Eigentlich ist heutzutage das meiste nicht standart, was nicht bei den Konsolen weite Verbreitung findet.


Bei der Playstation gibt es VR, wenn auch mit völlig unzureichender Performance (zumindest mit der PS4)

Gast
2021-04-28, 09:36:34
@News: Wie rechnet man eig. die mögliche Mehrleistung aus (bei gleichem Stromverbrauch) mit diesen üblichen Angaben von x% weniger Fläche, weniger Stromverbrauch und höherem Takt?


https://en.wikichip.org/wiki/iso-


Kann man da einfach bei z.B 30% weniger Stromverbrauch ca 40% mehr Transistoren rauf klatschen (wenn die Packdichte mind. um 40% sinkt)?


Es wird dafür üblicherweise ein vorgegebenes Design verwendet und angegeben wie sich das in den einzelnen Parametern verändert.
30% weniger Stromverbrauch, heißt also bei gleichem Design bekommst du eben 30% weniger Verbrauch.
Da je nach Verwendung nicht ständig alle Transistoren gleich viel Strom verbrauchen kannst du daraus nicht schließen, dass man X% mehr Transistoren verbauen kann um am Ende auf 0 zu kommen. Es handelt sich dann nicht mehr um das selbe Chipdesign, und es kann sich damit komplett anders verhalten.

Das Chipdesign hat heutzutage einen wesentlich größeren Einfluss auf den Verbrauch, als die Fertigungstechnologie.


Allerdings ist in der Rechnung der Takt kein bisschen drinn.

Takt = Performance bei den Angaben der Halbleiterhersteller. Natürlich wieder bei selbem Chipdesign, da das Design selbst wesentlich mehr Einfluss auf die Taktbarkeit hat, als der Prozess.

Deshalb sind die Angaben der Performancesteigerung bei den Prozessen auch immer am geringsten, da die Performancesteigerung immer einer Takterhöhung entspricht und eine Takterhöhung immer exponentiell den Verbrauch steigern lässt.


Wenn man bei Anandtech etwas genauer liest sieht man auch, dass es sehr davon abhängt was man bauen möchte.

Von N5 auf N3 gilt die 1,7x verbesserte Packdichte nämlich nur für Logik. Analoge Schaltungen skalieren gerade mal mit dem Faktor 1,1 was jetzt auch nicht so überraschend ist, da derartige Schaltungen mit den letzten Prozessen schon kaum skalieren.

Viel interessanter ist aber, dass auch SRAM gerade mal um den Faktor 1,2 skaliert, und SRAM hat in den meisten Prozessoren und auch GPUs einen sehr großen Anteil am DIE.

Wir werden also speziell in CPUs und GPUs wahrscheinlich eine deutlich geringere Steigerung der Transistordichte sehen, wenn N3 mal angekommen ist, als man eventuell auf den ersten Blick erwarten würde.

Gast
2021-04-28, 10:34:27
Bei einem Effizienzvorteil in der Richtung 5x-10x sind die potentiellen 30% die vom Prozess kommen sowas von irrelevant.
Das stimmt natürlich. Nur habe ich bisher keinen Test gesehen, wo ein Faktor 5x bis 10x vorhanden war. Vielleicht kommen ein paar speziell optimierte Anwendungen, die SFUs nutzen, grob in die Richtung. Aber im Schnitt war der Vorteil vielleicht bei grob 1/3 weniger Verbrauch für ähnliche Leistung. Und in ein paar Benches war der M1 gegen Zen3 oder Tiger Lake auch durchaus schlechter.

Gast
2021-04-28, 12:08:01
Das stimmt natürlich. Nur habe ich bisher keinen Test gesehen, wo ein Faktor 5x bis 10x vorhanden war.


M1 Singlethread-Volllast ~5W, Zen3 mit Singlethread Volllast ~50W, bei vergleichbarer Performance.

Das ist jetzt natürlich nahe am Best-Case für den M1, aber selbst im worst case ist der Unterschied dermaßen gigantisch, dass 2-stellige Prozentzahlen die der Prozess maximal hergibt nur ein Tropfen auf dem heißen Stein in der Gesamtrechnung bleiben.

GerryB
2021-04-28, 14:08:23
https://www.techpowerup.com/281552/apple-m2-processor-is-reportedly-in-mass-production

Lehdro
2021-04-28, 14:25:33
M1 Singlethread-Volllast ~5W, Zen3 mit Singlethread Volllast ~50W, bei vergleichbarer Performance.

Äpfel und Birnen, denn der Zen 3 ist sicherlich ein Desktop gewesen. Der bringt dann deutlich mehr mit, als nur Leistung, zum Beispiel I/O.

Bei Anandtech hat selbst der "veraltete" Zen 2 4800U mit 15W es geschafft sich an die Fersen des M1 zu hängen. Wenn man explizit sub 15W targeten würde, könnte das ganze mit Zen 3 sicherlich auch noch einmal besser aussehen. Das ist dann zwar wahrscheinlich immer noch Faktor 2-3 bei der Energieeffizienz, aber kein Faktor 20 mehr. Obwohl ja dann der AMD noch den Noderückstand hätte (M1 ist 5nm, Zen 3 ist 7nm) und natürlich deutlich mehr MC Performance in Petto. Ein Vergleich eines 5800U mit einem M1 wäre wirklich mal interessant, gibt es sowas denn überhaupt?

Leonidas
2021-04-28, 15:27:40
Apple weiss schon, wie man die Leute mit Best-Cases beeindruckt. Insbesondere im Apple-Feld wird so was auch unkritisch geschluckt. Aber irgendwann kommt dann der Tag unabhängiger, sinnvoller Benchmarks.

Platos
2021-04-28, 16:15:25
Das ist halt leider immer so bei Unternehmen mit einer grossen (Fan-)Base. Irgendwie ähnlich kommt es mir bei z.B Elon Musk vor oder bei ganz vielen Youtubern.

Gast
2021-04-28, 17:31:41
M1 Singlethread-Volllast ~5W, Zen3 mit Singlethread Volllast ~50W, bei vergleichbarer Performance.
Aha, wenn man bedenkt, dass ein Desktop Zen2 Kern bei vollem Turbo grob 10W unter Volllast braucht (wie Anadtech nachgewiesen hat; von Zen3 kenne ich da keine Messwerte) und dank HT 2 Threads statt einem bietet (man müsste bei Apple also mit grob 10W rechnen), dann frage ich mich, was für ein "Test" das gewesen sein sollte. Klar, der Uncore Bereich braucht auch etwas, aber garantiert keine grob 40W, sondern bei den Mobile Modellen vielleicht 5W. Insofern: Die Verbrauchswerte halte ich vorsichtig gesagt für unglaubwürdig...

Gast
2021-04-28, 17:53:10
Äpfel und Birnen, denn der Zen 3 ist sicherlich ein Desktop gewesen. Der bringt dann deutlich mehr mit, als nur Leistung, zum Beispiel I/O.

Klar ist der Vergleich Äpfel und Birnen und klar ist es ein Desktop gibt bzw. gab ja nix anderes zum vergleichen, was besseres haben wir leider nicht. Und der einzige AMD Prozessor der in der Leistung pro Thread mithalten kann ist eben der 5950 bzw. 5900, schon der 5800 liegt dahinter, und das sind nun mal Desktop Prozessoren.

Allerdings ist es in beide Richtungen "unfair". Auf der einen Seite verschwendet Zen natürlich gerade in diesen Situationen jede Menge Energie durch den IO-DIE. Auf der anderen Seite beinhaltet der Verbrauch beim M1 aber den gesamten SoC + RAM, was beim Zen extern bzw. im Chipsatz ist und damit nicht in den Package-Verbrauch fällt.

Bei Zen3 braucht nur der Kern alleine in der Situation 20W, während beim M1 der gesamte SoC unter 5W braucht. Also selbst wenn wir Unfair für den M1 rechnen sind wir bei mindestens der 4-Fachen Effizienz, wobei über 5x für einen fairen Apples-2-Apples-Vergleich realistischer sein dürfte.

Gast
2021-04-28, 21:17:14
Aha, wenn man bedenkt, dass ein Desktop Zen2 Kern bei vollem Turbo grob 10W unter Volllast braucht (wie Anadtech nachgewiesen hat; von Zen3 kenne ich da keine Messwerte)


Ein Zen3 Core braucht mit einem Thread Volllast 16W, nur der Core alleine, mit 2 Threads sind es ~20W, wenn du Anandtech liest solltest du auch das finden.


und dank HT 2 Threads statt einem bietet (man müsste bei Apple also mit grob 10W rechnen),


Irrelevant, es geht um die Leistung pro Thread, und nein bei Apple müsste man nicht mit grob 10W rechnen, weil einerseits sind die 5W nicht die Leistungsaufnahme des Kerns sondern die wahrscheinlich zu hoch geschätzte Leistungsaufnahme des gesamten SoCs, zweitens verdoppelt SMT weder die erreichbare Leistung noch die Leistungsaufnahme.


dann frage ich mich, was für ein "Test" das gewesen sein sollte. Klar, der Uncore Bereich braucht auch etwas, aber garantiert keine grob 40W,


Alleine der IO-Die braucht bei AMD 15W beim nixtun. Das einzig positive ist, unter Last werden es nur ein paar W mehr.
Der gesamte Uncore-Bereich, also nicht nur IO summiert sich gut und gerne auf 30W.


sondern bei den Mobile Modellen vielleicht 5W. Insofern: Die Verbrauchswerte halte ich vorsichtig gesagt für unglaubwürdig...

Klar, nur halten diese auch bei der Leistung nicht mehr mit und es gibt leider auch keine Entsprechenden Tests mit denen man das nachprüfen könnte
Und es ändert nichts an der Grundaussage, dass Apple um Lichtjahre voraus ist.

Selbst wenn wir bei Apple die Gesamtleistungsaufnahme der reinen Leistungsaufnahme/Kern von AMD gegenübersetzen, was dem M1 gegenüber eigentlich komplett unfair ist, ist AMD nicht mal in Sichtweite.

Der Unterschied ist einfach dermaßen extrem als wenn Real Madrid gegen eine U12-Auswahl spielen würde, und auch wenn wir vom M1 keine Messwerte haben die genau genug sind um das auf eine exakte Zahl festzunageln sind die Unterschiede dermaßen groß dass weder AMD noch Intel selbst im günstigstmöglichen Fall irgendwie nahe kommen können.

Leonidas
2021-04-29, 05:13:36
Es wäre trotzdem schön, das irgendwann mal auf solider Basis gebencht zu bekommen - damit man sich diese ganze Interpolationen sparen kann.

Gast
2021-04-29, 08:06:13
Ein Zen3 Core braucht mit einem Thread Volllast 16W, nur der Core alleine, mit 2 Threads sind es ~20W, wenn du Anandtech liest solltest du auch das finden.
Und wer hat bisher bewiesen, dass der M1 dann schneller ist, als ein Desktop Zen3 im maximalen Turbo? Niemand! Bei Notebookcheck ist z.B. der M1 auch mit in der Test Datenbank, die haben schon ein Macbook Air damit getestet. Im Vergleich zu einem Zen2 4700U ist er nicht einmal bei ST immer vorne und der Verbrauch ist grob 1/3 besser. Da Zen3 noch einmal grob 20% mehr Leistung bietet, ist entsprechend überhaupt nicht gesagt, dass der M1 im Schnitt schneller ist. Das hängt auch stark von der Anwendung ab. ARM und x86 performen je nach Anwendung sehr unterschiedlich.
Klar, nur halten diese auch bei der Leistung nicht mehr mit und es gibt leider auch keine Entsprechenden Tests mit denen man das nachprüfen könnte
Und es ändert nichts an der Grundaussage, dass Apple um Lichtjahre voraus ist.
Selbst wenn wir bei Apple die Gesamtleistungsaufnahme der reinen Leistungsaufnahme/Kern von AMD gegenübersetzen, was dem M1 gegenüber eigentlich komplett unfair ist, ist AMD nicht mal in Sichtweite.
Der Unterschied ist einfach dermaßen extrem als wenn Real Madrid gegen eine U12-Auswahl spielen würde, und auch wenn wir vom M1 keine Messwerte haben die genau genug sind um das auf eine exakte Zahl festzunageln sind die Unterschiede dermaßen groß dass weder AMD noch Intel selbst im günstigstmöglichen Fall irgendwie nahe kommen können.
Wie oben schon angemerkt:
In z.B. Cinebebench R20 ist ein 4700U laut Notebookcheck 33% (Median aus mehreren Geräten) vor dem M1 (SingleThreaded ist er immer noch 5% vorne). Im R15 ist der AMD dann nur noch 5% vorne. Leider gibt's den Verbrauch nur bei R15, da ist der AMD 36% schlechter.
Wenn man nun bedenkt, dass vorher von Faktor 5-10 besser oder von "außer Sicht" die Rede war und Apple durch die bessere Fertigung alleine 30% holt, wo genau ist der M1 dann 10 mal besser? Mit gleicher Fertigung wären der 4700U und der M1 quasi gleichauf in R15 und der AMD besser in R20.

Auch der Punkt von Leonidas ist zu beachten: Es gibt aktuell keine solide Basis. Wenn der M1 alles vernichtet, warum gibt es dann nicht tausende Tests, die das über eine große Anzahl an Anwendungen belegen?
Meiner Meinung nach, weil das eben nicht der Fall ist. Der M1 ist in Anwendungen exzellent, die einen Nutzen aus den SFUs ziehen. In Anwendungen, in denen das (noch) nicht möglich ist, performt er hingegen nicht besser als x86.

GerryB
2021-04-29, 08:54:56
Prinzipiell wirds ja eh erst mit Zen5 interessant, wenn dann AMD ala Apple auch big+small Cores
gruppiert.(small Cores hoffentlich dann mit mehr SMT-Threads als bisher)
Bis dahin gibts dann auch hoffentlich preisgünstigen DDR5.(erwarte ich erst 2023)
https://www.computerbase.de/2021-04/ddr5-fahrplan-ram-module-mit-128-gb-und-6.400-mhz-fruehestens-2022/

Für Gaming würden 4x BIG=4Threads +4x SMALL=8..12Threads reichen.
Zwecks Marketing wirds wohl eher auf 8+4 hinauslaufen:
https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Zen-5-angeblich-mit-Antwort-auf-Intels-Big-Little-Vorstoss-1371082/

Gast
2021-04-29, 10:38:05
Und wer hat bisher bewiesen, dass der M1 dann schneller ist, als ein Desktop Zen3 im maximalen Turbo? Niemand!


Sagt ja auch keiner dass er schneller ist. Er ist ungefähr gleich schnell und das bei einem Bruchteil des Verbrauchs.

https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested

Der 5950X ist der einzige der auch nur irgendwie mithalten kann, mal ein wenig schneller mal ein wenig langsamer.

Und die Zen3 APUs sind eben langsamer als ein 5950X, woraus folgt dass sie auch langsamer als ein M1 sind, nachdem der 5950X nur ungefähr gleich schnell ist.

In der Effizienz sind die APUs natürlich deutlich näher dran logisch, aber immer noch deutlich schlechter und vor allem mit niedrigererer Peak-Performance.
Wenn es nur um Effizienz ohne Betrachtung der Peak-Performance gehen würde könnte man das Ganze auch mit den Icestorm-Kernen vergleichen, dann gewinnt man nochmal in etwa einen Faktor 5 an Effizienz gegenüber den Firestorm-Kernen, aber eben nur grob bei der halben Peak-Performance.



Bei Notebookcheck ist z.B. der M1 auch mit in der Test Datenbank, die haben schon ein Macbook Air damit getestet.


Ein Air mit komplett passiver Kühlung und noch dazu einer extrem schlechten, was aber aufgrund des niedrigen Verbrauchs vom M1 sogar fast nichts macht. Schon mit einem Pad-Mod würde das M1 locker vorbeiziehen, und das immer noch passiv.


Das hängt auch stark von der Anwendung ab. ARM und x86 performen je nach Anwendung sehr unterschiedlich.


Ja wenn der M1 Rosetta bemühen muss kann er auch mal langsamer sein, allerdings bei immer noch deutlich niedrigerem Verbrauch und nicht mal immer.

Ein aktuelleres Review mit ähnlichen Geräten, das zeigt wie weit Apple aktuell vor allen anderen ist: https://www.youtube.com/watch?v=7yTWGjYFiC0

Hat leider nicht Anandtech-Qualität aber man muss nehmen was man bekommt. Vor allem können wir uns sicher sein, dass AMD und Intel in den Surface-Geräten bestmöglich angesteuert werden.
Und er vergleicht hier auch das lüfterlose Air gegen 2 Notebooks mit deutlich hörbarem Lüfter. Ein halbwegs fairer Vergleich wäre hier eher das Pro, und dann würden Intel/AMD noch deutlich schlechter dastehen.

Und ja es wäre schön wenn wir hier mal ein Review mit Anandtech-Qualität auf Augenhöhe sehen können um wirklich sichere Zahlen zu haben.

Aber selbst mit all den Unsicherheiten die es aktuell gibt, ist es klar das Apple aktuell einfach einen extremen Vorsprung hat der nicht "mal so" aufzuholen ist.

Wie oben schon angemerkt:
In z.B. Cinebebench R20 ist ein 4700U laut Notebookcheck 33% (Median aus mehreren Geräten) vor dem M1 (SingleThreaded ist er immer noch 5% vorne). Im R15 ist der AMD dann nur noch 5% vorne. Leider gibt's den Verbrauch nur bei R15, da ist der AMD 36% schlechter.
Wenn man nun bedenkt, dass vorher von Faktor 5-10 besser oder von "außer Sicht" die Rede war und Apple durch die bessere Fertigung alleine 30% holt, wo genau ist der M1 dann 10 mal besser? Mit gleicher Fertigung wären der 4700U und der M1 quasi gleichauf in R15 und der AMD besser in R20.

Auch der Punkt von Leonidas ist zu beachten: Es gibt aktuell keine solide Basis. Wenn der M1 alles vernichtet, warum gibt es dann nicht tausende Tests, die das über eine große Anzahl an Anwendungen belegen?
Meiner Meinung nach, weil das eben nicht der Fall ist. Der M1 ist in Anwendungen exzellent, die einen Nutzen aus den SFUs ziehen. In Anwendungen, in denen das (noch) nicht möglich ist, performt er hingegen nicht besser als x86.[/QUOTE]

Gast
2021-04-29, 10:46:20
Auch der Punkt von Leonidas ist zu beachten: Es gibt aktuell keine solide Basis. Wenn der M1 alles vernichtet, warum gibt es dann nicht tausende Tests, die das über eine große Anzahl an Anwendungen belegen?

Weil auf dem M1 nur MacOS, und auf den x86 Prozessoren jenes eben nicht läuft.

Damit ist man entweder in der Benchmarkauswahl stark eingeschränkt, oder umgekehrt in der Hardwareauswahl, wenn man nur auf MacOS testet, gegen die alten Intel-Macs.

Der M1 auch vernichtet nicht alles, in der Performance ist er jetzt nicht unbedingt so viel schneller, aber der Verbrauch ist dafür extrem viel niedriger.

Gast
2021-04-29, 14:23:00
Prinzipiell wirds ja eh erst mit Zen5 interessant, wenn dann AMD ala Apple auch big+small Cores
gruppiert.(small Cores hoffentlich dann mit mehr SMT-Threads als bisher)
Bis dahin gibts dann auch hoffentlich preisgünstigen DDR5.(erwarte ich erst 2023)
https://www.computerbase.de/2021-04/ddr5-fahrplan-ram-module-mit-128-gb-und-6.400-mhz-fruehestens-2022/

Für Gaming würden 4x BIG=4Threads +4x SMALL=8..12Threads reichen.
Zwecks Marketing wirds wohl eher auf 8+4 hinauslaufen:
https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Zen-5-angeblich-mit-Antwort-auf-Intels-Big-Little-Vorstoss-1371082/


Bin ich der einzige der keinen blassen Schimmer hat was diese Grafik da unten eigentlich aussagen soll?

GerryB
2021-04-29, 14:51:41
Bin ich der einzige der keinen blassen Schimmer hat was diese Grafik da unten eigentlich aussagen soll?

Einige Games verteilen die Last net gleichmäßig auf die Cores.
daher
Bietet sich die Trennung in Big+Small an.

Lehdro
2021-04-29, 15:45:46
Ein aktuelleres Review mit ähnlichen Geräten, das zeigt wie weit Apple aktuell vor allen anderen ist: https://www.youtube.com/watch?v=7yTWGjYFiC0
Nur fyi: Das Surface 4 hat in der AMD Edition nur Renoir, nicht Cezanne. Da passiert schon noch deutlich was, gerade im ST. (https://youtu.be/edpdmbmYOj0?t=923)

Gast
2021-04-29, 16:35:53
Einige Games verteilen die Last net gleichmäßig auf die Cores.

Mag ja sein, nur was soll diese Grafik zeigen?
Die Y-Achse ist ja noch recht klar, nur was zeigen diese Balken an? Und warum haben manche Balken irgendeine Beschriftung, andere nicht?