Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Qualcomm Snapdragon-SoCs


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11

Zossel
2022-12-19, 11:32:08
Deshalb bin ich auch der Meinung dass sich QCOM und ARM hinsetzen sollten und zu einer fairen Vereinbarung fuer beide Seiten kommen sollten.

Viel zu unsicher, das Thema ist komplex genug damit ein Jurist immer irgendwas findet um weiteres Geld zu fordern.

mboeller
2022-12-19, 11:49:51
Viel zu unsicher, das Thema ist komplex genug damit ein Jurist immer irgendwas findet um weiteres Geld zu fordern.

vielleicht sitzt es QC ja aus; wartet auf den Börsengang von ARM und kauft dann 51% ...

Das werden aber auch noch ein paar andere OEM, wie Nvidia versuchen (IMHO).

Ailuros
2022-12-19, 13:54:59
Viel zu unsicher, das Thema ist komplex genug damit ein Jurist immer irgendwas findet um weiteres Geld zu fordern.

https://semiaccurate.com/2022/12/08/qualcomm-kills-off-a-major-program/

Ich poste es mit jeglicher Vorbehalte, aber es sieht generell nicht gut aus. Ich will hoffen dass es erstmal nicht mit dem Thema hier verbunden ist.

vielleicht sitzt es QC ja aus; wartet auf den Börsengang von ARM und kauft dann 51% ...

Das werden aber auch noch ein paar andere OEM, wie Nvidia versuchen (IMHO).

Welchen Boersengang? Denn momentan sieht ARM's finanzielle Situation alles andere als unsicher aus: https://www.arm.com/company/news/2022/11/arm-achieves-record-royalties-q2-fy-2022

Mag sein dass langfristig ARM eine unsichere Zukunft haben koennte, aber bis zu dem Zeitpunkt sind dann erstmal alle >ULP SoC Plaene von QCOM wegen den vorerwaehnten Problemen mit ARM auf Stillstand.

dildo4u
2023-01-03, 16:25:08
aIVj1DqW8-g

Loeschzwerg
2023-01-18, 08:17:49
Der Snapdragon 8 Gen 2 fühlt sich im neuen RedMagic 8 Pro so richtig wohl :) Brachiale Leistung die sich über mehrere Profile steuern lässt. Es gibt auch einen "Diablo-Mode" welcher den CPU und GPU-Takt maximiert, was aber natürlich den Akku enorm belastet und eher etwas für den Desktop/Konsole-Modus ist.

TXBtnqxFUhc

Zum RT Test im Video (bei 10:00):
"...and I'm told that it's 3x the performance of the last Samsung processor that could do raytracing..."

Die Adreno 740 GPU kann sich also wirklich sehen lassen.

robbitop
2023-01-18, 09:10:56
Die Bluetezeit von IP im ULP SoC Markt ist leider langsam vorbei. IMHO nutzt im gegebenen Fall jemand wie QCOM dann schon irgendwie die Situation aus und versucht fette royalties Summen zu sparen, welches aber durchaus nicht fair ist denn die Tatsache dass sie das NUVIA team gekauft haben, heisst nicht wirklich dass sie jetzt fuer die benutzte IP ploetzlich fast nichts mehr an ARM zahlen muessen bzw. sollten. Deshalb bin ich auch der Meinung dass sich QCOM und ARM hinsetzen sollten und zu einer fairen Vereinbarung fuer beide Seiten kommen sollten.
Sie hatten doch bereits vor dem NUVIA Kauf eine uArch Lizenz, die sie ja auch mit den Krait cores genutzt haben. Was spricht dagegen die einfach weiter zu nutzen?

Ailuros
2023-01-18, 16:35:00
Sie hatten doch bereits vor dem NUVIA Kauf eine uArch Lizenz, die sie ja auch mit den Krait cores genutzt haben. Was spricht dagegen die einfach weiter zu nutzen?

Weil die Krait Lizenz womoeglich schon seit einer Ewigkeit ausgelaufen ist? Wieviele Generationen bzw. Jahre liegen zwischen 2023 und Krait?

robbitop
2023-01-18, 16:38:46
Viele. Ich hätte einfach angenommen, dass QCom eine Art generelle, ewig laufende uArch License hat, die man jederzeit nutzen kann.

Ailuros
2023-01-18, 16:45:41
Viele. Ich hätte einfach angenommen, dass QCom eine Art generelle, ewig laufende uArch License hat, die man jederzeit nutzen kann.

Nein. Ein Lizenznehmer koennte theoretisch eine 7 jaerige Lizenz wie Apple unterschreiben (multi-year, multiple IP), aber in dem Fall muss dieser auch angeben in welchen Maerkten die jeweilige Lizenz benutzt wird.

DrumDub
2023-01-18, 16:49:56
Weil die Krait Lizenz womoeglich schon seit einer Ewigkeit ausgelaufen ist? Wieviele Generationen bzw. Jahre liegen zwischen 2023 und Krait? 12 jahre ... (https://en.wikipedia.org/wiki/Krait_(processor))

Nightspider
2023-01-18, 17:48:57
Der Snapdragon 8 Gen 2 fühlt sich im neuen RedMagic 8 Pro so richtig wohl :) Brachiale Leistung die sich über mehrere Profile steuern lässt. Es gibt auch einen "Diablo-Mode" welcher den CPU und GPU-Takt maximiert, was aber natürlich den Akku enorm belastet und eher etwas für den Desktop/Konsole-Modus ist.

https://youtu.be/TXBtnqxFUhc

Zum RT Test im Video (bei 10:00):
"...and I'm told that it's 3x the performance of the last Samsung processor that could do raytracing..."

Die Adreno 740 GPU kann sich also wirklich sehen lassen.

Die Spiele, die da getestet werden sehen aber immer noch nach Kinderspielen aus.

Mich würde eher interessieren wie "erwachsene" Games wie Battlefield 4 auf so einem Chip performen würden.

Der Snapdragon 8 Gen2 sollte doch locker schneller sein als eine Playstation 4.

robbitop
2023-01-19, 06:26:37
Mit derem nächsten 8cx Prozessor werden wir es erfahren. Dann sollte doch mindestens eine gemauso starke GPU verbaut sein und man kann sich die Performance unter Windows anschauen (was sie vergleichbar macht).

dildo4u
2023-01-19, 09:53:52
Die Spiele, die da getestet werden sehen aber immer noch nach Kinderspielen aus.

Mich würde eher interessieren wie "erwachsene" Games wie Battlefield 4 auf so einem Chip performen würden.

Der Snapdragon 8 Gen2 sollte doch locker schneller sein als eine Playstation 4.
PS4 hat mehr Bandbreite als 8Gen 2 mit LPDDR5X 4200 ich vermute mal nicht das Mobile GPU massive Caches haben die das auffangen.
Viele Stellen Steam Deck mit PS4 gleich beachten aber nicht das das Ding nativ nur 800p läuft.
Die Frage sollte eher sein ob die XBox One erreicht wird.

DrFreaK666
2023-01-19, 10:03:10
...
Viele Stellen Steam Deck mit PS4 gleich beachten aber nicht das das Ding nativ nur 800p läuft...

Ja, wegen den TFLOPS

dildo4u
2023-01-19, 10:08:27
Das ist genau mein Argument Steam Deck ist im Bereich der PS4 was Tflops angeht 1.6 vs 1.8 hat aber nicht genug Bandbreite für 1080p.

DrFreaK666
2023-01-19, 10:55:55
Achso. Das wolltest damit sagen.

robbitop
2023-01-19, 11:30:32
Es hat auch mit dem Overhead zu tun. Auf der PS4 kann deutlich besser für die HW optimiert werden (nur eine HW Konfiguration und deutlich mehr low level Optimierungsmöglichkeiten). Das kann schon einiges ausmachen.

Nightspider
2023-01-19, 15:21:55
Rohe Bandbreite kann man aber auch nicht zwischen 2 Plattformen vergleichen, die 6-7 Jahre auseinanderliegen, imo.

VRAM bzw. Texturkompressionen haben sich in den vielen Jahren doch auch verbessert, die Caches sind schneller geworden und und und.

robbitop
2023-01-19, 17:35:36
Aber dennoch haben die mobilen uArchs damit deutliche Probleme. Siehe die Switch. Wenn alphablending zum Einsatz kommt, bricht die weg. Ein klarer Indikator für Bandbreitenlimitierung.

Ailuros
2023-01-20, 06:34:41
Die Spiele, die da getestet werden sehen aber immer noch nach Kinderspielen aus.

Mich würde eher interessieren wie "erwachsene" Games wie Battlefield 4 auf so einem Chip performen würden.

Der Snapdragon 8 Gen2 sollte doch locker schneller sein als eine Playstation 4.

Adreno740 und jegliche ULP SoC GPU die in einem smartphone ankommt kann man eben nicht mit einer Konsole vergleichen. Um es wirklich vergleichen zu koennen muesste man den ersten SoC in ein vergleichbares Geraet stecken und ein um einiges grosszuegigeres DVFS anwenden. So wie ein 740 in einem smartphone bzw. tablet integriert wird kannst Du locker zwischen 30 und 50% an Rohleistung abrechnen, denn der SoC wird nach kurzer Zeit dank zu hoher Temperatur ziemlich stark throtteln.

Hast Du 2 TFLOPs FP32 Leistung von einer ULP SoC GPU dann sind diese TFLOPs nur mit anderen ULP SoC GPUs vergleichbar.

Aber dennoch haben die mobilen uArchs damit deutliche Probleme. Siehe die Switch. Wenn alphablending zum Einsatz kommt, bricht die weg. Ein klarer Indikator für Bandbreitenlimitierung.

Hypothetisch koennten ISVs schon einige mehr AAA Titel auf ULP SoCs optimiert entwickeln; es wuerde zwar nicht an ein neues PC bzw. Konsolen Spiel reichen, aber gut aussehen wuerde es trotzdem. Jetzt musst Du mir aber erklaeren wer auf einem smartphone bzw. tablet so viel fuer ein Spiel ausgeben wuerde wie auf einer Konsole bzw. PC.

robbitop
2023-01-20, 09:19:46
Ich bin dafür der Falsche. Ich finde es albern auf dem Smartphone oder Tablet 3D Spiele zu spielen. Dafür gibt es viel bessere Plattformen von der Ergonomie und von der Spieleauswahl. IMO ist das Müll. Aber es gibt genug Leute, dass trotzdem ihr Fortnite oder PUBG auf dem Handy spielen. Ich werde es wohl nie nachvollziehen können. X-D

Wuge
2023-01-20, 10:32:29
Sorry fürs halb-OT: was an Alphablending kostet viel Bandbreite?

robbitop
2023-01-20, 11:01:00
Alpha Blending mischt ja Farbwerte von Dingen die auf unterschiedlichen Werten auf der Tiefenachse liegen. Gerendert wird nicht in vorsortierter Reihenfolge auf der Z-Achse sondern so wie es kommt - quasi zufällig. Um einen Endfarbwert zu ermitteln, muss jedes Sample was hinter dem Z Wert liegt von dem was gerade berechnet wird wieder neu aus dem Framebuffer gelesen werden. Und je nach dem wie viele Objekte sind passiert das mehrfach. Entsprechend ist für die Pixel die das Betrifft mehr Verkehr vom und zum Framebuffer notwendig.

Nightspider
2023-01-20, 15:47:33
Adreno740 und jegliche ULP SoC GPU die in einem smartphone ankommt kann man eben nicht mit einer Konsole vergleichen. Um es wirklich vergleichen zu koennen muesste man den ersten SoC in ein vergleichbares Geraet stecken und ein um einiges grosszuegigeres DVFS anwenden. So wie ein 740 in einem smartphone bzw. tablet integriert wird kannst Du locker zwischen 30 und 50% an Rohleistung abrechnen, denn der SoC wird nach kurzer Zeit dank zu hoher Temperatur ziemlich stark throtteln.

Hast Du 2 TFLOPs FP32 Leistung von einer ULP SoC GPU dann sind diese TFLOPs nur mit anderen ULP SoC GPUs vergleichbar.

Das stimmt schon aber verglichen mit der Switch müsste der Snapdragon 8 Gen 2 um den Faktor 2,5 bis 3 schneller sein und gegenüber der PS4 vielleicht 50-70%.

Da sollten schon viele moderne AAA Titel drauf laufen, wenn man sie portieren würde.

PS: Gibt ja auch genug Geräte, wo die Snapdragon SoCs nicht throtteln. Schon in Tablets sollte das easy machbar sein das gar nicht gethrottelt wird.

Für die Galaxy S23 Smartphones soll sogar eine übertaktete Variante des SoCs kommen.

Ailuros
2023-01-25, 16:20:58
Das stimmt schon aber verglichen mit der Switch müsste der Snapdragon 8 Gen 2 um den Faktor 2,5 bis 3 schneller sein und gegenüber der PS4 vielleicht 50-70%.

Adreno 740 wird nicht nur in ULP SoCs in 2024 erscheinen, ergo wuerde ich erstmal abwarten wie eine solche GPU in groesseren form factor SoCs aussehen koennte. Trotzdem klingt mir schon 50% ueber der PS4 Leistung viel zu optimistisch.



PS: Gibt ja auch genug Geräte, wo die Snapdragon SoCs nicht throtteln. Schon in Tablets sollte das easy machbar sein das gar nicht gethrottelt wird.

Für die Galaxy S23 Smartphones soll sogar eine übertaktete Variante des SoCs kommen.

Dass ULP SoCs sehr aggressive DVFS haben ist eine generelle Praktik und nicht auf QCOM bzw. Snapdragon beschraenkt. Bei Apple liegen Welten an Differenzen im Bereich DVFS (dynamic voltage & frequency scaling) zwischen einem A15 und einem M1 SoC als einfaches Beispiel.

Es gibt schon seit einer Ewigkeit hoeher getakte SoC Varianten durch besseres binning mit der Zeit; das aendert aber nicht im geringsten dass wenn der SoC N Temperatur erreicht es im DVFS festgenagelt ist dass ueber X Zeitraum die Frequenzen automatisch reduziert werden. Bei einem schnellen synthetischen benchmark bleibt in der Mehrzahl der Faelle die maximale Frequenz dort wo man sie erwarten wuerde, wenn der SoC bzw. das smartphone noch kalt ist. Je mehr Stress und dadurch hoehere Temperaturen desto bescheidener die sogenannte sustained performance gegen theoretisch maximale (Kurz-)Leistung.

dildo4u
2023-01-26, 06:17:57
Der Snapdragon 8 Gen 2 fühlt sich im neuen RedMagic 8 Pro so richtig wohl :) Brachiale Leistung die sich über mehrere Profile steuern lässt. Es gibt auch einen "Diablo-Mode" welcher den CPU und GPU-Takt maximiert, was aber natürlich den Akku enorm belastet und eher etwas für den Desktop/Konsole-Modus ist.

https://youtu.be/TXBtnqxFUhc

Zum RT Test im Video (bei 10:00):
"...and I'm told that it's 3x the performance of the last Samsung processor that could do raytracing..."

Die Adreno 740 GPU kann sich also wirklich sehen lassen.

Laut dem ist RDNA2 in RT massiv überlegen vermute mal die ARM Lösung geht noch mal deutlich sparsammer mit dem Transistoren Budget um als AMD.

https://www.computerbase.de/2023-01/basemark-gpuscore-in-vitro-der-erste-raytracing-benchmark-fuer-android-smartphones/

Ailuros
2023-01-27, 07:06:37
Laut dem ist RDNA2 in RT massiv überlegen vermute mal die ARM Lösung geht noch mal deutlich sparsammer mit dem Transistoren Budget um als AMD.

https://www.computerbase.de/2023-01/basemark-gpuscore-in-vitro-der-erste-raytracing-benchmark-fuer-android-smartphones/



https://forum.beyond3d.com/threads/arm-immortalis-gpu-mobile-with-hardware-raytracing.62910/page-2#post-2282139

Ich hab zwar nicht die blasseste Ahnung wofuer genau inline ray tracing steht, aber so wie es aussieht ist sowohl QCOM als auch ARM zeitige GPU IP davon betroffen. Wir haben zwar noch keine Indizien von IMG's Photon GPUs, aber ich will ernsthaft bezweifeln dass es sich auch hier um eine schnelle Pflaster-Loesung handelt.

Ailuros
2023-01-27, 16:01:46
Uebrigens: QCOM Project HAMOA@2024: https://twitter.com/Za_Raczke/status/1616575097761849345?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1616575 097761849345%7Ctwgr%5Eeba214c0e114cf5f748eefdcb621ce7ece254445%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fqualcomm-snapdragon-g3x-gaming-platform.62643%2F

dildo4u
2023-02-02, 08:11:10
8 Gen 2 im S23 Ultra.


https://wccftech.com/galaxy-s23-ultra-twice-as-fast-as-galaxy-s22-ultra-in-gpu-test/

Ailuros
2023-02-03, 06:37:59
8 Gen 2 im S23 Ultra.

https://wccftech.com/galaxy-s23-ultra-twice-as-fast-as-galaxy-s22-ultra-in-gpu-test/

Wie erwartet. Es waere bei weitem interessanter wenn jemand sustained performance zwischen den beiden vergleichen wuerde, denn ich befuerchte dass es noch grauer aussehen wuerde fuer S22 dank Ueberhitzungsproblemen ueber Langzeitnutzung. Ja den unendlichen Weihrauch fuer ray tracing haben wir langsam schon kapiert, aber da es noch eine Ewigkeit dauern wird bis RT in irgend einem mobilen Spiel erscheint ist es so gut wie scheissegal momentan da Adrenos nur ueber inline RT faehig sind.

Sonst hab ich keine Ahnung wieviel SIMD lanes in einem Adreno 740 oder 730 stecken. Im Adreno 650 stecken auf jeden Fall schon 512 SPs und eine verrueckt hohe Anzahl an TMUs/ROPs bei 670MHz (binned SoCs = leicht hoehere Frequenzen als im Vorgaenger). Chipguider gibt fuer den 740 2048 SPs@980MHz an, aber die Seite lag schon so oft daneben in der Vergangenheit dass es schwer faellt es zu glauben. Wenn dem so waere dann hungert der 8 Gen2 womoeglich brutal fuer Bandbreite.

***edit: Wenn's stimmt dann haben 730 = 768 SPs@900MHz boost und 740 = 1024 SPs@719MHz boost, nur hat der erste 3 "execution units" und der zweite 5. Die GPU im S23 duerfte hoeher takten das es sich nach Angaben um einen speed binned SoC handelt. Mit 719MHz peak (boost) landet der 740 auf Papier fast 3.7 TFLOPs FP23. Gen7 Adreno duerfte IMHO ueber 2 Tris/clock faehig sein.

Nightspider
2023-02-03, 07:07:55
8 Gen 2 im S23 Ultra.


https://wccftech.com/galaxy-s23-ultra-twice-as-fast-as-galaxy-s22-ultra-in-gpu-test/

Where is the news? ^^

Interessant ist imo einzig nur noch die Effizienz, die reale Laufzeiten von den Geräten im Generationsvergleich.

dildo4u
2023-02-03, 10:47:39
Soll eine spezielle Version sein und hat eine Vapor Chamber, kann also sein das der Chip dort deutlich besser performt als in anderen Geräten.


https://www.notebookcheck.com/Snapdragon-8-Gen-2-for-Galaxy-startet-als-schnellster-Qualcomm-SoC-exklusiv-im-Samsung-Galaxy-S23.688111.0.html

Ailuros
2023-02-03, 11:26:32
Soll eine spezielle Version sein und hat eine Vapor Chamber, kann also sein das der Chip dort deutlich besser performt als in anderen Geräten.


https://www.notebookcheck.com/Snapdragon-8-Gen-2-for-Galaxy-startet-als-schnellster-Qualcomm-SoC-exklusiv-im-Samsung-Galaxy-S23.688111.0.html

Von einer GPU Frequenz wird nichts im obrigen Link erwaehnt, aber die angegebene um 5% hoehere CPU Frequenz ist alles anderes als "deutlich besser" sondern eher im "deutlichen Schnarch-Bereich".

davidzo
2023-03-29, 16:36:59
Erster Geekbench-Leak von Qualcomms neuen Nuvia Cores.
https://browser.geekbench.com/v5/cpu/20956011

Sehr ernüchternd, ich hoffe da ist einfach was falsch konfiguriert bzw. läuft mit angezogener Handbremse. Denn das ist noch weit unter den Erwartungen.

Der Takt ist wohl nur auf 2,38Ghz, aber selbst dafür sind die Scores ausgesprochen niedrig.
600 Punkte Singlecore, das entspricht gerademal Sandybridge IPC von vor 12 Jahren.

Der M2 schafft dort 2500 Punkte, Raptorlake ca. 2300 und Zen4 ca. 2100.
Mit Turbo schafft man vielleicht 1000 Punkte, aber das schafft man auch mit ARM Standard Cores (A78 ca. 950pkt im Dimensity 8100).

MSABK
2023-03-29, 16:40:28
Ich erwarte von diesen Kernen nichts großartiges, die werden in den Regionen vom Snapdragon liegen. Windows on ARM ist tot und dadurch gibt es auch keine Motivation da was groß zu entwickeln.

davidzo
2023-03-29, 16:45:25
Naja, Nuvia wird von Gerard Williams III geleitet, dem ehemaligen Apple A-Series Chefingenieur.
Und Qualcomms kurzfristige Motivation dürfte nichts mehr an der Nuvia Arch geändert haben, außer vielleicht dass das genaue Erscheinungsdatum etwas nach hinten gerückt ist weil plötzlich weniger Ressourcen zur Verfügung stehen. Btw, Microsoft hat gerade erst begonnen ihr Project Volterra an 3rd party Entwickler zu shippen, ich glaube also da ist noch viel Leben in Windows on Arm.

Und Nuvia hat immer offensiv mit "besser als Apple"-Leistung geworben. Dass die nun enorm verspätet auf den Markt kommen und sich daher mit jüngeren Entwicklungen von Apple als geplant messen müssen ist geschenkt. Aber man konnte schon erwarten dass Nuvias Custom CPUs bei der IPC am oberen Ende des Spektrums liegen werden wenn das Apple-Team dahinter steckt.

Und das hier sieht auf den ersten Blick eher aus wie Mongoose M6.

Nuvias von Grund auf neue CPU Architektur wird schon viel länger entwickelt als Qualcomm da mitmischt und bis vor kurzem war das Interesse auch extrem hoch. Da ist eine kurzfristige Schwankung im allgemeinen Halbleitermarkt nicht ausschlaggebend. Und bis 2021-22 war Windows on Arm für Qualcomms Notebookstrategie noch ganz oben auf der Karte. In dieser Zeit wird die Architektur schon abgeschlossen gewesen sein.

mboeller
2023-03-30, 11:05:14
Erster Geekbench-Leak von Qualcomms neuen Nuvia Cores.
https://browser.geekbench.com/v5/cpu/20956011

Sehr ernüchternd, ich hoffe da ist einfach was falsch konfiguriert bzw. läuft mit angezogener Handbremse. Denn das ist noch weit unter den Erwartungen.



Du erwartest jetzt aber nicht im Ernst, das Qualcomm einen neuen CPU-core entwickelt, der nur < 1/3 der Leistung hat wie ein Snapdragon 8 Gen2, oder?

Nur mal so:
https://www.notebookcheck.com/Samsung-Galaxy-Z-Fold5-und-Galaxy-Z-Flip5-zeigen-maechtige-Upgrades-im-Geekbench-Leak.704280.0.html

https://www.notebookcheck.com/fileadmin/_processed_/b/0/csm_Fold5_d561aef68f.jpg

mboeller
2023-04-27, 14:33:54
Qualcomm hat jetzt auch "DLSS":

https://www.notebookcheck.com/Qualcomm-enthuellt-DLSS-Alternative-GSR-fuer-Smartphone-Gaming-mit-doppelter-Bildrate-und-laengerer-Akkulaufzeit.710280.0.html

bei der ersten Reihe an Beispielbildern scheint aber ein Problem zu sein. Mir zumindest gefällt das "540p (Input)" Bild am besten. :)

robbitop
2023-04-27, 16:53:34
Das ist nur ein spatialer Filter. Sie vergleichen es mit FSR 1.0 und es ist noch weniger compute.
FSR 2.0 bezeichnen sie als "not feasible for phones". Kostet zu viel Rechenleistung für die Auflösungen. Wahrscheinlich sind die SoCs ziemlich schwach und der Computerechenaufwand für herkömmlich gerendete Pixel relativ simpel verglichen mit aktuellen AAA Titeln (PC/Konsole).

Ailuros
2023-04-27, 18:03:17
Ich kann so etwas nur in Echtzeit und in Bewegung beurteilen. Bei den display-Groessen von Handys koennte sogar FSR1.0 ziemlich nutzvoll sein. Da es nach QCOM auch auf meinem Handy laufen soll, waere zumindest ein techdemo ziemlich interessant.

Ailuros
2023-04-28, 07:14:12
Uebrigens was die Spezifikationen von Adreno 730/740 betrifft:

https://www.youtube.com/watch?v=c1j5p4iNvRM

~2:53 und der slide sieht offiziell aus.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83730&stc=1&d=1682658461

Ergo:

Adreno 730 = 1024SPs @900MHz (boost)
Adreno 740 = 1536SPs @680MHz (boost)

https://www.notebookcheck.net/Qualcomm-Adreno-740-GPU-Benchmarks-and-Specs.669947.0.html

Leistung in 4k Aztec ruins offscreen fuer den 740 liegt auf Apple M1 (iPad Pro 5th Gen) Hoehe bei 29+ fps Adreno730@19fps und AppleM2 bei 39,80fps.

Benutzt jetzt hypothetisch QCOM den Adreno740 in kommenden low end laptop SoCs wie es manche Geruechte wollen, dann sieht die GPU mit grosszuegigem DVFS mit schaetzungsweise ~900MHz (ergo ~+30%) durchaus konkurrenzfaehig aus.

mboeller
2023-04-28, 19:53:36
https://www.gsmarena.com/snapdragon_8_gen_3_coming_with_37ghz_prime_core_new_cpu_clusters-news-58386.php


The Snapdragon 8 Gen 3 is said to have one prime Cortex-X4 CPU core at unprecedented 3.7 GHz, five powerful cores for performance and two small cores for efficiency.


Cortex X4?

Sollten da nicht Nuvia-CPU Cores kommen?

disap.ed
2023-04-28, 23:23:02
https://www.gsmarena.com/snapdragon_8_gen_3_coming_with_37ghz_prime_core_new_cpu_clusters-news-58386.php

Cortex X4?

Sollten da nicht Nuvia-CPU Cores kommen?

Der Gen3 soll ja noch heuer kommen, Nuvia-Cores (Oryon) kommen erst beim Gen4 afaik.

mboeller
2023-08-08, 15:14:46
Leak:
Qualcomm Snapdragon 8cx Gen 4 soll Apple M3, Intel Meteor Lake und Ryzen 7000 mit drei Varianten Konkurrenz machen (https://www.notebookcheck.com/Qualcomm-Snapdragon-8cx-Gen-4-soll-Apple-M3-Intel-Meteor-Lake-und-Ryzen-7000-mit-drei-Varianten-Konkurrenz-machen.739693.0.html)

das wurde auch Zeit!

Ich hatte schon befürchtet Qualcomm hätte die Nuvia-Cores eingestampft

MSABK
2023-08-08, 15:52:03
Ich glaube es erst wenn ich es sehe.

Windows on ARM ist immer noch eine Nische und wird vermutlich auch nicht durchstarten in nächster Zeit. Sowas wie das MacBook Air M1 ist halt konkurrenzlos in Kombination mit dem OS.

DozerDave
2023-08-08, 16:25:07
Selbst wenn der SoC so schnell ist wie Apples M1/M2, Apple hat das bessere Gesamtpaket aus Hardware und Software.

Daredevil
2023-08-08, 17:04:11
Ich finde das imho kein Hexenwerk. Kein SoC der Welt muss so schnell wie ein M1 sein, dass er Windows passabel abspielt, man denke sich mal an die Netbook Zeit zurück mit den arschlahmen Intel Atoms. :D
M1 Leistung ist ja nun auch schon ein paar Jahre her, ich gehe stark davon aus, das wär ähnliche Leistung sehen werden, die Leuten zu 90% ausreichen wird. Fraglich ist dann nur, ob Windows auch die benötigte Schlankheitskur bekommt, damit beides dann letztens Endes auch zusammen passt.

Microsoft ist da sicherlich auch dran interessiert, ihre eigenen Chips in Surface Dinger zu verpacken ect., zumindest schneller, bevor man eine gute Lösung für die MacBooks in der Hinsicht hin bekommt.
In dem Dev Kit des MacMini für Apple Silicon lag ein ein A13?!, selbst ein aktueller Snapdragon muss doch Windows irgendwie hinbekommen, der M1 langweilt sich doch auch für Office Kram die ganze Zeit.
Aber gut, sowas sowas ist Intel dann auch "gut genug" mit ihren Low Power Kisten, aber halt nicht "sehr gut!!"

Zossel
2023-08-08, 19:28:52
Selbst wenn der SoC so schnell ist wie Apples M1/M2, Apple hat das bessere Gesamtpaket aus Hardware und Software.

Ich finde den Apple-Kram scheiße zu bedienen und ziemlich unpraktisch.

Ailuros
2023-08-09, 11:04:15
Ich finde das imho kein Hexenwerk. Kein SoC der Welt muss so schnell wie ein M1 sein, dass er Windows passabel abspielt, man denke sich mal an die Netbook Zeit zurück mit den arschlahmen Intel Atoms. :D
M1 Leistung ist ja nun auch schon ein paar Jahre her, ich gehe stark davon aus, das wär ähnliche Leistung sehen werden, die Leuten zu 90% ausreichen wird. Fraglich ist dann nur, ob Windows auch die benötigte Schlankheitskur bekommt, damit beides dann letztens Endes auch zusammen passt.

Microsoft ist da sicherlich auch dran interessiert, ihre eigenen Chips in Surface Dinger zu verpacken ect., zumindest schneller, bevor man eine gute Lösung für die MacBooks in der Hinsicht hin bekommt.
In dem Dev Kit des MacMini für Apple Silicon lag ein ein A13?!, selbst ein aktueller Snapdragon muss doch Windows irgendwie hinbekommen, der M1 langweilt sich doch auch für Office Kram die ganze Zeit.
Aber gut, sowas sowas ist Intel dann auch "gut genug" mit ihren Low Power Kisten, aber halt nicht "sehr gut!!"

IMHO ist primaer QCOM daran schuld dass bisher nichts anstaendiges erschienen ist.

Ailuros
2023-09-20, 10:41:43
Semiaccurate ist Semiaccurate, aber sie duerfen dank ihrem Namen auch wirklich halbwegs recht haben. Interessant und mir klingt Oryon oder wie immer sie das Ding nennen werden, als "too little too late", aber trotz allem nicht schlecht mit leicht mehr Leistung als M2:

https://semiaccurate.com/2023/09/12/how-is-qualcomms-oryon-soc-doing/

https://semiaccurate.com/2023/09/19/how-fast-is-qualcomms-oryon-soc/

Ailuros
2023-09-28, 10:09:51
Noch bunter: https://semiaccurate.com/2023/09/26/whats-going-on-with-qualcomms-oryon-soc/

:eek:

Ailuros
2023-10-11, 13:46:04
Nichts sehenswertes nur dass das "neue" Tier Snapdragon X heissen soll:

https://www.androidauthority.com/qualcomm-snapdragon-x-3374114/?fbclid=IwAR0mVN6jqnF4rRQuACmRUPDxpq3HjCN1gQH1croZIHz0CY8P1Ipy5z2qtZw

=Floi=
2023-10-11, 15:01:21
seit ihrer wirren namensgebung bin ich bei dem schuppen raus.
Die großen chips drosselten alle auf das niveau der schnellen mittelklasse chips. Das hat mir auch gezeigt, dass ich dort ne menge geld sparen kann.

Wenn ich wieder was von android brauche, kaufe ich etwas aus der mittelklasse und das wird quch bei qualcomm schon passen.

Ailuros
2023-10-13, 11:34:25
seit ihrer wirren namensgebung bin ich bei dem schuppen raus.
Die großen chips drosselten alle auf das niveau der schnellen mittelklasse chips. Das hat mir auch gezeigt, dass ich dort ne menge geld sparen kann.

Wenn ich wieder was von android brauche, kaufe ich etwas aus der mittelklasse und das wird quch bei qualcomm schon passen.

Mir ist kein ULP SoC bewusst der nicht drosselt; streng genommen passt ULP (ultra low power) ohne DVFS (dynamic voltage & frequency scaling) nicht in den gleichen Satz fuer einen smartphone SoC. Egal ob aus der Android oder iOS Welt wenn's fuer die GPU zu kunterbunt wird drosseln alle nach einiger Zeit um zumindest 25-30%.

Apple's Mx SoCs und auch QCOM's kommender Schnappsdrachen X SoC haben offensichtlich ein um einiges grosszuegigeres DVFS und throtteln um einiges seltener, weil es eben selbst in einem tablet mit passiver Kuehlung fuer den SoC stets mehr Luftraum gibt als in einem smartphone.

Nichtdestominder wenn Charlie oben irgendwo recht haben sollte, kann es durchaus sein dass die X SoCs nicht unbedingt ein besseres perf/W ratio als Apple direkte Konkurrenz haben werden. Wenn's stimmen sollte kann ich es dann aber schon gerechtfertigen, denn das vorige Nuvia team hat server hw und keine hw fuer low end PCs bzw. laptops oder tablets entwickelt. Unter Zeitdruck kann man nicht alles schon beim ersten Versuch hinbekommen. Ich warte erstmal ab wie sich diese X Tiere in Echtzeit verhalten werden.

=Floi=
2023-10-13, 14:09:44
Ich habe auch nichts gegen drosseln! Das war von mir falsch ausgedrückt, aber wenn der schwächere chip dann in der dauerleistung ähnlich schnell ist, sehe ich keinen mehrwert für mich im schnelleren chip.

KarlKastor
2023-10-13, 14:18:49
Bei welchem SoC soll das denn der Fall sein?
An ein gedrosselten 8 Gen2 kommt kein Mittelklasse SoC dran.

=Floi=
2023-10-13, 14:44:27
https://www.notebookcheck.com/Benchmark-Analyse-Qualcomm-Snapdragon-8-Gen-2.669816.0.html
Den Grund dafür finden wir im Stresstest des 3DMark, bei welchem das QRD-Smartphone schrittweise rund 40 Prozent seiner Leistung nach dem siebten Durchgang einbüßt.

https://www.notebookcheck.com/Der-Snapdragon-888-laeuft-heiss-Das-Xiaomi-Mi-11-und-das-iQOO-7-zeigen-Throttling-Probleme-in-neuem-Video.515810.0.html

Ich hatte noch was anderes gelesen, aber das ist schon ewig her. Da ging es imho um den 855/860 gegen den 870er imho. Irgendwo war die mehrleistung dann gedrosselt nur noch minimalst. Nachdem die chips aber das doppelte kosten sehe ich da keinen vorteil.

KarlKastor
2023-10-13, 15:07:49
Dass die GPUs drosseln ist bekannt. Aber selbst mit nur noch 60% der Peakperformance sind sie schneller als Mittelklasse GPUs.
Die Ausnahme sind Samsung gefertigte SoC wie der 888 wenn man eine TSMC gefertigte Mittelklasse ein paar Jahre später vergleicht.
Der 870 war bei Release kein high-end mehr und die 860/855 keine Mittelklasse. Auch hat ein 870 sicher nicht das doppelte von einem 860 gekostet. Vielleicht 10$ mehr.

Badesalz
2023-10-14, 12:52:05
Ich hab wohl ein falsches Bild von der Welt. Während ich mir denke, daß jeder der irgendwas mit ARM SoCs baut, ständig auf die folgenden Lieferungen wartet und bibert und man den Markt damit garnicht so üppig (mehr oder weniger) beliefern kann wie in der pre-Covid-Ära, alles gutes Stück teurer ist und ich mir denke, die verdienen sich alle eine goldene Nase - bis auf Intel :freak: - hat Qualcomm vor um die 20% der Leute aus der CPU-Sparte zu entlassen.

Hmm...

Daredevil
2023-10-14, 13:21:22
Ich habe auch nichts gegen drosseln! Das war von mir falsch ausgedrückt, aber wenn der schwächere chip dann in der dauerleistung ähnlich schnell ist, sehe ich keinen mehrwert für mich im schnelleren chip.
Für gleichbleibende Leistung ( Gaming o.ä. ) mag das stimmen, es gibt aber gerade im Mobile Bereich Anwendungen, wo Peak Performance wichtig ist. Also z.B. beim "entwickeln der Fotos", beim App Start, Codierung von Videos und und und. Also alles, was das dem Smartphone unter 30-60 Sek alles abverlangt, gerade AI Geschichten möchten hier so schnell wie möglich da sein.
Wenn man für ein HighRes Foto 1 Sekunde benötigt oder 3 Sekunden, ist das für spontane Schnappschüsse eine Ewigkeit, gerade wegen der mittlerweile dicken "Computing Photo" Pipeline in Kombination mit "riesigen" Sensoren aka 200mp beim Galaxy.

iamthebear
2023-10-14, 21:11:34
Ich denke hier muss man etwas differenzieren:

Wenn es um die GPU Performance bei Spielen geht, dann ist in erster Linie die Dauerlast entscheidend, denn man will ja nicht nur 1 Minute lang stabile Frameraten haben sondern auch nach 1 Stunde noch bzw. im Sommer

Wenn es um die CPU Performance geht ist das Thema ziemlich irrelevant, da:
a) Bei nur CPU Belastung gar nicht so viel Abwärme entsteht als dass stark gedrosselt werden müsste
b) Es selten Dauerlasten gibt
c) Die meisten Anwendungen sowieso nur 1-2 Kerne nutzen

KarlKastor
2023-10-15, 03:16:59
Ein SD8 Gen2 zieht 11 W unter reiner CPU last. Ein A17 14 W.

Also dass da nicht so viel Wärme entsteht ist nicht richtig. Dass es im Alltag kaum eine Dauerlast gibt, ist hingegen in der Tat der große Faktor.

Ailuros
2023-10-16, 13:54:07
https://www.notebookcheck.com/Benchmark-Analyse-Qualcomm-Snapdragon-8-Gen-2.669816.0.html
Den Grund dafür finden wir im Stresstest des 3DMark, bei welchem das QRD-Smartphone schrittweise rund 40 Prozent seiner Leistung nach dem siebten Durchgang einbüßt.

https://www.notebookcheck.com/Der-Snapdragon-888-laeuft-heiss-Das-Xiaomi-Mi-11-und-das-iQOO-7-zeigen-Throttling-Probleme-in-neuem-Video.515810.0.html

Ich hatte noch was anderes gelesen, aber das ist schon ewig her. Da ging es imho um den 855/860 gegen den 870er imho. Irgendwo war die mehrleistung dann gedrosselt nur noch minimalst. Nachdem die chips aber das doppelte kosten sehe ich da keinen vorteil.

Es throtteln alle ULP SoC GPUs (auch Apple SoCs inklusive). Am meisten throtteln eben dann uebertaktete oder speed binned GPUs (Ansichtssache) wie alles ueber Adreno650@670MHz wo dann ploetzlich ein Adreno660 mit 850MHz ankommt.

Ich bin mir nicht sicher ob es fuer die 8 Gen2 Generation schon mainstream SoCs gibt, aber auf jeden Fall fuer Gen1 war die high end GPU der Andreno730 und mainstream dann Adreno725, wobei selbst wenn ein 730 etwas mehr throtteln sollte, es trotz allem immer noch schneller bleibt als ein 725, eben wie die erste sehenswert mehr Einheiten hat.

Eine 725 wird aber generell weniger throtteln als eine 660 und auch stabiler sein aber erstens ist alles 7xx eine andere Generation, anderer Herstellungprozess und andere Frequenzen. Bei dem Wirrwarr hat man zugegeben selten einen guten Durchblick.

Sonst wenn es streng um Xiaomi's Angebote gehen wuerde und jemand will eine high end SoC GPU kaufen, dann sind die Poco smartphones auf jeden Fall nicht teurer als Xiaomi smartphones mit einer mainstream GPU von der gleichen Generation.

Ailuros
2023-10-19, 13:08:30
https://www.anandtech.com/show/21098/qualcomm-swaps-out-arm-for-risc-v-for-next-wear-soc

QCOM mit RISC V CPUs in zukuenftigen wear SoCs. Fuer etwas groesseres wird es womoeglich noch um einiges dauern, aber ARM wird es wohl schlucken muessen. Die wear SoCs sind zwar klein, aber QCOM hat den groessten Marktanteil fuer deren Verkauf.

mboeller
2023-10-19, 13:22:55
https://www.anandtech.com/show/21098/qualcomm-swaps-out-arm-for-risc-v-for-next-wear-soc

QCOM mit RISC V CPUs in zukuenftigen wear SoCs. Fuer etwas groesseres wird es womoeglich noch um einiges dauern, aber ARM wird es wohl schlucken muessen. Die wear SoCs sind zwar klein, aber QCOM hat den groessten Marktanteil fuer deren Verkauf.

nette Retourkutsche

mboeller
2023-10-23, 06:29:01
Qualcomm Snapdragon 8 Gen3:

Geekbench6:
SingleCore: 2244
MultiCore: 6820
https://www.notebookcheck.com/Leaker-Xiaomi-14-macht-Schluss-mit-einer-ungeliebten-Tradition-Erster-Benchmark-bestaetigt-wichtige-Specs.761291.0.html


Zum Vergleich das iPhone14/15:
https://browser.geekbench.com/ios_devices/iphone-14
https://browser.geekbench.com/ios_devices/iphone-15


Der Vorsprung von Apple ist weg... +/- 10% bei SingleCore sind im Vergleich zu früher einfach nur noch ... unrelevant

dildo4u
2023-10-23, 07:24:55
Ist das iPhone Pro so viel schneller ich hatte 2.8k gesehen?


https://browser.geekbench.com/ios_devices/iphone-15-pro-max

mboeller
2023-10-23, 08:04:50
Ist das iPhone Pro so viel schneller ich hatte 2.8k gesehen?


https://browser.geekbench.com/ios_devices/iphone-15-pro-max

Schon. A17 gegen A16:
https://www.gsmarena.com/apple_iphone_15-12559.php
https://www.gsmarena.com/apple_iphone_15_pro_max-12548.php

Das normale iPhone15 hat ja nicht den neuen SOC bekommen.

dildo4u
2023-10-23, 08:12:11
Also ist Qualcomm immer noch hinten dran und billiger wirds vermutlich nicht.
Die High-End Modelle mit den besten Display werden 1000€+ kosten.

mboeller
2023-10-23, 08:38:58
Also ist Qualcomm immer noch hinten dran und billiger wirds vermutlich nicht.
Die High-End Modelle mit den besten Display werden 1000€+ kosten.

Wenn du das so sehen willst.

Ich kann mich noch an Zeiten erinnern ( ;) ) in denen Android-Phones bei SingleCore glatt 50-100% hinten waren. Da sind die 28,7% + 1 Generation eher vernachlässigbar.

2015:
https://www.notebookcheck.com/Qualcomm-Snapdragon-820-MSM8996-SoC.156135.0.html
https://www.notebookcheck.com/Apple-A9-Smartphone-SoC.150522.0.html

1662 <-> 2552 = 53%

2019:
https://www.notebookcheck.com/Qualcomm-Snapdragon-865-SoC-Benchmarks-und-Specs.448137.0.html
https://www.notebookcheck.com/Apple-A13-Bionic-SoC-Benchmarks-und-Specs.434831.0.html

910 <-> 1332 = 46%

unterschiedliche Geekbench-Versionen

der Snapdragon 8 Gen3 wird im nächsten Jahr auch wieder in Handy's auftauchen, die nur 500-600,- Euro kosten. Gen2 gibt es schon bei Handys mit <400,- Euro (in China):
https://www.gsmarena.com/search.php3?nPriceMax=400&sChipset=116

Ailuros
2023-10-23, 11:01:17
Qualcomm Snapdragon 8 Gen3:

Geekbench6:
SingleCore: 2244
MultiCore: 6820
https://www.notebookcheck.com/Leaker-Xiaomi-14-macht-Schluss-mit-einer-ungeliebten-Tradition-Erster-Benchmark-bestaetigt-wichtige-Specs.761291.0.html


Zum Vergleich das iPhone14/15:
https://browser.geekbench.com/ios_devices/iphone-14
https://browser.geekbench.com/ios_devices/iphone-15


Der Vorsprung von Apple ist weg... +/- 10% bei SingleCore sind im Vergleich zu früher einfach nur noch ... unrelevant

Ist fuer die Adreno GPUs schon seit einiger Zeit der Fall. Adreno740 in Gen2 ist ohnehin schon ein bisschen schneller als selbst die Apple A17 PRO GPU; legt jetzt 750 sagen wir mal nochmal zumindest 20% zu (ziemlich bescheiden eingeschaetzt) liegt dann die 750 um =/>30% vor der A17 GPU. Nur fuer Mx SoCs liegt momentan weiterhin in sehr grossem Vorsprung. Traut man dem Gefluester der Geruechtekueche wird Schnapssdrache X auch keine Baeume aussreissen (zu spaet und zu daemliche Design-Entscheidungen). Nimmt aber irgendwann QCOM auch diese Marktsparte endlich ernster muss sich Apple schon warm anziehen.

dildo4u
2023-10-23, 12:34:46
Specs zum Apple M Konkurrenten.

https://videocardz.com/newz/snapdragon-x-elite-leak-12-core-oryon-cpu-4-6tf-adreno-gpu-lpddr5x-av1-and-wifi7

MSABK
2023-10-23, 13:06:32
Specs zum Apple M Konkurrenten.

https://videocardz.com/newz/snapdragon-x-elite-leak-12-core-oryon-cpu-4-6tf-adreno-gpu-lpddr5x-av1-and-wifi7

Will nicht wissen wie viel die Geräte kosten werden. Die lahmen Arm Notebooks sind ja schon mega teuer.

dildo4u
2023-10-23, 13:20:35
Waren die zum Launch extrem Teuer?
Das sieht OK aus.


https://geizhals.de/lenovo-thinkpad-x13s-g1-thunder-black-21bx001lge-a2767757.html

Ganon
2023-10-23, 13:41:56
Waren die zum Launch extrem Teuer?
Das sieht OK aus.

~1700€ zum Release vor einem Jahr. Und abseits von Geekbench ist die Performance eher meh für den Preis. Da muss man schon Wert auf Lüfterlosigkeit und/oder lange Akkulaufzeit legen. Und ggf. hier und da instabile Software durch mangelhafte Emulation / schlechte Treiber in Kauf nehmen.

https://www.computerbase.de/2022-09/lenovo-thinkpad-x13s-test/

Ailuros
2023-10-23, 15:47:37
Waren die zum Launch extrem Teuer?
Das sieht OK aus.


https://geizhals.de/lenovo-thinkpad-x13s-g1-thunder-black-21bx001lge-a2767757.html

Was hat ein smartphone SoC mit X genau gemeinsam? Fuer den SoC ist das oben verlinkte schon extrem teuer und alles andere als OK, wenn man bedenkt was fuer ein laptop man mit knapp 840 EUR kaufen kann; schon gar nicht mit einem 13" display.

Ganon
2023-10-24, 22:05:12
Die Qualcomm Snapdragon X Benchmarks die Qualcomm so präsentiert laufen scheinbar unter Linux und nicht Windows@ARM:

https://twitter.com/never_released/status/1716907515362021435

mocad_tom
2023-10-24, 22:31:06
ich hab das samsung galaxy book S mit dem ARM prozessor.
in firefox auf twitter gehen ist einfach nur broken.
nach 5 minuten scrollen mit sofort loslaufenden video files kommen grafikartefakte daher.

im edge chromium und in google chrome das gleiche, dort braucht man halt 20 minuten.

der gpu treiber für windows ist total kaputt.

mboeller
2023-10-25, 06:47:02
Snapdragon X Elite:
https://www.notebookcheck.com/Qualcomm-Snapdragon-X-Elite-stellt-sich-Intel-Meteor-Lake-und-Apple-M3-mit-12-Oryon-Kernen-und-4-6-TFLOPs-iGPU.760433.0.html

Snapdragon 8 Gen3:
https://www.notebookcheck.com/Snapdragon-8-Gen-3-gelauncht-Kamera-Flaggschiffe-2024-so-AI-smart-wie-Googles-Pixel-8-aber-viel-schneller-und-effizienter.760420.0.html

Wenn die Benchmark-Leaks von Gen3 stimmen, dann ist ein X-Elite in Single-Thread ca. 44% schneller. 3227 @ 4.3GHz gegen 2244 @ 3.3GHz. Pro MHz bleiben aber nur ca. 10% übrig. Etwas mickrig für komplett neue Kerne.

robbitop
2023-10-25, 06:53:07
Naja man hat sich mit Nuvia auch ganz schön lange Zeit gelassen. In der Zwischenzeit gab es 3 neue Cores von ARM.
Wobei der Takt mit über 4 GHz schon echt hoch ist für mobile ARM.

Tarkin
2023-10-25, 07:54:13
kannst grad vergessen diese ganzen performance Vergleiche.... alleine das LPDDR5X-8533-Interface mit 136GB/s ist die halbe Miete speziell bei Geekbench MT und GPU Benchmarks.

basix
2023-10-25, 09:13:32
Sag das dem M2 Max mit 400GB/s Bandbreite ;)

Ganon
2023-10-25, 09:47:40
Vergleiche sind so oder so schwierig. Wenn es danach geht, laufen diese ganzen High End ARM SoCs bereits an der Kotzgrenze, während x86 SoCs historisch/abwärtskompatibilitätsbedingt eher mit angezogener Handbremse laufen. Die könnten auch 20-30% schneller sein, rein mit Software Anpassungen und vermutlich noch mal eine ganze Schippe mehr, wenn sie auch an einem >= 200GB/s Speicherinterface hängen würden.

Letztendlich zählt aber das was am Ende an Leistung ankommt und nicht was theoretisch irgendwo noch möglich wäre, wenn man dann mal was anderes machen würde.

Zossel
2023-10-25, 09:53:19
Vergleiche sind so oder so schwierig. Wenn es danach geht, laufen diese ganzen High End ARM SoCs bereits an der Kotzgrenze, während x86 SoCs historisch/abwärtskompatibilitätsbedingt eher mit angezogener Handbremse laufen. Die könnten auch 20-30% schneller sein, rein mit Software Anpassungen und vermutlich noch mal eine ganze Schippe mehr, wenn sie auch an einem >= 200GB/s Speicherinterface hängen würden.

Hast du dir das einfach ausgedacht oder kannst du das konkret begründen?

MSABK
2023-10-25, 09:54:51
Schon Mega interessant der Chip. Wird aber für die Masse keine Rolle spielen da es wahrscheinlich eh nur in 2000€ Geräten verbaut wird.

Ganon
2023-10-25, 10:02:10
Hast du dir das einfach ausgedacht oder kannst du das konkret begründen?

Ein Beispiel ist z.B. ClearLinux von Intel. Wendet durch die Bank weg Software-Optimierungen an. Läuft dann aber halt auch nur auf relativ aktuellen CPUs und nicht mehr auf der Gurke von vor 10 Jahren.

https://www.phoronix.com/review/xeon-max-linux-software

While going from Ubuntu 22.04.3 LTS to Ubuntu 23.10 yielded some nice improvements for the Xeon Max 9480 performance on this Supermicro server, moving to Clear Linux yielded 34% better performance out-of-the-box out of 43 benchmarks carried out. Part of the strong gains are from defaulting to the "performance" governor by default rather than "schedutil" as is commonly used by most Linux distributions. But even with CentOS Stream 9 on this server where it too uses the performance governor, Clear Linux was still 13% faster than that RHEL upstream.

Praktisch 34% mehr Leistung rein durch Software/Scheduler Anpassung. 13% Mehrleistung wenn man den Scheduler raus nimmt und rein auf die Software-Optimierung (höheres Feature Set) schaut. Und kannst dir sicher sein, dass Apples (und Qualcomms) Compiler Target nicht "generic AArch64" ist. Denn nicht vergessen: Generic x86_64 heißt: 64bit mit SSE2 :ugly: Siehe auch hier (https://www.phoronix.com/news/GCC-11-x86-64-Feature-Levels). Wird aber so gut wie nirgendwo genutzt bzw. befindet sich immer noch in einer Planungsphase.

Ein weiterer Punkt ist die Memory Page Size ganz ab vom Speicherinterface. High ARM SoCs fahren gerne page sizes >= 16kb. x86 SoCs fahren in der Regel mit 4KB page size. Man könnte es auch umkonfigurieren, aber nicht jede Software/Treiber kommt damit zurecht.

Dann halt eben das Speicherinterface. Wie schon gesagt wurde, so ein M2 Max hängt an einem 400GB/s Interface. So ein Ryzen 7480 hat ~100GB/s, je nach RAM-Geschwindigkeit +-30GB/s?

Da liegt im Vergleich noch ganz viel Performance auf der Straße, die man nicht aufgreift, weil es dann entweder nicht mehr auf älteren CPUs läuft, oder nicht 100%ig kompatibel ist.

edit:
Interessant würde auch noch mal Intel APX werden, weil dann hätten x86 und ARM die gleiche Anzahl an General Purpose Registern. Aktuell hat so eine x86_64 CPU ja nur die Hälfte im Vergleich zu ARM.

dildo4u
2023-10-25, 10:07:35
Schon Mega interessant der Chip. Wird aber für die Masse keine Rolle spielen da es wahrscheinlich eh nur in 2000€ Geräten verbaut wird.

Was anderes macht kein Sinn für diese Version wenn sie im Bereich M2 Max ist spricht aber nix dagegen das es kleinere Modelle gibt.
Es ist vermutlich nicht wirtschaftlich nur perfekte Chips zu verkaufen, selbst Apple deaktiviert in Low End Modellen Teile vom Chip für bessere Yields .

MSABK
2023-10-25, 12:40:52
Was anderes macht kein Sinn für diese Version wenn sie im Bereich M2 Max ist spricht aber nix dagegen das es kleinere Modelle gibt.
Es ist vermutlich nicht wirtschaftlich nur perfekte Chips zu verkaufen, selbst Apple deaktiviert in Low End Modellen Teile vom Chip für bessere Yields .

Ja so wird es wahrscheinlich sein, wobei die beschnittenen Chips wahrscheinlich nicht schneller als 8cx sein werden.

Aber letztendlich fehlt ein gutes Gesamtpaket. Die Laptops sind einfach unausgewogen (und viel zu teuer) und nicht für die Masse gedacht. Das MacBook Air M1 hat die Messlatte schon sehr hoch gelegt, obwohl das ein recht einfaches Notebook ist.

Daredevil
2023-10-25, 13:00:00
Ein moderner Smartphone SoC reicht für 90% der Leute heute locker aus, wenn man bedenkt, das manche noch vor wenigen Jahren für nen Intel Dual Core ( !!! ) über 1000€ ausgegeben haben und glücklich waren. Es fehlt auf der einen Seite Software ( Windows ) und auf der anderen Seite der Wille ( Apple ).

dildo4u
2023-10-25, 13:36:45
Intel und AMD werden genau so den KI Hype vermarkten und mehr Kohle nehmen ich bezweifle Schnäppchen mit Meteor Lake.

y33H@
2023-10-25, 14:06:11
€1000 für nen Dualcore vor "wenigen" Jahren? das gab's zuletzt beim Core 2 Extreme X6800 anno 2006 ... ich würde 17 Jahre jez nicht als wenig bezeichnen ^^

robbitop
2023-10-25, 14:12:31
Also wenn die Claims von QC stimmen (ST schneller als M2, GPU deutlich energieeffizienter als Intel und AMD), wäre das schon wirklich beachtlich.
Bringt ggf. neuen Schwung in den Markt.
Aus meiner Sicht gab es bei Apple eine ziemliche Stagnation der Leistungs und Perf/W Steigerung seit A14/M1. Sowohl in der GPU als auch CPU. Selbst A17 Pro mit dem neusten CPU Core und 3 nm macht kaum einen Sprung in den Metriken.

Ich fange langsam an zu glauben, dass mit den Nuvia Leuten die Top Macher weg sind und jetzt eine Kernkomponente bei Apple fehlt.

Daredevil
2023-10-25, 14:30:05
€1000 für nen Dualcore vor "wenigen" Jahren? das gab's zuletzt beim Core 2 Extreme X6800 anno 2006 ... ich würde 17 Jahre jez nicht als wenig bezeichnen ^^

Hab das „alte“ Intel MBA als negativ Beispiel genommen. :D

Edit: MacBook Air 2019
1,6 GHz Dual‑Core Intel Core i5 (Turbo Boost bis zu 3,6 GHz) mit 4 MB L3 Cache

=Floi=
2023-10-25, 14:44:36
Aus meiner Sicht gab es bei Apple eine ziemliche Stagnation der Leistungs und Perf/W Steigerung seit A14/M1. Sowohl in der GPU als auch CPU. Selbst A17 Pro mit dem neusten CPU Core und 3 nm macht kaum einen Sprung in den Metriken.


weil das grunddesign so gut optimiert ist! Es macht für apple wohl auch für die software sinn, dann nicht alles umzuwerfen und die schritte in der fertigung werden auch kleiner.
Ich kann mir vorstellen, dass grosse sprünge bei apple nur alle paar jahre kommen.


Nebenbei sind die gleineren schritte bei der grundperformance ok. Es fühlt sich schlecht an, aber im alltag ist jeder chip ausreichend.

davidzo
2023-10-25, 16:58:38
Was anderes macht kein Sinn für diese Version wenn sie im Bereich M2 Max ist spricht aber nix dagegen das es kleinere Modelle gibt.
Der Gegner ist eher der M2pro (bzw. M3 pro), die GPU-Rohleistung liegt sogar nur knapp über dem Basis-M2.
Der CPU-Teil vom M2max und Pro ist ja eh identisch, aber die GPU und die Codecs und Thunderbolt ist beim Max eben doppelt so groß, bzw. dreimal so fett wie beim Oryon.

Den M2Pro halte ich für erreich- bzw. in der CPU-leistung für übertreffbar. Beim Launch Mitte nächstes Jahr muss man aber wohl eher gegen den M3pro in N3E antreten, der wohl die deutlich schnellere GPU haben wird und noch dazu volle RT unterstützung. 4+Ghz sind für Apple dann auch nicht unrealistisch. Mal sehen wie das Nuvia Design mit einem Fertigungsrückstand klarkommt.
Oryon muss aber auch einen spürbaren Vorsprung zum Launch haben, da sonst das stabilere Ökosystem mehr wiegt. Sowohl Apple als auch x86 haben nicht über mangelnde Kompatibilität und Optimierung zu klagen. Windows on Arm dagegen ist zuweilen ein Trauerspiel...

Mich wundert das Qcom so hohe Taktraten angesetzt hat. Zusammen mit den Gerüchten dass der Verbrauch höher als erwartet ist und dadurch die geplante VRM Lösung nicht auf Anhieb funktioniert hat, sieht das eher nicht gut aus für die Effizienz. Apple könnte den M2pro wahrscheinlich auch auf 4Ghz bringen, hat sich aber gegen die Brechstange entschieden. Es könnte sein das Qcom die Brechstange eben braucht weil sie sich sonst nicht genug von den unerwartet starken AMD, Intel und Apple CPUs absetzen können. Immerhin war die CPU für 2023 geplant, nicht 2024 und schon die Übernahme 2021 dürfte das Team wertvolle Zeit gekostet haben.

Also wenn die Claims von QC stimmen (ST schneller als M2, GPU deutlich energieeffizienter als Intel und AMD), wäre das schon wirklich beachtlich.

In den Claims und Folien ist man auf jeden Fall auf dem größten Bullshitniveau angekommen. Denkt man die Fachpresse ist so einfältig dass die sich ohne jegliche technischen Daten abspeisen lassen? Selbst Apple nennt den Transistorcount und Diesizes und 3rd party Benchmarkwerte sickern irgendwie durch. Die skalenlosen Grafen übertreffen sogar Intel und Apple im Mangel an Aussagekraft. Die haben halt von den besten der besten der besten gelernt :freak:


Ich fange langsam an zu glauben, dass mit den Nuvia Leuten die Top Macher weg sind und jetzt eine Kernkomponente bei Apple fehlt.

Dass Qualcomm ein kleines Startup kaufen musste obwohl sie mal ein eigenes Prozessorhaus mit Top-Talenten waren ist jedenfalls kein gutes Zeichen.

Ich fange langsam an zu glauben dass es einen Grund gibt wieso QComs eigenes Prozessorteam zugrunde gegangen ist. All dem Marktgebaren nach zu urteilen, schon beim 8CX und jetzt beim X Elite, wird die Firma von einem Wasserkopf aus Business-Beratern geleitet die alle Brad, Maxwell oder Tanner heißen und direkt von McKinsey gehired wurden. Eine Weile lang können solche Leute die Firma von Innen aushöhlen und satte Gewinne einfahren bevor der angerichtete Schaden sichtbar wird. Erstmal merkt man das nicht wenn alle ambitionierten Ingenieure die Firma verlassen, da deren Projekte erst in ein paar Jahren auf den Markt kommen sollten.
Die Story mit den gebundelten PMICs die für die Oryon Verzögerung gesorgt haben klingt jedenfalls nach genau solchem Micromanagement von Wirtschafts-beratern. Wenn die in der Überzahl sind und sich zu viel einmischen in die technische Entscheidungen, dann schlägt das irgenwann jeden noch so geldgeilen Ingenieur in die Flucht.

Gerard Williams III, Gulati etc. hätte man ja auch früher mal von Apple abwerben können, wo die aus womöglich ähnlichen Gründen ja unzufrieden waren. Aber auf Qcomm oder Intel hatten die Ingenieure wohl damals auch keinen Bock. Mal sehen wie lange die da noch bleiben. Erst dann weiß man ob das wirklich nachhaltig von Qcomm war oder die das auch mal wieder verkackt haben.

Ich bin jedenfalls skeptisch und halte es für viel zu früh um irgendwelche Lobgesänge anzustimmen.

robbitop
2023-10-25, 19:19:05
weil das grunddesign so gut optimiert ist! Es macht für apple wohl auch für die software sinn, dann nicht alles umzuwerfen und die schritte in der fertigung werden auch kleiner.
Ich kann mir vorstellen, dass grosse sprünge bei apple nur alle paar jahre kommen.


Nebenbei sind die gleineren schritte bei der grundperformance ok. Es fühlt sich schlecht an, aber im alltag ist jeder chip ausreichend.

Ja aber dieses statement hätte man zu jedem Zeitpunkt über CPUs sagen können seit langer Zeit und dennoch hat Apple seit A7 aufgedreht. Und seit 2019 ist die Luft raus. Andere hingegen fangen jetzt an aufzudrehen. IMO ist obiges nur Beschönigend. Man war dem Wettbewerb lange voraus aber sie holen auf und ggf werden sie sogar überholt.

Ganon
2023-10-25, 20:06:44
Heute kam eine Tonne Patches für den Linux Kernel rein, für Linux Mainline Support des Snapdragon 8 Gen 3

https://lore.kernel.org/all/?q=sm8650

zst
2023-10-25, 20:52:25
Heute kam eine Tonne Patches für den Linux Kernel rein, für Linux Mainline Support des Snapdragon 8 Gen 3

https://lore.kernel.org/all/?q=sm8650

Das sind immerhin die Basics, aber ohne GPU/VPU Support nutzlos.
Geheimniskrämerei rund um die secret sauce rund um Hexagon NPU / DSP / 5G-Modem ist halt aus Entwickler- und Nutzersicht ärgerlich.

Ridcully
2023-10-25, 23:15:38
Das qualcomm endlich ernsthafte pc cpus bauen will bietet für Laptops und pc viel potenzial. Was Geschäftsgebaren gegenüber Kunden und Partnern angeht gilt qualcomm leider als schwierig.

Das sie zu Apple aber überhaupt aufholen konnten liegt in meinen Augen daran das Apple alles an Ressourcen in chipfläche und Entwicklung in die neutral Engine gesteckt hat. die Hexagon NPU liegt aber wohl weit hinter der Lösung von Apple.

Nightspider
2023-10-26, 00:43:47
Ich freue mich das die Effizienz des Snapdragon 8 Gen 3 sich in guten Schritten weiter verbessert.

NPU:
Leistung +100%
Effizienz + 40%

CPU:
Leistung +30%
Effizienz +20%

GPU:
Leistung +20%
Effizienz +25%

Und das im gleichen Fertigungsprozess

Bei den Smartphones dann bitte noch 500mAh mehr verbauen und ich werde lange glücklich damit sein.

robbitop
2023-10-26, 08:05:58
Einfach immer nachts laden. Dann kann man es nicht vergessen und steht nie mit leerem Akku da. Hatte ich noch nie seit dem ich Smartphones hab.

MSABK
2023-10-26, 12:43:30
Tdp soll wohl bis zu 80W gehen.

Laut Qualcomm kann der Chip, der in TSMCs N4P-Verfahren hergestellt wird, mit einer TDP von 25 bis 80 Watt betrieben werden, die meisten Notebooks sollen sich aber mit maximal 45 Watt begnügen.

https://www.notebookcheck.com/Snapdragon-X-Elite-unterstuetzt-TDP-bis-80W-DirectX-und-PCIe-4-0-Qualcomm-demonstriert-DaVinci-Resolve-und-Spiele.762520.0.html

davidzo
2023-10-26, 12:59:43
Ich bin echt schockiert das keiner der anwesenden Journalisten die Diesize ausgemessen hat, dabei kursierten Package+Chip Samples herum.

https://images.anandtech.com/doci/21109/SDX-Elite-Package.jpg
https://images.anandtech.com/doci/21109/SDX-Elite-Package.jpg

Sind die Parties auf Maui wirklich so gut oder hatte Qualcomm nur zu viele StripperInnen bestellt das die Journalisten so abgelenkt waren ;D

Ailuros
2023-10-26, 13:37:43
Ich warte lieber erstmal die ersten Geraete, deren Preise, Stromverbrauch und die ersten unabhaengige reviews fuer diese ab.

Stimmt es dass QCOM dem design-team fuer smartphone PMICs fuer die SoCs gezwungen hat, handelt es sich lediglich um eine viel zu teure Loesung nur damit QCOM behaupten kann dass sie etwas mit relativ kleiner Verspaetung veroeffentlicht haben. Unter solchen Bedingungen wuerde ich keinen Kauferfolg erwarten und Intel, AMD und auch indirekt Apple koennen sich beruhigt ins Faeustchen lachen.

***edit: apropos Leistungs-stillstand fuer A1x/M SoCs: fuer smartphone SoCs ist die Leistungs-steigerung tatsaechlich im Schneckentempo seit A13: https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu&ff-check-desktop=0

M2 legte im Gegensatz zwar schon dazu aber eben leider mit teilweise schlechterer Effizienz u.a. auch dank fehlendem neuen Herstellungsprozess. Fuer M3 erwarte ich um ehrlich zu sein eine angenehmere Ueberraschung als M2 vs. M1.

dildo4u
2023-10-26, 13:49:57
Snapdragon 8 Gen 3 vs Apple A17 Pro.
Er hat hier sogar zwei Werte für 770mhz und 900mhz für die GPU.

https://abload.de/img/screenshot2023-10-26199e8v.png


JzTrDyoLHTg

=Floi=
2023-10-26, 15:28:56
Dass Qualcomm ein kleines Startup kaufen musste obwohl sie mal ein eigenes Prozessorhaus mit Top-Talenten waren ist jedenfalls kein gutes Zeichen.

Ich fange langsam an zu glauben dass es einen Grund gibt wieso QComs eigenes Prozessorteam zugrunde gegangen ist. All dem Marktgebaren nach zu urteilen, schon beim 8CX und jetzt beim X Elite, wird die Firma von einem Wasserkopf aus Business-Beratern geleitet die alle Brad, Maxwell oder Tanner heißen und direkt von McKinsey gehired wurden. Eine Weile lang können solche Leute die Firma von Innen aushöhlen und satte Gewinne einfahren bevor der angerichtete Schaden sichtbar wird. Erstmal merkt man das nicht wenn alle ambitionierten Ingenieure die Firma verlassen, da deren Projekte erst in ein paar Jahren auf den Markt kommen sollten.
Die Story mit den gebundelten PMICs die für die Oryon Verzögerung gesorgt haben klingt jedenfalls nach genau solchem Micromanagement von Wirtschafts-beratern. Wenn die in der Überzahl sind und sich zu viel einmischen in die technische Entscheidungen, dann schlägt das irgenwann jeden noch so geldgeilen Ingenieur in die Flucht.

Gerard Williams III, Gulati etc. hätte man ja auch früher mal von Apple abwerben können, wo die aus womöglich ähnlichen Gründen ja unzufrieden waren. Aber auf Qcomm oder Intel hatten die Ingenieure wohl damals auch keinen Bock. Mal sehen wie lange die da noch bleiben. Erst dann weiß man ob das wirklich nachhaltig von Qcomm war oder die das auch mal wieder verkackt haben.

Ich bin jedenfalls skeptisch und halte es für viel zu früh um irgendwelche Lobgesänge anzustimmen.


weil es sich einfach nicht lohnt. Die 10-15% mehr bezahlt keiner der kunden und alles müsste besser angepasst werden. Die stock core designs werden einen guten preis haben und die performance reicht aus.

davidzo
2023-10-26, 17:32:21
weil es sich einfach nicht lohnt. Die 10-15% mehr bezahlt keiner der Kunden und alles müsste besser angepasst werden. Die stock core designs werden einen guten preis haben und die performance reicht aus.

Ja das ist die Ausrede der Manager weil grobes Missmanagement natürlich keiner zugeben würde. Es sind natürlich nur die äußeren Umstände, die Entscheidungen waren quasi "alternativlos". Und wenn doch jemand intern schuld war, dann natürlich die Mitarbeiter, denn ohne die wären die Manager erst gar nicht in diese Situation gekommen.

Denselben Quatsch musste man sich bis vor kurzem von BMW und Mercedes anhören, wieso sie denn noch keine Elektro-Strategie hatten: Es lohnt sich nicht, die Entwicklung zu teuer, die Akkus zu teuer, die Marge zu gering und Tesla wird bei den Preisen nie kostendeckend arbeiten können. Und jetzt sind sie technologisch abgehängt, die Deutsche Autoindustrie ist zum Treppenwitz der globalen Finanzinvestoren geworden.

Schlechten Managern fehlt es nicht an Erfahrung sondern an Vorstellungskraft, Urteilsvermögen und Innovationsgeist. Seien wir ehrlich: Das sind nicht die äußeren Umstände gewesen weder bei BMW noch bei Qualcomm, das sind einfach schlechte Manager gewesen.

Wieso hat es sich denn Jahrzehntelang gelohnt eigene Designs zu machen? Wieso dann mit Armv8 nicht mehr? Wieso lohnt es sich jetzt plötzlich wieder AmV8 Eigendesigns zu machen? Wieso hat es sich für Apple trotzdem die ganze zeit gelohnt?

Qualcomm wurde einfach eine Zeitlang sehr schlecht gemanaged und ich bin mir nicht so sicher ob sich das jetzt wirklich gebessert hat:

1. Qualcomm hatte seit den 2000ern sehr solide Einnahmen aus CDMA Lizenzen was ihnen reichlich Spielgeld für R&D Projekte verschafft hat.

2. In den frühen 2010ern hat Qualcomm den Markt an 32bit armv7 Chips mit ihren inhouse Designs Scorpion und Krait absolut dominiert. S4 und S4pro konnten es locker mit dem A5 und A6 aufnehmen.

3. Der Apple A7 als erste Armv8 CPU war zwar ein Schock für Qcom, aber keine große Bedrohung denn im ST nur bis zu 20% schneller in z.B. Sunspider als ein Snapdragon 805 und in MT führten weiter Qcoms beste SOCs die außerdem höher integriert waren und weniger Diefläche verbrauchten.

4. Der erste große Managementfehler war 64bit ARM völlig unterschätzt zu haben. Man hat einfach verschlafen eine Armv8 Architektur zu entwickeln. Eine Krait Version mit 64-bit wurde zwar begonnen aber war noch Jahre vor der Fertigstellung, weshalb man als Notlösung erstmal Arms Cortex A57 lizensieren musste.

5. Da Krait64 alias Kryo zwar sehr hochtaktend war wie frühere Kraits aber eben kein Design für die Zukunft hat man spätestens 2015 die ambitionierten Falcor Armv8 Kerne begonnen. Dafür hat man sogar den Chef der Intel Ultrabooksparte, Anand Chandrasheker abgeworben. Anstatt dann aber einen mobile Soc zu bauen hatte Qcomm ein Auge auf Intels margenträchtigen Servermarkt geworfen und das Projekt zu einer gesockelten ServerCPU ausgebaut.

6. Qcomms Manager haben hoch gepokert und wollten mit den satten Gewinne aus den CDMA Lizenzen neben Server-R&D gleichzeitig auch noch die Übernahme von Konkurrenten wie NXP durchziehen. Dadurch geriet man selber in Schwierigkeiten und wurde als Strafe beinahe von Broadcom geschluckt.

7. Um möglichst viele Enterprisekunden zu überzeugen hat man für den Centriq serverprozessor features wie wie Quality of service Hardware abstraction layer und Policies, el3 trustzone, ecc cache etc. eingebaut mit denen man vorher eben keine Erfahrung hatte. Entsprechend länger hat alles gedauert.

8. Nach Server-Demos in 2017 zog sich die Verifizierung der Plattform noch in die Länge und in 2018 hat Qualcomm vor dem Launch noch den Stecker gezogen und sogar das Raleigh Design center geschlossen.

9. Da die Falkor kerne aber ein reines 64bit Design ohne Abwärtskompatibilität waren, konnte man die Architektur nicht in Mobilen Socs anbieten, da Android so fragmentiert war und in vielen Regionen noch 32bit erforderte.

10. Das Management fokussierte sich dann mehr auf Lizenzeinnahmen, da man scheinbar mehr Erfolg in milliardenschweren Pantentrechtsverfahren hatte als mit eigener Hardware.

11. Nach einem CEO-Wechsel gab es eine Kehrtwende und man kaufte mit Nuvia ein Armv8 Designteam ein. Zum dritten mal versucht man nun eine eigene Armv8 Architektur zu etablieren wie in den guten Zeiten der Krait Architektur und Armv7. Als Ironie der Geschichte ist diese natürlich wieder 64bit only.

Qualcomms Geschichte ist also eine Aneinanderreihung von de facto Monopolismus und Patentmissbrauch, massiven Margen und Gewinnen, innovationskritischer konservativer Produktstrategie, Megalomanie, Missmanagement und Spekulation und späte Reue.

=Floi=
2023-10-28, 02:26:49
Bei den e autos hatte warten auch vorteile. Die entwicklung haben andere gemacht und das ganze muss erst in den köpfen der kunden ankommen. Du brauchst auch dort die immensen stückzahlen und das kostet einfach richtig viel, bis diese fertigung aufgebaut ist und skaliert.
Erst jetzt kommt das ganze ins rollen und solche entwicklungen wie die großen 46er zellen hat es zB. vorher nicht gegeben.
Weltweit bleibt der absatz mit verbrennern noch extrem hoch! Das fällt in unserer deutschen bubble nicht so auf.


Ja, das ist total angesächsisch und typisch, nichts zu machen. Ich bin da voll bei dir. Es gibt viele bereiche, wo der konkurrent der forscht und invenstiert davonzieht. TSMC ist ja auch so ein fall und bei apple nimmt man einfach das geld in die hand. Apple hat den vorteil der stückzahl und integriert immer mehr eigene technologie in die eigenen produkte. Die sehen darin vorteile und setzen es einfach um.


Die frage ist auch, was die kunden bei qualcomm sagen, wenn ein spezialisierter chip auf den markt käme. Von denen will doch auch keiner geld in die hand nehmen.
Die verbreitung von günstigen chips von bradcomm und mediatec spricht auch dafür, dass das standardzeug reicht und die kunden nur günstige preise wollen.

Rooter
2023-10-29, 19:42:25
Ich freue mich das die Effizienz des Snapdragon 8 Gen 3 sich in guten Schritten weiter verbessert.

NPU:
Leistung +100%
Effizienz + 40%

CPU:
Leistung +30%
Effizienz +20%

GPU:
Leistung +20%
Effizienz +25%

Und das im gleichen FertigungsprozessDas ist aber Leistung +xx% oder Effizienz +xx%. Nicht beides zusammen.

MfG
Rooter

iamthebear
2023-10-29, 22:04:41
Das ist doch kein Node Vergleich.

Ich interpretiere das so:
1.3x Performance
1.1x Verbrauch
Also 1.2x Effizienz

Also ich bin 1.3x so schnell fertig und verbrauche für die gesamte Arbeit 1.2x weniger Energie

Nightspider
2023-10-30, 01:31:57
Zumal die SoCs seltenst unter Volllast laufen.

Schneller fertig -> schneller heruntertakten/idle

mboeller
2023-10-30, 06:40:44
Das ist aber Leistung +xx% oder Effizienz +xx%. Nicht beides zusammen.

MfG
Rooter

ich würde das auch so lesen, aber es gibt zum Xiaomi 14 eine Folie, die was anderes sagt:

https://www.notebookcheck.com/fileadmin/_processed_/4/4/csm_Bench292_b4fe1f450d.jpg

Selbst bei max. Leistung (zumindest interpretiere ich das Chart so, Chinesisch kann ich leider nicht) geht der Verbrauch um 10% runter (3,4w -> 3,1w).

Daredevil
2023-10-30, 08:46:38
Eine 450w 4090 ist auch im Peak schneller als eine 3090 und bei Teillast sparsamer. Es kommt doch immer drauf an, wo die Kotzgrenze des Chips ist und wie man die Kiste bewusst laufen lässt.

MasterElwood
2023-10-30, 09:08:14
Wie wird EFFIZIENZ eigentlich gemessen?

Bei optimaler Auslastung?
Max. Auslastung?
Übers gesamte Spektrum?

Ailuros
2023-10-30, 12:05:27
...........
Qualcomms Geschichte ist also eine Aneinanderreihung von de facto Monopolismus und Patentmissbrauch, massiven Margen und Gewinnen, innovationskritischer konservativer Produktstrategie, Megalomanie, Missmanagement und Spekulation und späte Reue.

Stimmt leider schon. Sonst haetten wir schon seit langem einen SoC Kandidaten von QCOM der sich anstaendiger gegen Intel/AMD in low end laptops stellen koennte.

Ailuros
2023-10-30, 12:09:14
ich würde das auch so lesen, aber es gibt zum Xiaomi 14 eine Folie, die was anderes sagt:

https://www.notebookcheck.com/fileadmin/_processed_/4/4/csm_Bench292_b4fe1f450d.jpg

Selbst bei max. Leistung (zumindest interpretiere ich das Chart so, Chinesisch kann ich leider nicht) geht der Verbrauch um 10% runter (3,4w -> 3,1w).

OT: blau ist fuer 120Hz gegen orange 60Hz? (ehrliche Frage)

Nightspider
2023-10-30, 12:17:29
Ich wusste gar nicht, dass das Qualcomm Management so lange solch schlechte Entscheidungen getroffen hat.

Was die Modems betrifft war/ist Qualcomm ja schon Technologieführer über eine Dekade lang oder?


Mit jeder Gen verbessert sich da die Effizienz bei 4G, 5G, WiFi usw

Ailuros
2023-10-30, 12:25:59
Viele grosse Semis treffen von Zeit zu Zeit daemliche Design-Entscheidungen. Am schlimmsten duerfte es IMHO bei Samsung sein da es sich um einen Mega-konzern handelt mit unendlichem buerokratischem Schlammasel.

Soll jetzt aber nicht heissen dass Produkte von A, B oder C gleich beschissen sind. Fuer ULP SoCs ist QCOM der zweifellose Koenig in der Android Welt. Wenn aber ein jeglicher so grosser Semi weiterwachsen will muss man irgendwann auch in alternative Maerkte dringen.

Zwar brutal vereinfacht: aber QCOM wird es nicht leicht haben im low end PC/laptop Markt einen groesseren Erfolg zu landen, eben aus aehnlichen Gruenden weil Intel auch nie etwas anstaendiges fuer den ULP SoC erreichen konnte. Je mehr ein semi intern burokratisch verwuschtelt ist und je mehr sie sich dann NICHT fuer einen alternativen Markt anpassen wollen, desto mehr Mist wird intern gebaut.

mboeller
2023-10-30, 14:11:24
Snapdragon X Elite: Qualcomm zeigt ausführlichere Benchmark-Ergebnisse

https://www.notebookcheck.com/Snapdragon-X-Elite-Qualcomm-zeigt-ausfuehrlichere-Benchmark-Ergebnisse.763530.0.html

angeblich folgende Benchmarks, aber alle habe ich auf die Schnelle nicht finden können: Cinebench 2024, Geekbench v6.2, GFXBench Aztec Ruins, 3DMark Wildlife Extreme, UL Procyon AI sowie PCMark 10

MSABK
2023-10-30, 14:14:37
Mal sehen wie die Software wird.

Daredevil
2023-10-30, 14:37:12
Macht heute natürlich am meisten Sinn, wenn heute Nacht vermutlich der M3 vorgestellt wird. :D
Sehr solide bist durchaus super Ergebnisse. Go for it Windows!

Ailuros
2023-10-30, 14:42:37
Snapdragon X Elite: Qualcomm zeigt ausführlichere Benchmark-Ergebnisse

https://www.notebookcheck.com/Snapdragon-X-Elite-Qualcomm-zeigt-ausfuehrlichere-Benchmark-Ergebnisse.763530.0.html

angeblich folgende Benchmarks, aber alle habe ich auf die Schnelle nicht finden können: Cinebench 2024, Geekbench v6.2, GFXBench Aztec Ruins, 3DMark Wildlife Extreme, UL Procyon AI sowie PCMark 10

Mit welchen settings genau Aztec Ruins? Womoeglich Bumsfallera 1080p wo ein M2 ueber 230 fps liefert. In 4k erreicht der M2 40 fps im gleichen offscreen Test, wo wohl die X Elite nicht so gut abschneidet?

Uebrigens sind QCOMs Referenz-Platform Resultate stets beim Optimum.

ryan
2023-10-30, 16:23:45
X Elite im Vergleich mit Intel und AMD. Wild Life Extreme GPU einmal mit 80? Watt (X Elite) und 23 Watt für alle drei.



https://abload.de/img/5spe15.png

https://abload.de/img/6qpdci.png

Control in 1080p und 1440p bei 23W.

https://abload.de/img/74kete.png

https://abload.de/img/8fwfg2.png
https://youtu.be/03eY7BSMc_c


In dem Video gibt es auch Geekbench und Cinebench R24 Werte von X Elite mit 65W CPU power Limit.

Rooter
2023-10-30, 22:58:15
Gibt es schon irgendwo Performance/Watt für X Elite vs M2? Das würde mich mehr interessieren.

MfG
Rooter

Ailuros
2023-10-31, 06:20:56
X Elite im Vergleich mit Intel und AMD. Wild Life Extreme GPU einmal mit 80? Watt (X Elite) und 23 Watt für alle drei.



Danke. Perf/W sieht erstmal auf erstem Blick nicht schlecht aus. Angenommen ich such H1 24' ein mainstream laptop, da muss dann ein laptop mit X sehenswert billiger sein als eins mit einer 3050 z.B.

Snapdragon X Elite: Qualcomm zeigt ausführlichere Benchmark-Ergebnisse

https://www.notebookcheck.com/Snapdragon-X-Elite-Qualcomm-zeigt-ausfuehrlichere-Benchmark-Ergebnisse.763530.0.html

angeblich folgende Benchmarks, aber alle habe ich auf die Schnelle nicht finden können: Cinebench 2024, Geekbench v6.2, GFXBench Aztec Ruins, 3DMark Wildlife Extreme, UL Procyon AI sowie PCMark 10

Update: Jetzt auch mit charts fuer die Resultate. Wieso zum Geier unterstuetzt die X Elite GPU jetzt kein ray tracing? RT wird in allen anderen neuen Adreno GPUs selbst fuer smartphones unterstuetzt und nimmt in hw alles andere als viel Platz ein.

robbitop
2023-10-31, 09:13:11
Naja der neue Snapdragon wird gegen die M3 Reihe antreten müssen, nicht gegen M2. Aber was die CPU angeht ist beim M3 nicht so viel passiert bei den P Kernen.

Damit die ARM SoCs auch für Windowslaptops interessant werden, muss die x86 Emulation von Windows aber noch besser werden. Und der bloat, der selbst bei Teillast und idle den Verbrauch viel höher macht als er sein muss. Und der kaputte Standbymode sollte gefixt werden.
Allerdings hat MS mit dem neuen QCom und Intel Lunar Lake ja auch ein Inventive das zu tun, weil das echte Showcases sein werden.

Dank Lunar Lake sollte es auch auf seiten x86 noch ordentlich Wettbewerb geben was Energieeffizienz angeht.
Mal schauen ob die großen OEMs die QComs dann auch signifikant verbauen. Mit ein paar wenigen Design Wins (wie bisher bei non windows mainstream chips wie ARMs) lässt sich dann auch kein Blumentopf gewinnen. Selbst AMD mit inzwischen Intel im mobile überlegenen APUs kann ein Liedchen davon singen.

Also neben dem SoC noch einige weitere Variablen, auf die QCom hoffentlich Fokus nimmt, Einfluss zu nehmen.

Ailuros
2023-10-31, 10:03:46
Bin wohl nicht der einzige der das benchmark cherry picking bemerkt hat:

https://www.anandtech.com/show/21112/qualcomm-snapdragon-x-elite-performance-preview-a-first-look-at-whats-to-come

Zossel
2023-10-31, 10:05:56
Erst vor wenigen Wochen hat Google angekündigt, gemeinsam mit Qualcomm Android-Geräte auf Grundlage des freien CPU-Befehlssatzes RISC-V vertreiben zu wollen.

https://www.golem.de/news/google-plan-fuer-android-port-auf-risc-v-steht-2310-178960.html

Ailuros
2023-10-31, 10:13:13
https://www.golem.de/news/google-plan-fuer-android-port-auf-risc-v-steht-2310-178960.html

Auch: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13418886&postcount=1814

fondness
2023-10-31, 10:33:25
X Elite im Vergleich mit Intel und AMD. Wild Life Extreme GPU einmal mit 80? Watt (X Elite) und 23 Watt für alle drei.



https://abload.de/img/5spe15.png

https://abload.de/img/6qpdci.png

Control in 1080p und 1440p bei 23W.

https://abload.de/img/74kete.png

https://abload.de/img/8fwfg2.png
https://youtu.be/03eY7BSMc_c


In dem Video gibt es auch Geekbench und Cinebench R24 Werte von X Elite mit 65W CPU power Limit.

Welcher RAM ist da jeweils verbaut? Ohne das zu wissen sind die Resultate wertlos, die 780M hängt zB völlig an der Bandbreite.

robbitop
2023-10-31, 11:38:03
Im Anandtechartik wird 8500er RAM benannt.

IMO wird es langsam mal Zeit für große SLCs damit die Energieeffizienz steigt und die IGPs nicht mehr an der Bandbreite hängen. Hoffentlich wird das (zB über stacking auf einen aktiven Interposer mit viel Cache) mittelfristig massenreif (in Bezug auf preislich sinnvoll für den Massenmarkt). Das wird IGPs dann auf andere Level haben.

Nightspider
2023-10-31, 12:02:15
Wann sollen die großen SoCs auf den Markt kommen?

Das Timing ist jetzt sehr wichtig für QC, AMD wird kommendes Jahr ein paar große Kaliber mit Zen5 auf den Markt bringen, die in jeder Metrik besser sein werden als die Vorgänger.

Wenn der Snapdragon X Elite zu spät auf den Markt kommt, könnte AMD schon wieder mit bessen Benchmarks Qualcomm den Wind aus den Segeln nehmen.

ryan
2023-10-31, 12:41:48
Wieso zum Geier unterstuetzt die X Elite GPU jetzt kein ray tracing? RT wird in allen anderen neuen Adreno GPUs selbst fuer smartphones unterstuetzt und nimmt in hw alles andere als viel Platz ein.


Offenbar wird eine ältere Adreno verbaut.

Snapdragon X Elite uses an older Adreno GPU that does not support features like ray tracing, mesh shaders, variable rate shading and the works. The DirectX FL is limited to 11_1 while 12_2 is required to enable the above.

I just found out that the GPU in the Elite X isn’t very ‘elite’ - apparently it doesn’t support ray tracing and is older than the Adreno in even the SD8G2

https://twitter.com/Geeky_Vaidy/status/1719002761864634604
https://twitter.com/t3mporarybl1p/status/1719105966103474423



Welcher RAM ist da jeweils verbaut? Ohne das zu wissen sind die Resultate wertlos, die 780M hängt zB völlig an der Bandbreite.


Aus dem verlinkten Anandtech Artikel:


Notably, here, both (Qualcomm) laptops are paired with LPDDR5X memory running at 8533Mbps/pin.

Specifically, Qualcomm has collected data from a 2023 Razer Blade 15 (Core i7-13800H) running at an unconstrained TDP, a 2023 Asus ROG Zephyrus G14 (Ryzen 9 7940HS) running at an 80W power limit, and a 2022 13-inch MacBook Pro (M2).


X Elite= LPDDR5X-8533
i7-13800H= DDR5-5200
Ryzen 9 7940HS= DDR5-4800

Das ROG Zephyrus G14 liegt tatsächlich ein Stück unter anderen 780M Geräten, was GPU Leistung angeht. Hier von Wild Life Extreme Unlimited,

Asus ROG Zephyrus G14 7940HS DDR5-4800= 4663
Lenovo Yoga Slim 7 7840S LPDDR5X-6400= 5465 +17%

dildo4u
2023-10-31, 12:45:19
Wann sollen die großen SoCs auf den Markt kommen?

Das Timing ist jetzt sehr wichtig für QC, AMD wird kommendes Jahr ein paar große Kaliber mit Zen5 auf den Markt bringen, die in jeder Metrik besser sein werden als die Vorgänger.

Wenn der Snapdragon X Elite zu spät auf den Markt kommt, könnte AMD schon wieder mit bessen Benchmarks Qualcomm den Wind aus den Segeln nehmen.
PCs powered by Snapdragon X Elite are expected from leading OEMs starting mid-2024.

https://www.qualcomm.com/news/releases/2023/10/qualcomm-unleashes-snapdragon-x-elite--the-ai-super-charged-plat

robbitop
2023-10-31, 12:51:54
Mitte 2024? Bisschen früher launch dann. Das ist ja noch ein Dreiviertel Jahr. Da kommt ja dann schon fast die M4 Serie bei Apple raus (launchen heißt bei Apple kaufbare Geräte). AMD und Intel haben dann auch schon länger ihr Nextgen - gut, dass man M2 und Raptorlake und Phoenix schlägt ^^.

Nightspider
2023-10-31, 13:26:43
Jain, Strix Point soll zwischen Q2 und Q3 kommen und Strix Halo Q4.

Zumindest laut MLID.

dildo4u
2023-10-31, 13:30:28
Mitte 2024? Bisschen früher launch dann. Das ist ja noch ein Dreiviertel Jahr. Da kommt ja dann schon fast die M4 Serie bei Apple raus (launchen heißt bei Apple kaufbare Geräte). AMD und Intel haben dann auch schon länger ihr Nextgen - gut, dass man M2 und Raptorlake und Phoenix schlägt ^^.
Laut Gerüchten ist Meteor Lake nicht schneller als Raptor Lake i9 (Weniger P-Cores) nur AMD plant eine 12 Core APU für 2024.

Meteor Lake 12.5k in Geekbench 6.

https://www.tomshardware.com/news/intel-core-ultra-7-165h-meteor-lake-cpu-underwhelms-in-geekbench-6

Elite X 15k.

https://www.anandtech.com/show/21112/qualcomm-snapdragon-x-elite-performance-preview-a-first-look-at-whats-to-come

fondness
2023-10-31, 14:57:26
Aus dem verlinkten Anandtech Artikel:






X Elite= LPDDR5X-8533
i7-13800H= DDR5-5200
Ryzen 9 7940HS= DDR5-4800

Das ROG Zephyrus G14 liegt tatsächlich ein Stück unter anderen 780M Geräten, was GPU Leistung angeht. Hier von Wild Life Extreme Unlimited,

Asus ROG Zephyrus G14 7940HS DDR5-4800= 4663
Lenovo Yoga Slim 7 7840S LPDDR5X-6400= 5465 +17%

Danke, dachte ich mir schon. Phoenix kann normal locker mit Apple M2 mithalten. So ist der Vergleich natürlich witzlos, das Qualcomm-Teil hat fast 80% mehr Bandbreite.

gut, dass man M2 und Raptorlake und Phoenix schlägt ^^.

Ich sehe nicht, wo man Phoenix schlägt.

robbitop
2023-10-31, 15:01:50
Laut Gerüchten ist Meteor Lake nicht schneller als Raptor Lake i9 (Weniger P-Cores) nur AMD plant eine 12 Core APU für 2024.

Meteor Lake 12.5k in Geekbench 6.

https://www.tomshardware.com/news/intel-core-ultra-7-165h-meteor-lake-cpu-underwhelms-in-geekbench-6

Elite X 15k.

https://www.anandtech.com/show/21112/qualcomm-snapdragon-x-elite-performance-preview-a-first-look-at-whats-to-come
Meterolake soll ja dieses Jahr noch kommen. Wir sprechend ja hier ab mitte 2024. Da gibt es dann Lunar Lake - was wahrscheinlich wenn man es auf max Energieeffizienz abgesehen haben will eher der Gegenspieler werden wird. Arrowlake ist ja auch für 2024 vorgesehen.

Jain, Strix Point soll zwischen Q2 und Q3 kommen und Strix Halo Q4.

Zumindest laut MLID.

Jap Strix Point kommt auch Mitte 2024 also ist eher Strix Point der Gegner von dem QC chip.


Ich sehe nicht, wo man Phoenix schlägt.
Hier im Thread gab es doch Benchmarks wo man vor der Radeon 780M (Phoenix) angetreten ist und besser war. Hier der Post mit den Benchmarks:

X Elite im Vergleich mit Intel und AMD. Wild Life Extreme GPU einmal mit 80? Watt (X Elite) und 23 Watt für alle drei.



https://abload.de/img/5spe15.png

https://abload.de/img/6qpdci.png

Control in 1080p und 1440p bei 23W.

https://abload.de/img/74kete.png

https://abload.de/img/8fwfg2.png
https://youtu.be/03eY7BSMc_c


In dem Video gibt es auch Geekbench und Cinebench R24 Werte von X Elite mit 65W CPU power Limit.

fondness
2023-10-31, 15:05:02
Hier im Thread gab es doch Benchmarks wo man vor der Radeon 780M (Phoenix) angetreten ist und besser war.

Mit deutlich schnelleren RAM ja. LPDDR5X-8533 vs. DDR5-4800. Für 80% mehr Bandbreite ist der Vorsprung nicht sehr überzeugend.

/Edit: Zumal der Vorsprung eh nur im 3dmark vorhanden ist.

davidzo
2023-10-31, 15:51:19
Leistungsmäßig sieht es nicht so aus als wenn Oryon die ST-Krone halten kann. Gegen Meteorlake mag das gut aussehen, aber der Apple M3pro ist dieses Jahr ab 7.11. schon breit verfügbar und dürfte im ST schneller und in MT zumindest gleich schnell sein. Bis Oryon dann wirklich verfügbar ist haben wir vielleicht auch schon Zen5 im PC verfügbar.

Qualcomm führt bei BC R24 im ST nur um 7,5% gegenüber dem M2 laut eigenen Benchmarks. Wenn Apple also laut Ankündigung bei den Performancekernen 15% ST-leistung pro Kern oben drauf legt, dann wird der M3 die aktuelle ST-Spitze erobern (neben übertakteten 300Watt CPUs von Intel die ich nicht ernstnehmen kann). Und Apple kann halt auch jetzt schon liefern, ist also ein gutes halbes bis dreiviertel Jahr früher am Markt als Qualcomm.

Im MT wird es wohl knapper. Qcomm vergleich die 12-Kern Oryon CPU mit dem Vanilla M2 4+4 und führt wenig überraschend um 58% bei 23W TDP und 100% bei 80Watt. Der echte Gegner ist aber der M3pro mit ebenfalls 12 Kernen (6+6). Das ist ein Zuwachs von 50% an Kernen. Obendrauf kommen nochmal die IPC Gewinne und ggf. Mehrtakt der E-Kerne (immerhin +30% laut Apple). In CB R23 MT verbraucht der M2Pro 28 bis 34Watt. Mit der 80Watt Version zu vergleichen wäre also nicht sinnvoll, das ist also näher an der 23Watt Konfiguration, bzw. eben etwas dazwischen.

Die 80Watt Werte sollte man imo eh ignorieren, denn bei der abgrundtief schlechten Skalierung wird das hoffentlich kein OEM so konfigurieren. Das war wohl nur nötig um einen klaren Win gegen Intel in den Benchmarks zu liefern und leider gibts auch viele Intel Notebooks die so konfiguriert sind. Da skaliert das aber besser und die haben als DTR order Gaming Maschinen mit dGPU auch ihre Berechtigung. Ohne diskrete GPU Option ist Oryon aber kein Desktop replacement Kandidat.

Bei der extrem geringen Skalierung schleicht sich bei mir auch der Gedanke ein dass die 23Watt CPU eventuell lockerer läuft während die 80W Version eine Harte TDP Grenze hat. Qualcomm könnte eine ähnlich flexible Auslegung der TDP haben wie Intel. Also mit PL1 und PL2 die höher liegen als die Langzeit TDP.

Apple liefert ja nichtmal offizielle TDP Aussagen, drosselt zwar nur extrem seltenst, läuft aber nur in seltenen workloads am Maximum des eingestellten Power-Managements sondern meistens weit drunter.

Wo ich klar keine Chance sehe ist im GPU-Bereich.
4.6Tflops und kein Raytracing und den ersten Benchmarks nach kann man sich nichtmal richtig vom Vanilla M2 distanzieren. Jeder M2pro ist bereits seit einem Jahr erheblich schneller und selbst die Base-Config des M3 Macbook Airs wird vermutlich mehr Grafikleistung bieten.

Für Thin and light Officegeräte ist das vielleicht gutklassig. Vor allem wenn man da bisher Iris pro und AMD 680m GPUs gewohnt ist. Aber für eine Konkurrenz zum M3pro und x86 mobilen Workstations mit dGPU ist die GPU viel zu konservativ klein gehalten. Ich hoffe Qualcomm hat schonmal mit nvidia gesprochen was Treiber für Windows on Arm angeht, denn sonst ist das echt keine Alternative zum M3pro geschweige den Max.

robbitop
2023-10-31, 16:01:51
Naja dennoch muss man den M2 erstmal schlagen können bei vergleichbarer Leistungsaufnahme. Das ist schon eine Leistung die man anerkennen muss. Aber andererseits schlägt Apple sich mit Apple weil QC ja erst die Apple Weggänger Nuvia dafür kaufen musste. :)

davidzo
2023-10-31, 16:14:59
Nah dran sind sie, aber es ist imo noch zu früh das festzustellen.
Der M2 läuft in den meisten Geräten deutlich unter 23Watt und wir wissen nichts zur tatsächlichen Power Management Auslegung von Qualcomm, also PL1, Pl2, etc. - Genausowenig eigentlich auch zu Apples Powermanagement, es kommt also auf tatsächliche Workload-Messungen an.

Bei 20+Watt wäre alles andere als eine deutliche Führung vor dem M2 aber auch peinlich. Denn der M2 ist auch einTablet-Chip mit vergleichsweise kleinem DIE und ist bei 20Watt bereits am Ende der Effizienz-Kurve, der X-Elite erst am Anfang.

Einen leichten Vorteil hat Qcomm auch bei der Fertigung mit N4 vs N5P. Das wird sich mit dem M3 noch vor dem Launch in einen Rückstand umkehren. Bei der GPU-Leistung sollte man auch den Effekt des schnelleren LPDDR5X Speicher nicht vergessen.

Man muss schon den M2pro als CPU schlagen können, alles andere wäre ein Misserfolg imo. Und selbst dann ist es nur ein Teilerfolg, primär wegen dem späten Launchdatum, aber auch wegen der schwachen GPU.

fondness
2023-10-31, 16:16:55
Aber andererseits schlägt Apple sich mit Apple weil QC ja erst die Apple Weggänger Nuvia dafür kaufen musste. :)

Und Apple hat vorher ordentlich bei AMD und Intel abgegrast. Ist ja nicht so, als ob die die Leute backen würden.

fondness
2023-10-31, 16:20:31
Man muss schon den M2pro als CPU schlagen können, alles andere wäre ein Misserfolg imo. Und selbst dann ist es nur ein Teilerfolg, primär wegen dem späten Launchdatum, aber auch wegen der schwachen GPU.

Wie kommt man zu einer solchen Einschätzung? Da ist doch eine völlig andere Gewichtsklasse und nicht vergleichbar. Alleine schon wegen dem 256-bit SI.

robbitop
2023-10-31, 16:32:43
Und Apple hat vorher ordentlich bei AMD und Intel abgegrast. Ist ja nicht so, als ob die die Leute backen würden.

Das ist aber was anderes als wenn das Kernteam der CPU Sparte abhaut. ;)

fondness
2023-10-31, 17:37:13
Das ist aber was anderes als wenn das Kernteam der CPU Sparte abhaut. ;)

Das "Kernteam"? Wer oder was ist das Kernteam? Ein paar Leute haben bei Apple gekündigt und eine neue Firma gegründet. Das passiert ständig bei vielen Firmen.

robbitop
2023-11-01, 13:16:51
Es sind häufig einige wenige Leute, die da den Unterschied machen. Die Nuvia Leute waren alles Apple Leute. Und die haben den Core entwickelt, der jetzt bei QC alles was intern da ist zersägt. Und bevor sie Nuvia hatten, waren die Stock ARM Cores das Mittel der Wahl. Das ist doch evident genug. Frage mich warum man darüber noch diskutiert.

fondness
2023-11-01, 14:21:03
Es sind häufig einige wenige Leute, die da den Unterschied machen. Die Nuvia Leute waren alles Apple Leute. Und die haben den Core entwickelt, der jetzt bei QC alles was intern da ist zersägt. Und bevor sie Nuvia hatten, waren die Stock ARM Cores das Mittel der Wahl. Das ist doch evident genug. Frage mich warum man darüber noch diskutiert.

Also 1. wurde damit die Frage nicht beantwortet wo genau das "Kernteam" der CPU-Sparte zu Nuvia abgehauen ist, und 2. hätte ich gerne eine Quelle dafür, dass "die Nuvia Leute alles Apple Leute waren". Drei Leute haben Nuvia gegründet, davon ist nur einer direkt von Apple gekommen, die andere zwei waren zuvor bereits bei Google. Zudem braucht es hunderte Leute um eine moderne CPU-Architektur zu entwickeln und nicht 3. In meinen Augen gibt es hier sehr wenig Fakten und sehr viel Spekulationen von Apple-Fanboys. Viele der Nuvia-Mitarbeiter waren zuvor im übrigen auch bei AMD, ARM, Broadcom, Google und Intel.

Achill
2023-11-01, 14:47:02
Mit deutlich schnelleren RAM ja. LPDDR5X-8533 vs. DDR5-4800. Für 80% mehr Bandbreite ist der Vorsprung nicht sehr überzeugend.

/Edit: Zumal der Vorsprung eh nur im 3dmark vorhanden ist.

Ist ggf. sogar mehr, wie schon im Snapdragon Thread zitiert:


[..]
The SoC supports LPDDR5X memory running at 8533 MT/s and a maximum capacity of 64 GB. Apparently, the memory controller is an 8-channel one with a 16-bit width and a maximum bandwidth of 136 GB/s.
[..]

davidzo
2023-11-01, 16:12:29
Wie kommt man zu einer solchen Einschätzung? Da ist doch eine völlig andere Gewichtsklasse und nicht vergleichbar. Alleine schon wegen dem 256-bit SI.

Ganz einfach, Geräteklassen werden eben nicht nach der Breite des Speicherinterfaces eingeteilt. Die M3 Socs haben alle weniger breite Speicherinterfaces, aber wahrscheinlich mehr Cache. Natürlich ist die M3 Familie damit keine durch die Bank niedrigere Gewichtsklasse als die vorherige m2 Familie. Was für eine absurde Vorstellung dass das SI das Segment entscheidet - Demnach wäre die 6900xt auch keine Enthusiast karte sondern höchstens Mittelmaß als Nachfolger der RX580 und 5700xt und unterhalb von Vega und RadeonVII. Und btw, der M2pro wäre deiner Logik nach eine HEDT CPU vergleichbar mit 4-channel Threadripper ;D

Der M2 ist ein eindeutiger Einsteiger-SOC, in Geräten ab 699€ verfügbar, wird in tablets und All-in-One Surf-Maschinen verbaut. In allen ernsthaften Geräten mit Ausnahme des 13MBP steckt zumindest ein M2pro.
Auch die 12C Ausrichtung und der selbstgewählte Vergleich mit Intel 12-Kernern ist sehr eindeutig darin welche Geräteklasse hier gemeint ist.

Und mal ehrlich, den Dieshots nach zu urteilen hat Qualcomm da einen massiven Chip gebaut der eher noch größer aussieht als AMD Phoenix.

Ist ggf. sogar mehr, wie schon im Snapdragon Thread zitiert:

Was ist da mehr?
128bit genau wie beim M2, nur halt LPDDR5X statt LPDDR5.
Btw, der M2 hat 6400, also 102gb/s. Der Unterschied ist also nicht so groß. Etwa Navi24-niveau halt...

Daredevil
2023-11-01, 16:24:03
Na welche Geräteklassen diese Kiste bedienen soll, das entscheidet ja immer noch Qualcomm. :D
Wir sehen hier schon Ähnlichkeiten zu Apple Silicon, wobei hier aber der nächste Schritt gezogen worden ist, das man eben kein bin.LITTLE mehr benötigt. Der Kern kann einerseits sehr Effizient und Low Power sein, wie für passive Notebooks/Tablets, als eben auch gekühlt maximale Performance abrufen. Apple könnte dies ja in der Tat ähnlich machen, aber da hat ein 900€ iPhone 15 halt die gleiche SC Performance wie ein 7000€ MacPro.
Ich hätte sowas ja gerne in meinem Gaming Rechner. :D

2vJ_13WwMSw

davidzo
2023-11-01, 16:59:23
Wir sehen hier schon Ähnlichkeiten zu Apple Silicon, wobei hier aber der nächste Schritt gezogen worden ist, das man eben kein bin.LITTLE mehr benötigt.


Träum weiter, das Nuvia-Team hatte einfach nicht genug Zeit um zwei Architekturen gleichzeitig zu entwickeln. Wir werden ja beim 8 Gen4 nächstes Jahr sehen wo Qualcomm dann mit big-Little nachholt. Man könnte abgespeckte Oryon Kerne nehmen, verschiedene prozess Libraries wie AMD oder einfach ein paar Cortex A510 verbauen.



Der Kern kann einerseits sehr Effizient und Low Power sein, wie für passive Notebooks/Tablets, als eben auch gekühlt maximale Performance abrufen.


Ob die wirklich so Effizient sind wird sich zeigen.
Die Benchmarks sehen nur gegenüber Intels unglücklichen 10+++1elf nm Chips wirklich gut aus.

Laut Qualcomms Benchmark erreicht der X-Elite mit 23Watt TDP in Cinebench und Geekbench ziemlich genau dieselbe Singlethread Performance wie ein Avalanche Core (A15,M2, M2pro, M2max). Die 80Watt Variante ist zwar etwas schneller, wird aber vermutlich auch das TDP-Budget im ST nicht ansatzweise ausreizen.

Wie bereits bekannt braucht ein M2 im Cinebench singlethreaded nur 8Watt.
Wo ist da die überragende Effizienz beim X-Elite mit 23W TDP?
Und bevor jemand sagt dass die 23Watt TDP im ST nicht ausgelastet werden, wieso ist dann die 80Watt Konfiguration nochmal 7% schneller im ST? Irgendeine Handbremse scheint die höhere TDP ja schon zu lösen gegenüber dem 23Watt Korsett, sonst wären beide CPUs im ST gleich schnell.

Im übrigen bedeuten die Zahlen auch dass Apples Avalanche Kerne auch immer noch die höhere IPC haben gegenüber Nuvias Oryon Kernen haben (wohl erst recht vs M3):
Im Single-Core-Test des Geekbench 6.2.1 kommt ein Performance-Kern des Snapdragon X Elite auf 3.227 Punkte, der Apple M2 Max hingegen 2.841 Punkte – Qualcomm hat somit knapp 14 Prozent Vorsprung, jedoch mit 4,25 GHz (+15,8 Prozent) zu lediglich 3,67 GHz bei Apple.

basix
2023-11-01, 17:42:47
Die 23W Version hat einen geringeren Takt (ist so konfiguriert), deswegen ist die 80W Version schneller. Hat nicht zwingend einen TDP Zusammenhang.

Aber mal unabhängige Benches abwarten. Generell denke ich aber, dass das Ding ziemlich konkurrenzfähig ist. Weit weg von M2/M3 wird man nicht sein.

Ich denke aber auch, dass AMDs Zen 5 auf Strix Point absolut gesehen schneller sein wird. Allenfalls aber etwas weniger effizient, wenn ein hoher ST Boost angelegt wird. Genau hier müsste AMD dem User eigentlich eine Option bieten, den max. ST Clock begrenzen zu können. -10% peak clock und dafür 1.5x effizienter würde sich bei vielen Geräten lohnen.

fondness
2023-11-01, 18:02:01
Die 23W Version hat einen geringeren Takt (ist so konfiguriert), deswegen ist die 80W Version schneller. Hat nicht zwingend einen TDP Zusammenhang.

Aber mal unabhängige Benches abwarten. Generell denke ich aber, dass das Ding ziemlich konkurrenzfähig ist. Weit weg von M2/M3 wird man nicht sein.

Ich denke aber auch, dass AMDs Zen 5 auf Strix Point absolut gesehen schneller sein wird. Allenfalls aber etwas weniger effizient, wenn ein hoher ST Boost angelegt wird. Genau hier müsste AMD dem User eigentlich eine Option bieten, den max. ST Clock begrenzen zu können. -10% peak clock und dafür 1.5x effizienter würde sich bei vielen Geräten lohnen.

Es braucht mal unabhängige benchmarks mit vergleichbaren TDPs und RAM. Am besten mit unterschiedlichen TDP Werten da die Skalierung unterschiedlich sein wird. Phoenix muss man auch erst einmal schlagen.

Ailuros
2023-11-01, 22:26:30
Offenbar wird eine ältere Adreno verbaut.


https://twitter.com/Geeky_Vaidy/status/1719002761864634604
https://twitter.com/t3mporarybl1p/status/1719105966103474423

ROFL echt QCOM bloeder geht es wirklich nicht. Ein SoC mit einer GPU die in zukuenftige mainstream laptops bzw. low end PCs integriert werden kann mit DX11.x waehrend gleichzeitig ihre ULP SoC GPUs schon seit einer Ewigkeit DX12.x kompliant sind? Klar wollten sie Platz sparen, aber eine weisse Design-Entscheidung ist es eben nicht.

LadyWhirlwind
2023-11-01, 22:41:22
ROFL echt QCOM bloeder geht es wirklich nicht. Ein SoC mit einer GPU die in zukuenftige mainstream laptops bzw. low end PCs integriert werden kann mit DX11.x waehrend gleichzeitig ihre ULP SoC GPUs schon seit einer Ewigkeit DX12.x kompliant sind? Klar wollten sie Platz sparen, aber eine weisse Design-Entscheidung ist es eben nicht.

Unterstützt Windows in ARM überhaupt DirectX12?
DirectX12 wird zumindest in Parallels Desktop auf dem Mac offiziell nicht unterstützt. MS schreibt auf ihrer FAQ Seite nur das Opengl neuer als Version 3.3 nicht unterstützt wird.

Das würde das Erklären.

Ailuros
2023-11-01, 22:52:28
Unterstützt Windows in ARM überhaupt DirectX12?
DirectX12 wird zumindest in Parallels Desktop auf dem Mac offiziell nicht unterstützt. MS schreibt auf ihrer FAQ Seite nur das Opengl neuer als Version 3.3 nicht unterstützt wird.

Das würde das Erklären.

Es soll was erklaeren? Ihre DX12 ULP SoC GPUs laufen in ihren brutalen Mehrzahl auf Android. Wozu genau brauchen sie dort eine DX12 GPU mit ray tracing?

LadyWhirlwind
2023-11-01, 23:22:18
Es soll was erklaeren? Ihre DX12 ULP SoC GPUs laufen in ihren brutalen Mehrzahl auf Android. Wozu genau brauchen sie dort eine DX12 GPU mit ray tracing?

Keine Ahnung, weil sie es können, bzw. Android die DirectX12 Features / ray tracing unterstützt?

Keine DirectX12 fähige GPU zu verbauen ist entweder eine schlechte Entscheidung irgend eines Managers ohne Plan, oder Qualcom hat Gründe anzunehmen, dass DirectX 12 Anwendungen sowieso keine brauchbare Performance haben werden (oder gar nicht laufen). Im letzteren Fall würde eine DirectX12 fähige GPU auch nichts bringen und Qualcom spart sich das oder nutzt die Resourcen anders.

reaperrr
2023-11-01, 23:31:26
Oder dieses SoC ist intern schon relativ lange in Entwicklung und man hat neben dem Platz auch Time-to-Market und Kompatibilität Vorrang gegenüber "neuste und schnellste GPU-IP" gegeben.

Ailuros
2023-11-02, 04:53:27
Egal welcher Grund, die Entscheidung ist marketing-technisch eine komplette Schnappsidee.

mboeller
2023-11-02, 12:38:20
ist es wirklich so wichtig, abgesehen vom Marketing ob jetzt DX11 oder DX12?
Die Treiber sind doch wesentlich wichtiger für den Endkunden.

Wie man hier auch wieder schön sieht:
https://www.notebookcheck.com/Intel-Arc-Treiber-Update-erhoeht-Gaming-Performance-um-bis-zu-750.764601.0.html

Intel ist ja auch nicht gerade für gute Treiber bekannt. Wie sieht es da bei Qualcomm aus? Bisher sollten sie ja nahezu keine Erfahrung mit Windows/DX haben, oder?

LadyWhirlwind
2023-11-02, 17:08:44
Egal welcher Grund, die Entscheidung ist marketing-technisch eine komplette Schnappsidee.

Kommt immer darauf an, welche Zielgruppe anvisiert wird. Im Business-Bereich ist kein DirectX12 in den meisten Szenarien kein Killerkriterium.
In dem Fall wäre vielleicht Cost/Benefit nicht ausreichend gewesen.

Ailuros
2023-11-03, 06:46:08
ist es wirklich so wichtig, abgesehen vom Marketing ob jetzt DX11 oder DX12?

Wenn ich laptop mit einer GPU nur fuer office-processing suche ist es tatsaechlich egal, aber in dem Fall brauch ich auch keinen SoC mit >4 TLOPs fuer's windows GUI. Wenn man einen SoC von vorne bis hinten so stark vernachlaessigt (und das nicht nur bezueglich der GPU) dann hat man gefaelligst den Anstand und storniert das Ding und schuftet staerker am geplanten Nachfolger. Gegen was genau soll X Deiner Meinung nach konkurrieren? Dass die Presse gegen M2 vergleicht ist eigentlich egal denn Apple ist eine Welt fuer sich selber. Wenn ich jetzt die "ja aber" fuer Snapdragon X gegen Intel/AMD konkurrierende Loesungen zaehle, bleibt genau was uebrig fuer QCOM? Momentchen: wir haben wohl auch bald eine Loesung von NV fuer window/ARM, soll ich den Gedanken voll analysieren oder ist es offensichtlich was fuer Trottle Entscheidungen fuer X bei QCOM getroffen haben? Das "wir sind Qualcomm unseren Partner kaufen was wir ihnen andrehen" Liedchen hab ich seit Jahren von so manchem grossen Semi gelesen....

Die Treiber sind doch wesentlich wichtiger für den Endkunden.

Ergo hab ich mit einer hypothetischen Loesung mit einem AMD SoC wie viele Nachteile genau im Vergleich zu einer Loesung mit Snapdragon X?

Wie man hier auch wieder schön sieht:
https://www.notebookcheck.com/Intel-Arc-Treiber-Update-erhoeht-Gaming-Performance-um-bis-zu-750.764601.0.html

Intel ist ja auch nicht gerade für gute Treiber bekannt. Wie sieht es da bei Qualcomm aus? Bisher sollten sie ja nahezu keine Erfahrung mit Windows/DX haben, oder?

Bei Intel wird es aber zunehmend besser eben weil sie seit neuestem auch dGPUs verkaufen und es hier keine Entschuldigungen gibt fuer fehlende Spiel-Unterstuetzung. Ergo kein DX12 bzw. RT fuer QCOM und sehen die Preise der finalen Loesungen dann so aus wie es die Geruechtekueche momentan im Hintegrund erzaehlt hat QCOM eine komplette Lachnummer aufgetischt. Unter diesen Umstaenden erwarte ich persoenlich keinen sehenswerten Design-Win.

Kommt immer darauf an, welche Zielgruppe anvisiert wird. Im Business-Bereich ist kein DirectX12 in den meisten Szenarien kein Killerkriterium.
In dem Fall wäre vielleicht Cost/Benefit nicht ausreichend gewesen.

Na dann leg mal die Hand aufs Herz und spekuliere wie viele sehenswerte Design-wins das Tier haben wird. Dass mit den Kosten von einer DX11 zu einer DX12 GPU ist totaler Bullshit denn QCOM hat DX12 schon seit einer Ewigkeit in ihren ULP SoC GPUs. 1. QCOM hat ein volles GPU engineering team und nicht nur ein paar handvoll Kerle die etwas in einer Garage entwickeln. 2. Kosten fuer DX11 GPU Entwicklung wurden womoeglich fast vor einem halben Jahrzehnt schon gedeckt. 3. Snapdragon X liegt auf keinem Fall so lange in Entwicklung (erste Adreno6xx GPU seit 2018, sie kauften NUVIA in 2021).

Was wahr ist, ist dass das obrige Management eine Reihe von idiotischen Design-Entscheidungen getroffen hat und sie eben an den bloedesten Stellen gespart haben um u.a. ihre idiotischen smartphone ULP SoCs PMICs in dem Tier unterzubringen. In solch einem Fall - ja - macht jeder Transistor den man sparen kann einen Unterschied. Die Geschichte faengt damit an dass sie wie immer in der Vergangenheit einfach wieder zu spaet aufgewacht sind und Apple ihnen wie mit der 64bit CPU Affaere mal wieder die Hosen herunter gezogen hat. Die Englaender sagen "too little too late", es ist eben auch nicht so dass das Tier im Bereich GPU gegen die M3 GPU irgendwelche Baeume ausreissen wird denn DANN koennte ich sagen "ok sie haben die fehlenden DX12 bzw. RT resources in mehr Leistung investiert" und wir haetten damit zumindest einen sehenswerten Gewinn.

***edit: https://semiaccurate.com/2023/11/02/how-big-is-qualcomms-snapdragon-x-elite-soc/ ~170mm2? Da es annaehernd stimmen koennte, ist der X@4nm/TSMC etwas groesser als Apple M2@N5P/TSMC (155,25mm2).

basix
2023-11-03, 12:09:38
170mm2 wäre konkurrenzfähig verglichen mit den Apple Chips.

Rooter
2023-11-04, 17:50:53
Geekbench: Apples M3 Max schlägt den Snapdragon X Elite teils deutlich (https://www.computerbase.de/2023-11/geekbench-apples-m3-max-schlaegt-den-snapdragon-x-elite-teils-deutlich/)

MfG
Rooter

Ailuros
2023-11-05, 06:47:45
170mm2 wäre konkurrenzfähig verglichen mit den Apple Chips.

Kommt aufs metric an; zB wie viele Transistoren genau innerhalb dieser 170mm2. Bei der X Elite 80W Implementierung braucht man dann eher Echtzeitvergleiche und keine TDPs. Ein M2 Max mit 79W TDP (?) verbraucht wennn ich mich nicht irre in Echtzeit im Durchschnitt um die =/>36W; mal absehen was die ersten unabhaengigen reviews fuer X Elite in H1 24 zeigen werden.

smalM
2023-11-05, 12:04:34
Wir sehen hier schon Ähnlichkeiten zu Apple Silicon, wobei hier aber der nächste Schritt gezogen worden ist, das man eben kein bin.LITTLE mehr benötigt
Ahem.
Man hat schlicht keinen eigenen kleinen Core.
Nuvia hat für den Zielmarkt Server entwickelt.
Und die Verwendung einer älteren GPU-Generation und die Ungereimtheiten um die Stromversorgung scheinen eher ein zusammengestückeltes Etwas zu zeigen.
Dafür ist es aber ganz gut gelungen... :wink:

iamthebear
2023-11-05, 20:21:54
Unter Windows ist das Ding als Gaming System sowieso unbrauchbar. Für die Low End Gamer ist es zu teuer und für die High End/Midrange Gamer zu langsam. Abgesehen davon hat man da noch sehr viel Treiberarbeit vor sich. Das wäre definitiv zu viel für die erste Generation.

Der Zielmarkt dürfte hier primär Mobile Workstations sein. Die GPU braucht man hier primär zur Beschleunigung von diversen Multimedia Aufgaben wie Rendering.
Zusätzlich hat man bei etwas abgespeckten Versionen noch doe Option dem Businessbereich zu bedienen wo man mit der höheren Akkulaufzeit glänzen kann für Kunden wo außer Browser und Teams gar nicht so viel laufen soll.

Ob das Ganze vom Markt angenommen wird das wird sich jedoch softwareseitig entscheiden.

davidzo
2023-11-06, 17:30:49
Unter Windows ist das Ding als Gaming System sowieso unbrauchbar. Für die Low End Gamer ist es zu teuer und für die High End/Midrange Gamer zu langsam. Abgesehen davon hat man da noch sehr viel Treiberarbeit vor sich. Das wäre definitiv zu viel für die erste Generation.

Der Zielmarkt dürfte hier primär Mobile Workstations sein. Die GPU braucht man hier primär zur Beschleunigung von diversen Multimedia Aufgaben wie Rendering.

Ich sehe das Ding als reine schnelle Office Maschine. Für Mobile Workstations sehe ich weder bei der CPU gegen etwas wie den 7945HX oder Sarlak eine Chance, noch im GPU-Bereich gegen Diskrete GPUs oder Highend APUs wie Apple und Sarlak. Und GPUs sind für Workstations halt sehr wichtig, das ist meistens der Haupt-Unterschied im Vergleich zu einem größeren Business Notebook.

Office, Casual und Business Notebooks sind zwar der größte Markt, aber auch der am meisten preislich umkämpfte. Für die weitere PC-notebook Märkte braucht man eine dGPU. Leider helfen da Qcomm auch nicht einfach nur PCIelanes, denn man ist darauf angewiesen dass AMD und Nvidia auch ARM Treiber liefern wollen, was im moment noch nicht danach aussieht.
Ich fürchte Qualcomm hat sich mit der schwachen und featuremäßig veralteten GPU ein Eigentor geschossen. Zum Ursprünglichen Launch letztes Jahr wäre das eine der schnellsten IGPs gewesen, aber in 2024 ist das ein bisschen dürftig.

iamthebear
2023-11-07, 02:17:05
AMD kann man im Workstationbereich geistig streichen. Die Produkte wären theoretisch da nur verwendet sie niemand und ich glaube da wird sich so schnell auch nichts ändern.

Apple ist ein eigener Markt für sich. Ob Apple oder Windows word nicht durch die Hardware entschieden.

Bleibt bloß Intel als Konkurrent und die sollte Qualcomm über den Preis in den Griff bekommen.

=Floi=
2023-11-07, 03:18:13
naja, aber relativ schnell stößt man dann mit nur DX11 an irgendwelche grenzen, weil ne simple video software etc. DX12 möchte.
DX12 entlastet die CPU deutlich.

Aber von QC braucht man einfach nicht mehr erwarten. Die sind nicht umsonst dort wo sie sind und die anderen konnten problemlos aufholen. Die chips sind gut, aber auch nicht mehr.
QC erinnert sehr stark an intel.

dildo4u
2023-11-07, 03:36:01
Es macht doch Sinn die OEM warten jetzt seit 2020 um Apple Like Geräte zu bauen können und Intel verschiebt ihre "Next-Gen" Chips genau so lange.
Ich hätte auch die Schnauze voll, und es ist massig Marge ohne Gaming drinn.
Ein MacBook pro 14 mit der kleinsten GPU fängt bei 2000€ an niemand zockt dort drauf.

Ailuros
2023-11-08, 05:04:30
Bleibt bloß Intel als Konkurrent und die sollte Qualcomm über den Preis in den Griff bekommen.

Fuers letzte wuerde ich noch keine Hand ins Feuer legen, denn die Kosten des X sind alles andere als gering.

Es macht doch Sinn die OEM warten jetzt seit 2020 um Apple Like Geräte zu bauen können und Intel verschiebt ihre "Next-Gen" Chips genau so lange.
Ich hätte auch die Schnauze voll, und es ist massig Marge ohne Gaming drinn.
Ein MacBook pro 14 mit der kleinsten GPU fängt bei 2000€ an niemand zockt dort drauf.

Apple Geraete haben ihr dediziertes Publikum und Apple's Verkaufsraten sind stabil mit leichtem Aufschwung. Fuer diejenigen die ein Apple Geraet brauchen, liefert Apple ein eigenes OS mit um zich Male stabileren GPU Treibern. Nebenbei hat QCOM kein eigenes OS und extrem wenig Erfahrung mit sw ausserhalb von Android.

basix
2023-11-08, 08:07:14
AMD kann man im Workstationbereich geistig streichen. Die Produkte wären theoretisch da nur verwendet sie niemand und ich glaube da wird sich so schnell auch nichts ändern.

AMD hatte im letzten Quartal +50% im Client Segment. Bei uns in der Firma sind fast alle neuen Notebooks der letzten paar Monate auf AMD Basis und die Leute sind sehr zufrieden damit (Leistung, Lautstärke, Akkulaufzeit). Insbesondere die Akkulaufzeit hat sich verglichen zu ihren Vorgänger-Notebooks mit Intel stark verbessert.

Strix Point & Strix Halo würden dann in Richtung M3/M4 Pro/Max wildern. Abschreiben würde ich AMD noch nicht ;)

Bleibt bloß Intel als Konkurrent und die sollte Qualcomm über den Preis in den Griff bekommen.
Mal sehen was Meteor Lake bringt. AMDs Strix Point wird ein harter Gegner werden.

Schlussendlich ist es auch ein wenig die Frage nach der Verfügbarkeit. Sobald Intel released, wird das Zeugs gut verfügbar sein. Dafür dauert es bis Release ewig. AMD wird vermutlich zur CES vorstellen, aber wie schnell wird Strix Point am Markt aufschlagen? Strix Point passt jedoch Drop-In in bestehende Phoenix Plattformen, das hilft sicher. Und Qualcomm? Grosse Wundertüte, wann die OEMs und Qualcomm ready sind.

Ailuros
2024-01-03, 07:43:16
https://www.notebookcheck.net/Qualcomm-Adreno-750-GPU-Benchmarks-and-Specs.762136.0.html

Da der Adreno750 hier 39fps in 4k aztec ruins erreicht, koennte der Durchschnitt irgendwo in der 35 fps Region liegen. Insgesamt schon auf Apple M2 GPU Leistungs-hoehe, ebenso wie ein MC12 Immortalis G720 (siehe high end smartphones mit Mediatek SoCs). Beide sind fast doppelt so schnell im Vergleich zu einer A17 PRO GPU und ich wuerde auch fuer den kommenden Exynos mit AMD GPU IP aehnliches erwarten.

Ailuros
2024-02-26, 06:55:00
https://www.notebookcheck.net/Qualcomm-Adreno-750-GPU-Benchmarks-and-Specs.762136.0.html

Da der Adreno750 hier 39fps in 4k aztec ruins erreicht, koennte der Durchschnitt irgendwo in der 35 fps Region liegen. Insgesamt schon auf Apple M2 GPU Leistungs-hoehe, ebenso wie ein MC12 Immortalis G720 (siehe high end smartphones mit Mediatek SoCs). Beide sind fast doppelt so schnell im Vergleich zu einer A17 PRO GPU und ich wuerde auch fuer den kommenden Exynos mit AMD GPU IP aehnliches erwarten.

Nichts besonderes zu sehen aber die Adreno750 GPU hat momentan eine durchschnittliche Leistung von 29,1 fps im 4k test mit einem peak Wert bei 42,1 fps. Mehr oder weniger schon auf Immortalis G720 MC12 Leistungsnivaeu:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu&ff-check-desktop=0

Der 4k Test drueckt zwar ziemlich auf die Bandbreite von den getesten SoCs, Kishonti's Test-Material ist aber trotzdem langsam "alt". Benchmarks wie gfxbench sollen versuchen die zukuenftige Leistung einer ULP SoC GPU einzuschaetzen und dafuer sind neue tests mit einem kleinen Schuss von ray tracing schon lange faellig.

davidzo
2024-02-26, 11:49:36
Ja, wir wissen noch fast gar nichts über mobile RT performance zwischen Qcomm, ARM, Apple, Samsung, PowerVR etc. Es wäre schön wenn langsam mehr Benchmarks verfügbar wären und auch nochmal durch die Band vergleichstests gemacht würden (insbesondere mit seitenblick auf powerdraw + throtteling)

Vom Gefühl her sind die Verhältnisse fast umgekehrt wie im Desktop wo AMD verglichen mit nvidia und Intel nur eine lightweight Level2 Implementation von RT hat. Im Mobilmarkt sieht RDNA2/3 trotz Level2 jetzt plötzlich wie eine schwere Hardwareimplementierung aus, da der Einbruch zwischen Rasterizing und RT beim Exynos geringer ist als z.B. beim Adreno 740. Vermutlich ist die Qcomm Implementierung eben noch sparsamer in HW, z.B. ohne den stark für BVH processing optimierter cache/latency ladder den RDNA3 mit bringt.

Auch bei Apple riecht das auch nicht nach level3 imo. Klar, es gibt reine RT-Benchmarks wo die neue GPU mit "HW RT" dreimal so schnell ist wie die alten M-Series GPUs mit der Software-RT implementation von Apple-Metal, aber das klingt imo nicht viel für eine echte Hardware Implementierung. Das ist als würde ich ne 5700XT mit Software-RT mit einer 6700XT mit Hardware RT vergleichen. Da käme wohl weitaus mehr als Faktor 3 heraus.

Immerhin gibt es in den Productivity Benchmarks schon verlässlichere Werte zu den M-GPUs. Im neuen Blender Cycles, das erstmals Hardware RT für Apple GPUs benutzt, wird die Renderleistung in etwa verdoppelt gegenüber den M1/M2 GPUs. Das heißt 1x GPU Core der M3 Generation entspricht hier 2x GPU Cores der M1/2 Generation.

Nvidia ist pro SM zwar immer noch etwas schneller, denn eine 4060m mit 24SM ist fast so schnell wie ein M3max mit 40C, allerdings ist das verglichen zu AMD in Blender eben auch schon 7900XT Niveau. Wenn man bedenkt dass dies erst die erste Metal RT Implementierung von Cycles ist, während es nvidia Optix und AMD HIP schon gefühlte Jahrzehnte gibt und dann noch die Devicegröße und Betriebspunkt vergleicht (115W GPU only bei der 4060, 78Watt CPU+GPU beim M3max) ist das schonmal ein Achtungserfolg.
Aber so gewaltig sieht die RT performance eben nicht aus. Die alte M1max GPU kam in idealen Rasterizing Benchmarks wie GFXbench ja auch schon auf 3070 Niveau.

Ich würde gerne mehr dazu sehen wie die Architekturen sich in der RT Performance unterscheiden. Bisher sind die wenigen zahlen die wir haben vielleicht nur Edge-cases aus denen sich daher noch kein kohärentes Bild machen lässt.

MSABK
2024-02-27, 12:23:25
Es gibt erste Werte vom Snapdragon X Elite.

Multiple Geekbench listings for a prototype device with a Qualcomm processor named “ZH-WXX,” specifically the Snapdragon X Elite – XE1800, reveal some interesting details. In the leaked tests, a prototype device with the new ARM chip has fetched 12,562 points in multi-core benchmark tests.

As you can see in the above screenshot, the Geekbench test confirms that the Snapdragon X Elite is a powerful chip with a single-core score of 2,574. It’s a measure of raw processing power for single-threaded apps on a prototype device running early preview builds of Windows 11 version 24H2.

https://www.windowslatest.com/2024/02/26/windows-11-snapdragon-x-elite-benchmark-shows-apple-m3-performance-gap-is-closing/

fondness
2024-02-27, 12:52:46
Geekbench: Apples M3 Max schlägt den Snapdragon X Elite teils deutlich (https://www.computerbase.de/2023-11/geekbench-apples-m3-max-schlaegt-den-snapdragon-x-elite-teils-deutlich/)

MfG
Rooter

Geekbench gegen Apple braucht man nicht zu benchen.

Ganon
2024-02-27, 13:31:01
Geekbench gegen Apple braucht man nicht zu benchen.

Der Vergleich zwischen dem und z.B. einem Ryzen 7840U unter dem gleichen Betriebssystem ist trotzdem ganz interessant. Auch wenn hier Release-Windows mit Insider-Build verglichen wird.

https://browser.geekbench.com/v6/cpu/compare/5060848?baseline=5019569

Wenn der Software-Stack oben drüber jetzt auch noch gefixt wird und nicht mehr eine rauchende Ruine ist, dann könnte das alles durchaus was werden. Natürlich nur, falls man nicht wieder >2000€ für die Notebooks veranschlagt.

KarlKastor
2024-02-27, 15:03:25
Ohne den dazugehörigen Verbrauch aber auch nicht gerade vielsagend.

MSABK
2024-02-27, 15:13:52
Der Vergleich zwischen dem und z.B. einem Ryzen 7840U unter dem gleichen Betriebssystem ist trotzdem ganz interessant. Auch wenn hier Release-Windows mit Insider-Build verglichen wird.

https://browser.geekbench.com/v6/cpu/compare/5060848?baseline=5019569

Wenn der Software-Stack oben drüber jetzt auch noch gefixt wird und nicht mehr eine rauchende Ruine ist, dann könnte das alles durchaus was werden. Natürlich nur, falls man nicht wieder >2000€ für die Notebooks veranschlagt.

Ich fürchte die Elite Chips kommen nur in HigheEnd Notebooks rein. Zumindest die Vorgänger sind HighEnd bepreist.

Ganon
2024-02-27, 15:26:59
Zumindest die Vorgänger sind HighEnd bepreist.

Sie sind damit aber auch ziemlich auf die Fresse geflogen.

Ailuros
2024-02-28, 06:38:12
Ja, wir wissen noch fast gar nichts über mobile RT performance zwischen Qcomm, ARM, Apple, Samsung, PowerVR etc. Es wäre schön wenn langsam mehr Benchmarks verfügbar wären und auch nochmal durch die Band vergleichstests gemacht würden (insbesondere mit seitenblick auf powerdraw + throtteling)

Vom Gefühl her sind die Verhältnisse fast umgekehrt wie im Desktop wo AMD verglichen mit nvidia und Intel nur eine lightweight Level2 Implementation von RT hat. Im Mobilmarkt sieht RDNA2/3 trotz Level2 jetzt plötzlich wie eine schwere Hardwareimplementierung aus, da der Einbruch zwischen Rasterizing und RT beim Exynos geringer ist als z.B. beim Adreno 740. Vermutlich ist die Qcomm Implementierung eben noch sparsamer in HW, z.B. ohne den stark für BVH processing optimierter cache/latency ladder den RDNA3 mit bringt.

Auch bei Apple riecht das auch nicht nach level3 imo. Klar, es gibt reine RT-Benchmarks wo die neue GPU mit "HW RT" dreimal so schnell ist wie die alten M-Series GPUs mit der Software-RT implementation von Apple-Metal, aber das klingt imo nicht viel für eine echte Hardware Implementierung. Das ist als würde ich ne 5700XT mit Software-RT mit einer 6700XT mit Hardware RT vergleichen. Da käme wohl weitaus mehr als Faktor 3 heraus.

Immerhin gibt es in den Productivity Benchmarks schon verlässlichere Werte zu den M-GPUs. Im neuen Blender Cycles, das erstmals Hardware RT für Apple GPUs benutzt, wird die Renderleistung in etwa verdoppelt gegenüber den M1/M2 GPUs. Das heißt 1x GPU Core der M3 Generation entspricht hier 2x GPU Cores der M1/2 Generation.

Nvidia ist pro SM zwar immer noch etwas schneller, denn eine 4060m mit 24SM ist fast so schnell wie ein M3max mit 40C, allerdings ist das verglichen zu AMD in Blender eben auch schon 7900XT Niveau. Wenn man bedenkt dass dies erst die erste Metal RT Implementierung von Cycles ist, während es nvidia Optix und AMD HIP schon gefühlte Jahrzehnte gibt und dann noch die Devicegröße und Betriebspunkt vergleicht (115W GPU only bei der 4060, 78Watt CPU+GPU beim M3max) ist das schonmal ein Achtungserfolg.
Aber so gewaltig sieht die RT performance eben nicht aus. Die alte M1max GPU kam in idealen Rasterizing Benchmarks wie GFXbench ja auch schon auf 3070 Niveau.

Ich würde gerne mehr dazu sehen wie die Architekturen sich in der RT Performance unterscheiden. Bisher sind die wenigen zahlen die wir haben vielleicht nur Edge-cases aus denen sich daher noch kein kohärentes Bild machen lässt.

Ein benchmark der einmal mit und einmal ohne ray tracing testet wuerde helfen und wie gesagt nur ein maessiger Schuss von RT (in etwa wie ein bisschen Tessellation im "car chase" test). Denn selbst wenn jemand z.B. eine Apple A17 PRO testet, hat dann auch leider niemand eine Ahnung um was fuer eine RT Einheit es sich handelt denn IMG bietet als IP fuer RT volle und auch halbe RT Einheiten an.

Es ist dann eben leider so dass nur high end GPU IHVs so genau wie moeglich Spezifikationen von ihren GPUs angeben. Im ULP SoC Markt sind wir ueberhaupt was Adreno GPUs betrifft komplett im Dunkeln selbst ueber Einzelheiten wie Anzahlen von ALUs, TMUs, ROPs etc.; da waeren Einzelheiten ueber RT hw/logic schon eine ziemliche Ueberraschung.

Ich bin mir zwar nicht sicher, aber ich habe das Gefuehl von gelegentlichen mobilen Spielen mit Adreno GPUs dass deren Treiber zunehmend besser geworden sind und dass Apple den hauptsaechlichen Vorteil vom eigenen OS fuer die GPU Treiber noch hat. Sonst sind die Adreno GPU Treiber so flexibel dass sie NUR dann tiling benutzen wenn es notwendig ist. Schmeisst man alles in einen Topf will ich bezweifeln dass IMG TDBR ausser Grenzfaellen noch irgendwelche gravierende Vorteile im Durchschnitt hat. Am Ende des Tages ist es vielleicht dann schon eine Schande dass sich nach dem Intel Larabee FLOP kein anderer IHV mit einer fast voll programmierbaren GPU Architektur beschaeftigt hat. IMHO kommt es irgendwann schon, nur wann ist die Frage.

Sonst koennen QCOM, ARM und Apple u.a. froh sein dass NV damals kein Land gesehen hat im ULP SoC Markt. Denn gegen NV's Treiber-Qualitaet und insgesamte Unterstuetzung kann sich selbst heute nur AMD stellen und die haben nur eine einzige Relevanz zum Markt mit high end GPU IP fuer Samsung Exynos.

MSABK
2024-03-10, 12:23:28
Wird wohl wie vermutet im oberen Preissegment angesiedelt. Eine MacBook Air M1 Alternative für die Massen wird es wahrscheinlich wieder nicht geben.


Samsung plant mit dem Galaxy Book 4 Edge in den nächsten Monaten die Einführung seines ersten Notebooks auf Basis des Snapdragon X Elite. Dabei handelt es sich um den 12-kernigen und bis zu 4,3 Gigahertz schnellen High-End ARM-SoC von Qualcomm, im dem erstmals die neue "Oryon"-CPU mit den von einem Team aus ehemaligen Apple-Chipdesignern entwickelten "Phoenix"-Kernen steckt.
Dank erster Händlerdaten können wir nun melden, dass das Samsung Galaxy Book 4 Edge mit einem 14 Zoll großen Display daherkommen wird. Außerdem sollen immer 16 Gigabyte Arbeitsspeicher und eine 512 Gigabyte fassende SSD geboten werden, wobei gerade das RAM nicht erweiterbar sein dürfte. Genaue Details liegen uns noch nicht vor, wobei auch noch offen ist, ob zum Beispiel Versionen mit weniger RAM und Flash-Speicher geplant sind.

Preislich wird sich das Galaxy Book Edge wohl in der hier beschriebenen Variante im Bereich um 1800 Euro bewegen. Damit ist klar, dass es sich um eine Art High-End-Produkt handelt, das Samsung sich wie die anderen Modelle der Galaxy Book4 Pro- und Ultra-Serien ordentlich bezahlen lässt. Zum Vergleich: das Galaxy Book4 Pro mit 14-Zoll-Display und Intel Core-Plattform trägt eine UVP von 1899 Euro.

https://winfuture.de/news,141636.html

mboeller
2024-03-10, 17:22:25
es scheint ins. 8 Konfigurationen zu geben:

https://www.notebookcheck.com/Snapdragon-X-Elite-Der-Intel-Schreck-kommt-in-ueberraschend-vielen-Varianten-inklusive-Snapdragon-X-Plus.811447.0.html



Snapdragon X Elite X1E84100
Snapdragon X Elite X1E80100
Snapdragon X Elite X1E78100
Snapdragon X Elite X1E76100
.
Snapdragon X Plus X1P64100
Snapdragon X Plus X1P62100
Snapdragon X Plus X1P56100
Snapdragon X Plus X1P40100



die erste Zahl könnte die Anzahl der Performance-Kerne zeigen.

Es gibt also, wenn das stimmt, bestimmt auch günstigere Notebooks mit Qualcomms APU. Wie sich die bei der Leistung schlagen, werden wir ja sehen.

MSABK
2024-03-10, 17:28:50
Microsoft soll ja das Surface Laptop auch mit ARM bringen. Wenn Lenovo so ein Yoga Pro 7 auch bringt wäre es cool. 14,5 Zoll mit 120Hz. Spannend wird es so oder so. Microsoft scheint ja was die Entwicklungsumgebung betrifft sich zu bewegen mit ARM.

bbott
2024-03-11, 00:16:45
Wird wohl wie vermutet im oberen Preissegment angesiedelt. Eine MacBook Air M1 Alternative für die Massen wird es wahrscheinlich wieder nicht geben.



https://winfuture.de/news,141636.html
Wer kauft sich so eine lowend Ausstattung 16GB und 512 GB für 1800 €? Ohne wirklich guten Software Support. Am besten noch Android als Tablet mit Tastatur :freak:

dildo4u
2024-03-11, 08:55:08
Wenn der Chip stark genug ist kann man emulieren siehe Apple.
Und M1 musste am meisten Emulieren war also Worstcase in 2020 und hat sich trotzdem durchgesetzt.

bbott
2024-03-11, 11:07:06
Wenn der Chip stark genug ist kann man emulieren siehe Apple.
Und M1 musste am meisten Emulieren war also Worstcase in 2020 und hat sich trotzdem durchgesetzt.
Qualcom != Apple. Apple hat seine Jünger die einfach alles Kaufen und Qualcom? Selbst ein Noob in Marktanalyse sollte erkennen, dass es dafür kein Markt gibt.

Ailuros
2024-03-14, 14:54:29
Wer kauft sich so eine lowend Ausstattung 16GB und 512 GB für 1800 €? Ohne wirklich guten Software Support. Am besten noch Android als Tablet mit Tastatur :freak:

Sieht danach aus als ob Charlie bzw. Semiaccurate doch am Ende recht hatten fuer QCOM's ersten low end laptop SoC.

dildo4u
2024-03-21, 18:17:15
Paar X Elite Werte gegen Meteor Lake/M3


8FrNBsXtrsA

MSABK
2024-03-22, 16:33:59
Qualcomm spuckt große Worte.

In a 2024 Game Developers Conference session titled “Windows on Snapdragon, a Platform Ready for your PC Games,” Qualcomm engineer Issam Khalil drove home that the unannounced laptops will use emulation to run x86/64 games at close to full speed.

https://www.theverge.com/24107331/qualcomm-gdc-2024-snapdragon-on-windows-games

dildo4u
2024-03-22, 16:37:26
Ist das wirklich unglaublich wenn Valve es mit Zen 2 hinbekommt?
Dort ist fast nix Nativ.

MSABK
2024-03-22, 16:45:44
Wenn ich es richtig in Erinnerung habe waren die GPU-Treiber von Qualcomm ja "Schrott" und ich habe da meine Zweifel, dass sich da was geändert hat.

Ist eigentlich was über USB4 oder TB beim neuen X Elite bekannt?

dildo4u
2024-03-26, 21:04:32
Chrome mit Nativer ARM Version


https://www.computerbase.de/2024-03/browser-google-veroeffentlicht-native-arm-version-von-chrome/

MSABK
2024-03-26, 21:09:06
Zumindest Baldurs Gate 3 scheint mit 30fps zu laufen.

https://www.notebookcheck.com/Gaming-Test-des-Qualcomm-Snapdragon-X-Elite-zeigt-Leistung-in-Baldur-s-Gate-3-Chrome-erhaelt-ARM-Version.818672.0.html

Ailuros
2024-04-01, 10:05:49
Wenn ich es richtig in Erinnerung habe waren die GPU-Treiber von Qualcomm ja "Schrott" und ich habe da meine Zweifel, dass sich da was geändert hat.

Ist eigentlich was über USB4 oder TB beim neuen X Elite bekannt?

Ziemlich jede bekannte ULP SoC GPU haben entweder gar keine bzw. beschissene windows Treiber. QCOM ist hier mit ihrem buerokratischen Irrsinn auch nicht besser. Mal abgesehen davon dass die hw vom Elite SoC mehr als nur ein paar idiotische hw Design-Entscheidungen hat, ist jegliche windows Treiber Affaere nach der bekannten Kaffee-Automat Logik, wo zuerst der Kaffee rausspritzt und danach erst der Becher faellt.

QCOM's zweite Generation von laptop SoCs hat hoffentlich anstaendigere hw und dann wohl auch etwas anstaendigere windows Treiber als heute. Nach 2-3 Generationen schaffen sie es dann wohl schon.

dildo4u
2024-04-05, 14:35:33
Paar X-Elite Werte gegen Apple M3.
Single Core Performance vermutlich deutlich langsamer daher nicht gezeigt.


https://www.tomshardware.com/laptops/i-went-hands-on-with-two-different-qualcomm-snapdragon-x-elite-chips-as-the-company-claims-it-will-beat-intels-core-ultra

Fusion_Power
2024-04-05, 14:48:16
Ob es Microsoft jemals wirklich hin bekommt dass Windows auf ARM optimiert ist? Gerade in Anbetracht des aktuellen "Handheld-Trends" und den Gerüchten, dass MS eventuell auch an einem Handheld arbeitet? X86 gut und schön und AMD hat da wirklich auch effiziente APUs am Start. Jedoch erwiesen sich bisher ARM Geräte als noch deutlich effizienter, gerade in Hinblick auf wichtige Dinge wie Akkulaufzeiten im mobile Bereich.
Also ich denke da muss noch sehr viel an Optimierungsarbeit geleistet werden bis auch Windows mal soweit ist und Games so effizient laufen können wie es z.B. auf einer (vergleichsweise lahmen) Nintendo Switch der Fall ist. Dafür brauchts aber dann vermutlich wirklich ein "Windows light" wenn überhaupt. Oder alternativ ne ARM Version von Steam OS, hab ich auch kein Problem mit. ^^

MSABK
2024-04-06, 00:44:55
Windows hat einfach zu viel legacy kram und da sehe ich nicht wie das alles optimiert werden kann ohne Zöpfe abzuschneiden.

Wenn da etwas ähnliches wie das Lenovo Yoga Pro 7 kommt mit ARM dann werde ich das mal testen. Spannend ist es allemal. Aber so rund wie bei Apple wird es bei Microsoft nixht werden.

Fusion_Power
2024-04-06, 14:21:02
Windows hat einfach zu viel legacy kram und da sehe ich nicht wie das alles optimiert werden kann ohne Zöpfe abzuschneiden.

Wenn da etwas ähnliches wie das Lenovo Yoga Pro 7 kommt mit ARM dann werde ich das mal testen. Spannend ist es allemal. Aber so rund wie bei Apple wird es bei Microsoft nixht werden.
MS könnte halt mal ein ernsthaftes "Windows light" oder so angehen. Ich kann mir eigentlich nicht vorstellen, dass sie weiterhin tatenlos zusehen, wie auf mobilen (Handheld) Geräten so viel Potential vergeudet wird, während z.B. Steam OS viel geschmeidiger läuft mit leichterem Unterbau. Sowas würde halt auch gut zu ARM passen, vielleicht bekommen wir dann irgend wann auch wieder annähernd die sagenhaft langen Batterielaufzeiten wie jene vom Ur-Gameboy. :D

Ailuros
2024-04-08, 06:54:52
Persoenlich erwarte ich langfristig von M$ wenig bis gar nichts fuer irgendwelche abgespeckte windows Versionen. Mir faellt es leichter zu glauben dass Google irgendwann ein "erwachsenes" Android fuer low end laptops auftischt.

Alles windows momentan auf jeglichen low end laptop ist ein absolutes PainInTheA**(tm) ueberhaupt wenn irgendwelche unendliche updates heruntergeladen und installiert werden muessen.

Dass QCOM je in ein eigenes OS investiert bezweifle ich ernsthaft. Warum auch.

dildo4u
2024-04-11, 14:53:04
Mehr Benches vs Intel App Launch und Akkulaufzeit.

https://i.ibb.co/fXvH1sV/9-640-90eb6a08.jpg (https://ibb.co/nwCjgFq)

https://i.ibb.co/ts0ZcMv/7-640-a50494bc.jpg (https://ibb.co/WyrDFWM)

https://i.ibb.co/NZyL9zr/6-640-664a4f06.jpg (https://ibb.co/m6cH970)


https://www.computerbase.de/2024-04/snapdragon-x-elite-benchmarks-amd-apple-intel

mocad_tom
2024-04-11, 16:00:26
Die App Launch Zeiten sind ziemlich hinrissig

Weil das Asus Zenbook 4 3405 eine ziemlich mittelprächtige SSD eingbaut hat.


Ein Acer Swift go mit Meteor Lake VS Asus Zenbook mit Meteor Lake - da macht das Acer schon 32% gut, weil die SSD vom Asus so mittel ist (beim Artikel beim Punkt "Drive Performance Rating")

https://www.notebookcheck.net/Asus-Zenbook-14-OLED-review-The-1-2-kg-subnotebook-with-120-Hz-OLED-and-Core-Ultra-7.805236.0.html

Ich bin auch schon am Überlegen, ob ich dem Asus fürs Android Studio etwas schnelleres spendieren sollte. Wollte aber erst noch etwas abwarten.

mocad_tom
2024-04-24, 15:59:59
Charlie Demerjian wettert drauf los

https://www.semiaccurate.com/2024/04/24/qualcomm-is-cheating-on-their-snapdragon-x-elite-pro-benchmarks/


Later, with more Snapdragon X Elite samples in the wild and many more revisions of WART, we got similar reports from OEMs and another Tier 1. Both reported numbers that were nowhere close to what Qualcomm promised. How not close? Above 50% this time but one used the term ‘Celeron’ to describe performance. The claims of better than Apple’s Rosetta 2 x86 emulation are clearly not real on what is probably the release hardware and software. Actually the silicon emulation may be better but everything else is unquestionably not.

MSABK
2024-04-24, 16:07:13
Unabhängig davon muss sich erstmal zeigen in welchem Preisbereich die Notebooks landen. Im oberen Segment ist die Luft dünn und ich habe den Verdacht, Qualcomm bleibt sich treu und die Laptops werden wieder hochpreisige Nischengeräte.

Apple hat mit dem MacBook Air M1 die Messlatte einfach zu hoch gelegt, auch die aktuellen mit M3 sind was Preis/Leistung betrifft sehr gut.

dildo4u
2024-04-24, 17:31:05
Die Werte sind von einem Referenz Geräte für Endkunden also Banane wie immer muss man das eigentliche Gerät testen.
Und Windows soll frühstens im Juni volle Elite X Unterstützung bekommen mit was wird jetzt gebencht?

https://www.windowscentral.com/software-apps/windows-11/windows-11-version-24h1-changelog-release-date-features-ai-2024-update

davidzo
2024-04-24, 18:00:18
Mehr Benches vs Intel App Launch und Akkulaufzeit.

https://i.ibb.co/fXvH1sV/9-640-90eb6a08.jpg (https://ibb.co/nwCjgFq)

https://i.ibb.co/ts0ZcMv/7-640-a50494bc.jpg (https://ibb.co/WyrDFWM)

https://i.ibb.co/NZyL9zr/6-640-664a4f06.jpg (https://ibb.co/m6cH970)


https://www.computerbase.de/2024-04/snapdragon-x-elite-benchmarks-amd-apple-intel

Was ist das eigentlich für eine Unsitte die X-Achse wegzulassen? Und die gemessenen Werte, sind die wenigstens in den Footnotes?

Da merkt man doch schon das einer einen verarschen will, wenn man die konkreten Ergebnisse aus den Grafiken löscht. Ich fürchte Qualcomm wird echt von Wallstreet-Affen geleitet die glauben die kommen in der Techbranche mit so einem Quark durch. Da hilft denen auch nicht dass ihre Salesleute das Koks für die Microsoft Marketingabteilung bereitstellen, spätestens den asiatischen OEMs stößt so eine Luftnummer sauer auf.

mocad_tom
2024-04-25, 15:45:28
@dildo4u

Mit der Windows Insider Preview hast du bereits die Performanceverbesserungen für X-Elite dabei.

Ausserdem gibt es jetzt Win 11 von Anfang an (also seit 2021) mit unterstützung für Snapdragon 8cx.

Das wäre ja so als würde man hergehen und sagen Zen 4 kann ja noch gar nicht gescheit laufen, weil in Win11 2023 H2 waren noch nicht alle Anpassungen drin wir müssen noch bis Win11 2024 H2 für Zen 4 warten.

An der CPU wird das Ding auch nicht krachend scheitern.
Am Adreno-Treiber aber schon - das wird ein Fest.

:ubash2: :ubash2: :ubash2:

Habt ihr schonmal auf so einem Surface Pro X irgendwas mit Spiele gemacht?

:popcorn: :popcorn:

Macht euch bereit für Blutbäder.

Ailuros
2024-04-26, 07:11:48
Wir muessen so oder so benchmarks von echten Geraeten und unabhaengigen Quellen abwarten. Im internet donnert zwar so mancher gegen Charlie, aber ich werde das Bauchgefuehl nicht los dass er zumindest teilweise recht hat.

Ich weiss zwar nicht was das obrige Management bei QCOM im Hinterkopf hat aber mit "Larabees" gewinnt man NIE das Vertrauen des Verbrauchers und ja der erste Eindruck ist schon wichtig denn es ist verdammt schwer diesen fuer den Ottonormalverbraucher in der Zukunft zu aendern.

Stets mit massiver Vorbehalte bis zu unabhaengigen benchmarks: https://wccftech.com/snapdragon-x-elite-package-power-can-reach-almost-100w/

Angenommen es stimmt und egal wieviel QCOM am Ende schafft zu reduzieren was den Stromverbrauch betrifft in absehbarer Zukunft.....hier nochmal die story von Charlie dafuer: https://semiaccurate.com/2023/09/26/whats-going-on-with-qualcomms-oryon-soc/

Abgesehen davon, ueber die Natuer der X GPU hat keiner auch keine Ahnung. Es ist logischer zu erwarten dass diese GPU die gleiche Komplianz hat wie jede QCOM's ULP SoC GPU der letzten paar Jahre. Ist es jetzt doch etwas dass eben nicht DX12.x erreicht, dann schreit das Ganze nach wie vor nach einem verdammt alten und daemlichen Design den QCOM so oder so aus der Tuer herausquetschen wollte um grosse Verlueste zu meiden. Verstaendlich aber das Publikum ist nicht SOOOOOO dumm :(

mboeller
2024-04-26, 14:39:07
mal was lustiges:

https://forums.anandtech.com/threads/qualcomm-snapdragon-thread.2616013/page-47#post-41198649

die 50% und 95% beziehen sich angeblich auf die Prozent-Werte der SoC mit diesem max. Verbrauch. Nett, richtig nett ...

dildo4u
2024-05-13, 12:52:08
Interne Informationen von Dell zu Akkulaufzeit und Kosten Intel vs Qualcomm.

https://videocardz.com/newz/snapdragon-x-series-chips-cost-only-half-as-much-as-intel-raptor-lakes-with-battery-life-up-to-98-higher

DozerDave
2024-05-13, 13:08:57
Schöner Preisvorteil. Kommt mir irgendwie bekannt vor.
War es nicht viele Jahre lang Dell, die keine AMD CPUs angeboten haben, weil Intel kräftig dagegen gearbeitet hatte?

dildo4u
2024-05-13, 13:28:03
Intel hat erst jetzt keine Chance mehr Deals anzubieten wenn sie die IGP extern Fertigen müssen aber durchaus verständlich das Dell bis Raptor Lake kein Anlass sah zu wechseln.

mboeller
2024-05-14, 06:45:09
Interne Informationen von Dell zu Akkulaufzeit und Kosten Intel vs Qualcomm.

https://videocardz.com/newz/snapdragon-x-series-chips-cost-only-half-as-much-as-intel-raptor-lakes-with-battery-life-up-to-98-higher

nett... Blackmailing Intel... da beschwert sich anscheinend Dell, dass sie ihre großzügigen Rabatte nicht mehr bekommen und "leaked" deshalb die eigentlich streng geheimen Zahlen. Ob das hilft?

dildo4u
2024-05-14, 07:32:58
300$ mit der alten IGP ist natürlich ein Witz das passiert wenn man AMD nicht als Alternative androht was schon längst hätte passieren sollen.

MSABK
2024-05-14, 07:45:55
Cool, USB4 ist auch vorhanden im X.

Bin mal gespannt, der Hype ist real. Aber mal sehen was in einem Jahr davon übrig bleibt und ob Qualcomm nachlegen kann.

mboeller
2024-05-14, 08:07:57
300$ mit der alten IGP ist natürlich ein Witz das passiert wenn man AMD nicht als Alternative androht was schon längst hätte passieren sollen.

glaubst du wirklich Dell hat US$300 für eine Intel-CPU bezahlt?

dildo4u
2024-05-14, 08:17:10
Was immer der Grund ist Dell ist nicht Konkurrenz Fähig daher wird in Zukunft Dual Sourced.

Über 2000€ für 4050 Full HP+ Laptops

https://www.dell.com/de-de/shop/dell-laptops/sr/laptops/xps-laptops/nvidia-geforce-rtx-4050?appliedRefinements=41502

VjSxdMs0dcA

Ganon
2024-05-14, 08:20:38
Blog Post über den Stand und die geplante Zukunft vom Mainline Linux Support im Snapdragon X Elite:

https://www.qualcomm.com/developer/blog/2024/05/upstreaming-linux-kernel-support-for-the-snapdragon-x-elite

DozerDave
2024-05-14, 09:52:08
Wäre schön, wenn das fehlende Windows für ARM dazu führt, dass Linux genutzt wird.
Viele Applikationen laufen ja mittlerweile im Browser. Aber sämtliche Textverarbeitung in der de-facto-Standardsuite nicht (MS Office).
Microsoft Apps (außer Outlook) im Browser ist eher Körperverletzung.

mboeller
2024-05-14, 09:55:45
Microsoft Apps (außer Outlook) im Browser ist eher Körperverletzung.

;D Unterschreib ... und ob!

smalM
2024-05-17, 11:07:04
Chips and Cheese: Qualcomm’s Oryon LLVM Patches (https://chipsandcheese.com/2024/05/15/qualcomms-oryon-llvm-patches/)

mboeller
2024-05-17, 13:32:27
wenn's stimmt, wo sind den da die günstige Preise aus dem Dell-"Leak" hingekommen:

https://www.notebookcheck.com/Leak-Asus-Vivobook-S-15-OLED-ist-mit-Snapdragon-X-Elite-viel-teurer-als-mit-Ryzen-9-8945HS.838551.0.html

dildo4u
2024-05-17, 13:43:35
Hier wurde 1299€ für die Basis Version genannt.


https://videocardz.com/newz/asus-lists-vivobook-s-15-oled-with-snapdragon-x-elite-x1e-78-100-processor

Fusion_Power
2024-05-17, 14:17:23
Ob sich diese ARM Dinger verkaufen steht und fällt am Ende ganz trivial mit dem Softwaresupport und wie gut man x86 im Alltag damit ersetzen kann. Vor allem wenn man weiter Windows verwenden möchte.
Und natürlich für manche auch interessant: wie gut kann ich auf nem ARM Laptop zocken? :D

Loeschzwerg
2024-05-17, 14:41:24
Ich bin zumindest bereit das Wagnis einzugehen, für ein leichtes, passiv gekühltes Notebook. Außer dem MB Air gibt es da sonst nämlich nix. Die Auswahl an nativen ARM Anwendungen ist mittlerweile echt gut, da ist man also Normalo eigentlich abgedeckt. Zocken... Tja, das dürfte wie auf dem Mac eher ein heikles Thema sein.

Fusion_Power
2024-05-17, 18:36:57
Für mich müsste das nicht mal zwangsweise passiv gekühlt sein, es muss nur einfach leise arbeiten, auch unter Last. Da traue ich ARM auch prinzipiell viel mehr zu als x86er Architektur.

MSABK
2024-05-17, 20:35:01
Ich bin am meisten auf die Lenovos gespannt. Das Yoga Pro 7 finde ich gut, das mit ARM zu einem guten Preis wäre interessant.

mboeller
2024-05-20, 20:18:09
https://www.notebookcheck.com

IMHO ziemlich viele "Elite" Notebooks. Ich zumindest hatte mit weniger gerechnet. Vor allem Dell scheint es ernst du meinen.

dildo4u
2024-05-20, 20:23:13
Surface Pro ab 999$ mit LCD oder 1.5k mit OLED.

https://www.theverge.com/2024/5/20/24160707/microsoft-surface-pro-price-release-date-ai

jg1ZxdBFEYg

MSABK
2024-05-20, 20:33:48
In Deutschland sind es 1800€ für das Oled. Sehr teuer.

Es wurden aber sehr viele ARM-Laptops vorgestellt. Mal die ersten Tests abwarten. Aber was die iGPU angeht erwarte ich nichts gutes, da bleibt AMD wahrscheinlich noch Spitze für das ein andere Spiel in FullHD.

So wie ich es sehe, sind alle bekannten Hersteller mit dabei.

dildo4u
2024-05-20, 20:44:32
Preise scheinen OK die billigen MacBooks haben nur 8GB, 16GB als Basis sollte Minimum sein.

MSABK
2024-05-20, 20:58:11
Microsoft hat auch mit Prism eine neue Emulation angekündigt.

Edit: Das neue Surface-Keyboard mit Stift kostet 530!!!€. Das ist der Wahnsinn.

BlacKi
2024-05-20, 22:54:16
also die dinger sind so oder so keine günstigen geräte. aber ich finds krass welcher ram verbaut wird.

das thinkpad mit 8533mt/s lpddr5x

MSABK
2024-05-20, 22:55:22
Rund 135GB/S Bandbreite ist schon viel. Mal sehen was die GPU kann bzw nicht kann. Fragezeichen bleiben die Treiber.

Fusion_Power
2024-05-20, 23:09:26
Preise scheinen OK die billigen MacBooks haben nur 8GB, 16GB als Basis sollte Minimum sein.
Geldmacherei, hab gelesen der Snapdragon ist wesentlich billiger in der Herstellung als die ARM APUs von Apple.
Hab allerdings auch gelesen dass Apples aktueller M4 mit Qualcomms "Super Chip" auch locker den Boden aufwischt...

Apple M4-SoC in der Analyse - AMD, Intel und Qualcomm haben aktuell keine Chance
(https://www.notebookcheck.com/Apple-M4-SoC-in-der-Analyse-AMD-Intel-und-Qualcomm-haben-aktuell-keine-Chance.838140.0.html)
M4 In Benchmarks mehr Bums als ein Intel Core Ultra 9 185H? Krasser Shice... :eek:

Tscha Qualcomm, wenns mit der Performance nicht passt, müsst ihr halt mitm Preis runter, nur so ne Idee. :D

Daredevil
2024-05-20, 23:20:50
also die dinger sind so oder so keine günstigen geräte. aber ich finds krass welcher ram verbaut wird.

das thinkpad mit 8533mt/s lpddr5x
Da wird rausgepresst was geht, um mit Apple gleich zu ziehen. :D
Hab die Keynote nur bei Verge verfolgt und muss zugeben, Windows Notebooks waren schon lange nicht mehr so sexy. Ich war schon immer ein Fan von den Surfaces, aber die Hardware dadrin war halt immer 0815, was sehr sehr schade war. Mit Qualcomm scheint es so, dass sie nicht nur von außen hübsch sind, sondern auch von innen. I like! Mit dieser schieren Menge an Notebooks, die alle untereinander konkurrieren, konkurriert man irgendwo natürlich auch gemeinsam mit Apple und den MacBooks und das kann jedem Kunde nur zu gute kommen. Auch wenn ich ein kleiner Apple Fanboy bin, hoffe ich inständig, dass die Werbesprüche rund um die Performance keine Lügen waren und sie den M3 wirklich in die Schranken verweisen. Dann öffnet Apple vielleicht auch mal ihre Salami Taktik, weil die haben sich seit dem M1 fürstlich zurücklehnen können. Selbst wenn man mit einem M1 gleich ziehen könnte mit anständigem Preis, wäre das in der Windows Welt unglaublich gut.

Edit: RAM Upgrade Preise sind auch dementsprechend hoch. :usad:

Fusion_Power
2024-05-20, 23:29:33
Hoffe wir erfahren bald, wie es denn nun in der praxis mit (x86) Gaming auf Windows ARM Geräten aussieht. Außer ein paar Präsentationsfolien zu dem Thema scheints aktuell wenig bis nix praxisnahes an Informationen zu geben. Hmm...

Qualcomm says most Windows games should ‘just work’ on its unannounced Arm laptops (https://www.theverge.com/24107331/qualcomm-gdc-2024-snapdragon-on-windows-games)

...außer wenn sie Kerneltreiber für Anti-Cheat Gedöns nutzen... also die meisten relevanten Games heutzutage... :rolleyes:

dildo4u
2024-05-22, 07:29:28
Kompatibilitäts Website für X86 Games on ARM

https://www.worksonwoa.com/



Infos zum Emulation Layer


https://i.ibb.co/KqSv0jS/GOH85vya-IAA1b-Qh.jpg (https://ibb.co/fpLw1YL)

https://twitter.com/tomwarren/status/1792993294265270346

DozerDave
2024-05-22, 08:01:50
Falsche Prioritäten. Willst Du auf deinem ARM-Laptop arbeiten oder spielen?

dildo4u
2024-05-22, 08:15:21
Das sind Geräte die bis 2000€ gehen irgendwann sollte man schon erwarten das man alles machen kann was z.b AMD mit ihren APU kann.


Die kleine XBox Serie S hat z.b nur 4 Tflops und 10GB Ram eine AMD APU mit 16 GB kann vergleichbar zocken.

MSABK
2024-05-22, 08:37:56
Die Geräte kosten minimal mehr als aktuelle MTL und Ryzen Laptops, mit diesen kann man sehr wohl leichte Spielenin FullHD spielen, teilweise auch neuere Spiele.

Wenn das mit ARM nicht geht, dann wäre das schon mal negativ. Wozu dann der schnelle Ram unter anderem?

mboeller
2024-05-22, 11:06:29
macht doch schon mal Hoffnung:

https://www.notebookcheck.com/Snapdragon-X-Elite-ohne-Fortnite-Roblox-Co-So-gut-laufen-1-481-Spiele-auf-dem-ARM-Chip.840129.0.html


Derzeit werden nur 19 Spiele als unspielbar eingestuft, darunter allerdings ausgesprochen beliebte Titel wie Valorant, Roblox, War Thunder, Hogwarts Legacy, League of Legends, Fortnite, Assassin's Creed Valhalla und – schockierend – die Microsoft Solitaire Collection. 220 der gelisteten Spiele wurden als "Runs" markiert, 530 als "Playable" und immerhin 757 Titel als "Perfect". Die Webseite liefert allerdings keine Details zu den gewählten Grafik-Einstellungen, sodass diese Webseite lediglich garantiert, dass die Titel in 1.080p-Auflösung mit niedrigem Detailgrad flüssig laufen.


meine Interpretation:

Runs = läuft, egal wie schlecht
Playable = läuft und man kann es sogar spielen
Perfekt = spielbar

dildo4u
2024-05-22, 11:11:22
Und zur Erinnerung Baldurs Gate 3 ist extrem CPU lästig die Zen 2 Konsolen haben Probleme mit 30 FPS in den Städten.


Surface X Elite vs M3 und Intel Ultra 155(Laufzeit, Benchmarks)

https://www.notebookcheck.com/Microsoft-Surface-Laptop-mit-Snapdragon-X-Elite-stellt-sich-in-erstem-Test-dem-MacBook-Air-mit-Apple-M3.840107.0.html

Ganon
2024-05-22, 12:00:43
Falsche Prioritäten. Willst Du auf deinem ARM-Laptop arbeiten oder spielen?

So eine Argumentation mag Qualcomm mögen, der Endkunde sollte aber eher aufpassen. Als jemand der aktuell als Notebook eine starke CPU / schwache GPU Kombi hat (Ryzen 5800H): Auch außerhalb von Gaming ist heutzutage eine halbwegs potente GPU wichtig. Mehrere Bildschirme mit 2-4K Auflösung und >100Hz sind jetzt auch im Desktop/Browser Betrieb keine Leichtigkeit für eine schwache GPU.

MSABK
2024-05-22, 12:07:09
Was Displays betrifft sollte man mit 3x USB4 40GB/s gut aufgestellt sein hoffe ich.

X ist zwar noch nicht kaufbar, aber ich hoffe die legen nächstes Jahr direkt nach.

mboeller
2024-05-22, 12:14:56
https://forums.anandtech.com/threads/qualcomm-snapdragon-thread.2616013/page-55#post-41214785

wenn's stimmt ist das doch merkwürdig, dass es nur 1 Laptop mit der Highend Ausführung gibt.
Anscheinend soll es nur das Samsung Galaxy Book4 Edge mit 16" in der höchsten Ausbaustufe des X-Elite zu kaufen geben.