Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Qualcomm Snapdragon-SoCs
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
11
mczak
2016-03-11, 20:34:32
Ich meinte nicht die Leistung sondern die area und auch Stromverbrauch. Umsonst schneller sind die A53 Kerne garantiert nicht im Vergleich zu A7.
Ach so ja der Flächenunterschied ist tatsächlich erheblich.
Damit der A72 wirklich scheint braucht er den neuen interconnect und SC. Definitiv um einiges besser als A57, aber beide sind genauso wie die A15-er davor etwas zu stromhungrig fuer smartphones. So und jetzt schnell in den Samsung thread ;)
Ich bin da nicht so sicher, die hochgetakteten A53 brauchen auch relativ viel Strom. Ich denke aber eine 2xA72+4xA53 Design sollte ganz klare Performance-Vorteile in der Praxis haben gegenüber 4xA53 (hochgezüchtet) + 4xA53, und der Stromverbrauch auch nicht wirklich höher liegen.
Ailuros
2016-03-11, 20:54:23
Ich bin da nicht so sicher, die hochgetakteten A53 brauchen auch relativ viel Strom.
Alles ueber sagen wir mal 1.8GHz fuer einen gut implementierten A53 cluster generiert zu viel Hitze wenn es sich nicht um Kurzzeit-spikes handelt.
Ich denke aber eine 2xA72+4xA53 Design sollte ganz klare Performance-Vorteile in der Praxis haben gegenüber 4xA53 (hochgezüchtet) + 4xA53, und der Stromverbrauch auch nicht wirklich höher liegen.
Im guten Ganzen ja, aber die Unterschiede haengen dann auch davon ab wie jeglicher Hersteller die Lasten verteilt, wie gut die sw, GPU Treiber oder weiss der Geier sonst was noch.
Sonst gilt das obrige mehr oder weniger auch fuer groessere als A53 cores. Egal welche cores alles das ueber der 2GHz Grenze heute spielt macht smartphones fuelbar waermer. Bei einer PC Einheit mit aktiver Kuehlung sind hohe Temperaturen Alltag; treib mal ein heutiges smartphone zur Ueberhitzung und warte ab wie lange es dauert dass sich die Temperaturen wieder normalisieren.
y33H@
2016-03-11, 22:48:40
Die-Shot und FinFet-Shot des Snapdragon 820 von TechInsight ... Gate Pitch sind 75 nm (Samsung selbst sagt 78 nm für 14LPP) und 12 Metal Layer:
55198 55199
http://www2.techinsights.com/l/8892/2016-03-09/2d5djx
mczak
2016-03-12, 05:31:18
In gfxbench gibt's übrigens auch adreno 505 Resultate, die sind mir bisher gar nicht aufgefallen:
https://gfxbench.com/resultdetails.jsp?resultid=FTMmYqvcbQuQWYhvnpEj3A
https://gfxbench.com/resultdetails.jsp?resultid=S8XxXtsLelgpyIJycUSwug
Da gibt es keine Ueberraschungen, halb so schnell wie der 510 (und damit minim schneller als der 405, ausser bei Tesselation da ist der doch sehr langsam, ein Schicksal das er mit dem 510 teilt - da wurden wohl Transistoren eingespart...).
Wurde auch langsam Zeit dass sich der SD 430 mal zeigt. Dauert wohl aber noch eine Weile bis man da tatsächlich Geräte sieht, denn da kann ja QC die 615/616/617 gleich in die Tonne treten.
(Interessant finde ich dass QC für den SD 430 sagt "octa-core A53 1.2 Ghz" was natürlich eine unterirdisch tiefe Frequenz ist, selbst für den low-end Chip, da wollte man wohl denSD 6xx doch nicht allzuviel Konkurrenz machen, aber die Benchmarks oben sagen schon 1.4Ghz, da wurde wohl etwas nachgebessert... Sollte jedenfalls auch kein übler low-end Chip sein denn die CPU dürfte auch bei gleichem Takt schneller als der SD 410 sein war das doch der langsamste A53 überhaupt was nicht nur an der quasi-beta Revision r0p0 des A53 lag...)
Ailuros
2016-03-14, 17:17:14
Der Tessellations-test im Gfxbench duerfte zu wuenschen uebrig lassen. Wenn ein Mali T880MP12 (keine Tessellations-Einheit alles nur durch compute) in diesem fast genauso viel leistet wie die GPU im Tegra K1, dann ist es auch fuer Adrenos ziemlich scheisseegal ob es dedizierte hw dafuer gibt oder nicht so lange sie in Analogie mit ihrer Groesse genauso viel leisten wie ihre direkte Konkurrenten.
Thunder99
2016-03-14, 23:11:47
Ist im Nachhinein der SD410 nicht mehr zu empfehlen wenn es darum geht ein günstiges gutes Gerät zu empfehlen? Suche da gerade was raus und hab da noch das Review des Moto G3 im Kopf
lumines
2016-03-15, 00:27:49
Ist im Nachhinein der SD410 nicht mehr zu empfehlen wenn es darum geht ein günstiges gutes Gerät zu empfehlen? Suche da gerade was raus und hab da noch das Review des Moto G3 im Kopf
Hat ziemlich wenig GPU-Leistung, aber ansonsten ist er ganz in Ordnung. Ein Cortex A53 Quad ist in der Preisklasse eigentlich auch überwiegend Standard. Beim Moto G3 benutzt Motorola übrigens F2FS als Dateisystem, deshalb haben sie etwas höhere I/O-Leistung als die Konkurrenz.
mczak
2016-03-15, 00:29:43
Ist im Nachhinein der SD410 nicht mehr zu empfehlen wenn es darum geht ein günstiges gutes Gerät zu empfehlen? Suche da gerade was raus und hab da noch das Review des Moto G3 im Kopf
Ich war nie ein grosser Fan des G3, konnte da die Reviews nicht ganz nachvollziehen (für die Bildschirmgrösse ziemlich gross und schwer, ausserdem eben mit einem SoC der auch in halb so teuren Geräten zu finden ist). Da war zeitweise auch die 1GB/8GB Variante genau so teuer wie z.B. ein Sony M4, das immerhin 2GB Speicher hat und den SD 615 (wobei das Problem beim M4 sind die 8GB Flash, da bleibt laut den Foren dank Bloatware rein gar nichts für Apps übrig da hilft dann auch der sd-slot nicht mehr wirklich weiter - und die 16GB Variante kriegst du vielleicht irgendwo in China...). Mittlerweile ist das Moto G3 aber etwas billiger geworden, auch die 2GB/16GB Variante ist erhältlich, wirklich günstig ist aber nach wie vor anders. Aber es hat halt Vorteile dank keiner Bloatware und einigermassen vernünftigen Update-Policy, das ist bei low-end Phones schwer zu finden.
Ich denke mal die nächste Version hat den SD 430, dürfte aber noch eine Weile dauern - die läuft dann vermutlich auch im armv8-Modus (manche behaupten ja armv8 beim SD 410 funktioniere gar nicht, also weder aarch32 noch aarch64, ob das stimmt weiss ich nicht jedenfalls scheinen tatsächlich sämtliche verkauften Telefone mit SD 410 armv7-basiert zu sein und die r0p0 a53 revision hat definitiv sehr hässliche Bugs zumindest im aarch64 Mode die Compiler/Linker Workarounds brauchen).
mczak
2016-03-15, 00:47:54
Hat ziemlich wenig GPU-Leistung, aber ansonsten ist er ganz in Ordnung. Ein Cortex A53 Quad ist in der Preisklasse eigentlich auch überwiegend Standard. Beim Moto G3 benutzt Motorola übrigens F2FS als Dateisystem, deshalb haben sie etwas höhere I/O-Leistung als die Konkurrenz.
Der eigentliche Witz bei der GPU ist ja dass der direkte Vorgänger (SD 400) eine etwa 10% schnellere GPU hatte - schlicht aufgrund des höheren Taktes, ansonsten war die ja praktisch identisch. Beim SD 400 war die GPU eigentlich für die damalige Zeit für einen low-end Chip wirklich sehr in Ordnung, aber da den Nachfolger langsamer zu machen war ziemlich dämlich. Vor allem auch weil die Konkurrenz natürlich mittlerweile aufgeholt hat, und da Mali T720MP2 bietet und nicht mehr die unsäglichen Mali 400 Varianten (wobei der 450MP4 auch schon schneller als der Adreno 306 war).
Interessanterweise hat ja Qualcomm sogar noch weitere SD 4xx Chips angekündigt mit immer noch derselben GPU - der SD 425 hat Adreno 308. Mit was genau das noch kompetitiv sein soll weiss ich wirklich nicht, das ist nur ein minimal gepimpter 410. Und wieso der die 425 Nummer kriegt ist mir auch schleierhaft, spielt doch der 415 eine ganze Liga höher. Die Produktpolitik verstehe ich echt nicht...
Ailuros
2016-03-15, 07:01:44
Auf einem low end smartphone reichen auch bei 1080p Aufloesungen 2 TMUs immer noch bei weitem aus, so lange man keine anspruchsvollen mobile Spiele spielt. Und wenn man irgendwo ein Mali450MP4 und T720MP2 Dilemma haette, da beide nichts mit anspruchsvollen Spielen am Hut haben, ist die erste sogar zu bevorzugen weil die Anzahl der TMUs bzw. die Fuellrate hier wichtiger ist als das featureset.
Sonst OT aber ich mach dafuer nicht einen neuen thread auf:
http://www.anandtech.com/show/10141/kishonti-announces-gfxbench-5-at-gdc
Cross-low level API koennte eventuell zu interessanten Indizien bei Vergleichen fuehren.
Ailuros
2016-04-07, 08:23:41
Erstes Manhattan3.1 long term performance Resultat:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20%28TM%29%20530&did=29391975&D=Xiaomi%20MI%205
Xiaomi Mi5/Adreno530 erscheint hier wenig bis gar nicht zu throtteln wie im TRex test, aber es wird auch verdammt heiss angeblich. Mal sehen wie es auf den Samsung S7/SD820 smartphones aussehen wird.
Wer unter den Lesern hier ein neues high end smartphone bzw. tablet haben sollte wuerde mich jegliches Resultat via PM durchaus interessieren :)
mboeller
2016-04-07, 13:23:02
Xiaomi Mi5/Adreno530 erscheint hier wenig bis gar nicht zu throtteln wie im TRex test, aber es wird auch verdammt heiss angeblich.
http://www.computerbase.de/2016-04/xiaomi-mi5-test/3/
Mi5 mit 1.8GHz SD820
mczak
2016-04-07, 14:05:56
Erstes Manhattan3.1 long term performance Resultat:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20%28TM%29%20530&did=29391975&D=Xiaomi%20MI%205
Xiaomi Mi5/Adreno530 erscheint hier wenig bis gar nicht zu throtteln wie im TRex test, aber es wird auch verdammt heiss angeblich. Mal sehen wie es auf den Samsung S7/SD820 smartphones aussehen wird.
Interessant. Der TRex Onscreen war ja klar VSync-limitiert, das LongTerm Resultat war 10% tiefer was so auf Throttling hindeutete. Der Manhattan 3.1 aber ist natürlich nicht VSync-limitiert, und trotzdem bloss dieselben 10% langsamer - dies obwohl die Laufzeit nochmal massiv runtergeht. Da frage ich mich natürlich wieso der TRex Longterm überhaupt langsamer wurde wenn scheinbar auch 30% mehr Abwärme verkraftet werden. Da lag ich jedenfalls wie's aussieht falsch die 10% Rückstand beim TRex Longterm sind nicht throttling bedingt (aber keine Ahnung was denn sonst los ist).
Gibt übrigens auch andere Resultate mit Manhattan 3.1 Longterm (alle adreno 530, mit einer Ausnahme, adreno 405, der thottelt eh nie), z.B. das S7 Edge (mit SD 820). Throttelt bei dem Test sogar noch stärker als bei TRex, immerhin geht dann die Laufzeit auch nach oben (TRex 196 min/ Manhattan 265, beim Mi 5 ist's umgekehrt, TRex 201min / Manhattan 156min).
edit: ich habe da das Mi 5 mit schnellem SD 820 zum Vergleich genommen. Beim langsamen liegt der Manhattan Score (Langzeit und normal) 20% tiefer, aber auch die Laufzeit 20% höher (beim TRex läuft die GPU offensichtlich nicht ganz am Anschlag, die Unterschiede sind deutlich kleiner).
Offensichtlich sind da die Temperaturlimits bei den Herstellern der Smartphones tatsächlich recht deutlich unterschiedlich angesetzt (oder aber die Kühlung ist besser, war beim SD 810 / Adreno 430 im Prinzip auch schon so, da gab's auch schon welche mit nur geringem Throttling und solche mit 50%, allerdings wenn ich das richtig in Erinnerung habe waren die Unterschiede nicht ganz so extrem).
Ailuros
2016-04-07, 16:29:05
Heute morgen gabs noch kein S7 Resultat; ich befuerchtete eigentlich schlimmeres.
Sonst haengt es generell vom Hersteller ab; frei erfundene Zahlen aber wenn der eine "throttle at 40C" und der andere "throttle at 55C" angiebt, dann sind die Unterschiede kein Wunder.
Bemerke mal folgendes:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20(TM)%20530&did=29391975&D=Xiaomi%20MI%205
Bei long term performance reduziert sich die Leistung nur gering, waehrend aber die eingeschaetzte Batterie-Laufzeit von 201 Minuten in TRex auf 156 in Manhattan3.1 faellt ~29% weniger Batterie-Laufzeit.
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20(TM)%20530&did=30540880&D=Samsung%20Galaxy%20S7%20edge%20(SM-G935x)
Hier reduziert sich die Leistung radikal, aber die Batterie-Laufzeit steigt um 35% im Vergleich zu TRex.
Im Vergleich zum Mi5 hat das S7 eine um fast 70% hoeher eingeschaetzte Batterie-Laufzeit. Es sollte wohl klar sein dass das S7 auf einer hoeheren Aufloesung laeuft, aber ein paar gute Indizien kann man schon von den Resultaten behalten. Sonst doch: seit Adreno420 throtteln QCOM GPU stellenweise ziemlich heftig. Der 530 ist natuerlich eine Leistungsklasse ueber diesen, aber es gab oft Faelle wo sich User mit 420/430er Adrenos gerechtfertigt beklagten dass sie keinen sehenswerten Unterschied zum Vorgaenger Adreno330 fuehlen koennen. Ist doch auch klar; wenn ein 330 fast nicht throttelt und ein 4x0 auch bis zu 50% throttelt bleibt vom Leistungs-Vorsprung auf Papier vom ersten nichts mehr uebrig..
mczak
2016-04-12, 02:31:37
Gibt übrigens auch iPhone (SE / 6S+) Resultate neuerdings mit Manhattan 3.1 Longterm. So berauschend sind die jetzt auch nicht, dafür dass da gerne mal behauptet wird die Dinger würden im Vergleich kaum throtteln - das 6S+ throttelt auf 70% runter, das SE auf noch etwas weniger (schwer zu sagen wegen der geringen Auflösung ist das VSync-Limit ungethrottelt etwas zu nah). Mal abgesehen davon dass die Laufzeit des SE einen absoluten (und das mit sehr viel Marge) Negativrekord dabei darstellt, wirklich gross Verbrauchsvorteile kann ich da für den PowerVR TBDR gegenüber dem Adreno 530 nicht erkennen (auch wenn natürlich die miese Laufzeit dem winzigen Akku geschuldet ist, die Effizienz scheint am Ende ähnlich zu sein).
Back on Topic, der SD 430 macht sich endlich mal bemerkbar, es wurde das Ivvi i3 (was für ein Name?) damit vorgestellt. Das Telefon ist jetzt nicht soooo interessant (doch sehr teuer), aber scheint definitiv einen 1.4Ghz + 1.1Ghz A53 Cluster zu haben - die qualcomm-webseite behauptet nach wie vor "Octa-core 1.2Ghz", da hat man wohl etwas nachgebessert. Auch kein Wunder wenn das Ding (was ich annehme) gegen den Helio P10 antreten muss.
Ich bin sowieso gespannt auf genauere Tests des gesamten aktuellen Lineups von Qualcomm - es gibt ja eigentlich bloss 3 interessante Chips, den SD 430, SD 650/652 (ist ja dasselbe bloss 2 Kerne deaktiviert) und den SD 820. Den Rest kann man im Prinzip IMHO getrost vergessen.
Ailuros
2016-04-12, 06:23:44
Gibt übrigens auch iPhone (SE / 6S+) Resultate neuerdings mit Manhattan 3.1 Longterm. So berauschend sind die jetzt auch nicht, dafür dass da gerne mal behauptet wird die Dinger würden im Vergleich kaum throtteln - das 6S+ throttelt auf 70% runter, das SE auf noch etwas weniger (schwer zu sagen wegen der geringen Auflösung ist das VSync-Limit ungethrottelt etwas zu nah).
https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=25701346&D=Apple%20iPhone%206S%20Plus
Das SE throttelt um 33% runter, wobei man wohl keine Bestaetigung brauchen sollte dass fuer den Winzling als smartphone die GPU so oder so ueberdimensioniert ist. Hier sollte eigentlich das SE noch mehr throtteln denn die eingeschaetzte Batterie-Laufzeit dafuer ist eher tragisch. Das 6S+ geht um 22% nach unten.
Mich interessieren hauptsaechlich die A9X tablets fuer den test aber ich muss wohl noch warten :(
Mal abgesehen davon dass die Laufzeit des SE einen absoluten (und das mit sehr viel Marge) Negativrekord dabei darstellt, wirklich gross Verbrauchsvorteile kann ich da für den PowerVR TBDR gegenüber dem Adreno 530 nicht erkennen (auch wenn natürlich die miese Laufzeit dem winzigen Akku geschuldet ist, die Effizienz scheint am Ende ähnlich zu sein).
Was hat jetzt TBDR mit dem ganzen genau zu tun? Integrier doch einen 530 mit voller Frequenz in einem so kleinen smartphone wie dem SE und dann sehen wir weiter ob es "nur" bis zu 50% throtteln wird. Im gegebenen Fall ist es dann scheissegal ob die GPU Daten verzoegert oder Kopfstaende macht beim rendering. Ein (lebendiger) Elephant ist einfach zu gross fuer einen Haushalts-Kuehlschrank....wofuer wir uebrigens im Apple thread eine ganze Debatte hatten, wo ich der uebliche Spinner behauptete dass es total absurd ist dass das letzte mini iPad nur einen A8 bekam und das geplante mini iPhone (heutige SE) einen A9 bekommen soll.
***edit: gerade erst in der Datenbank erschienen....so haette das iPhoneSE heute IMHO aussehen sollen, nicht wegen jeglichen throttling aber eher dass man heute eben NOCH nicht so viel Leistung wie im A9 fuer 1334 x 750 wirklich braucht: https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&D=Apple+iPhone+6&testgroup=overall
Back on Topic, der SD 430 macht sich endlich mal bemerkbar, es wurde das Ivvi i3 (was für ein Name?) damit vorgestellt. Das Telefon ist jetzt nicht soooo interessant (doch sehr teuer), aber scheint definitiv einen 1.4Ghz + 1.1Ghz A53 Cluster zu haben - die qualcomm-webseite behauptet nach wie vor "Octa-core 1.2Ghz", da hat man wohl etwas nachgebessert. Auch kein Wunder wenn das Ding (was ich annehme) gegen den Helio P10 antreten muss.
Ich bin sowieso gespannt auf genauere Tests des gesamten aktuellen Lineups von Qualcomm - es gibt ja eigentlich bloss 3 interessante Chips, den SD 430, SD 650/652 (ist ja dasselbe bloss 2 Kerne deaktiviert) und den SD 820. Den Rest kann man im Prinzip IMHO getrost vergessen.
Ist doch bei anderen genauso; ausser den Helio SoCs sind aus dem heutigen Mediatek portofolio genau welche interessant bzw. nennenswert als Gegenbeispiel.
CrazyIvan
2016-04-12, 06:48:35
Ich bin ja mal gespannt, ob Qualcomm sich traut, eine Mainstream Dual Core Kyro Variante auf den Markt zu bringen, oder ob ihnen das marketingtechnisch zu gewagt ist.
Ailuros
2016-04-12, 06:55:18
Ich bin ja mal gespannt, ob Qualcomm sich traut, eine Mainstream Dual Core Kyro Variante auf den Markt zu bringen, oder ob ihnen das marketingtechnisch zu gewagt ist.
KRYO :freak: Spass beiseite, fuer den Anfang wohl nicht weil die high end SoCs ziemlich teuer sind. Wenn die Geruechte stimmen dass QCOM nach Kryo wieder zu 100% auf ARM CPU IP geht, werden sie das Ding vielleicht nicht so lange erhalten dass sie es auch im mainstream spaeter integrieren.
Thunder99
2016-04-12, 11:47:18
Wäre schön blöd von denen wenn das stimmt. Dann sind sie auch nicht besser als Mediathek und Co wenn sie nicht eigenes mehr entwickeln :confused:. Abnehmer haben sie ja um Gewinn zu machen.
Avalox
2016-04-12, 12:48:07
Wäre schön blöd von denen wenn das stimmt. Dann sind sie auch nicht besser als Mediathek und Co wenn sie nicht eigenes mehr entwickeln :confused:. Abnehmer haben sie ja um Gewinn zu machen.
Die GPU entwickelt Qualcomm und natürlich ihre Peripherie. Das Problem ist doch, dass in dieser Generation weder Samsungs Custom Ansatz, noch der von Qualcomm sonderlich absetzen können. Weder funktional, noch in Sachen der Performance. Nach dem Qualcomm Debakel mit dem Snapdragon 810, wird man sicherlich auch bei Qualcomm die Technik besser im Griff haben und somit vermutlich damit Abstände so weit minimieren, dass siech Eigenentwicklungen nicht lohnen.
mczak
2016-04-12, 16:44:05
Was hat jetzt TBDR mit dem ganzen genau zu tun? Integrier doch einen 530 mit voller Frequenz in einem so kleinen smartphone wie dem SE und dann sehen wir weiter ob es "nur" bis zu 50% throtteln wird. Im gegebenen Fall ist es dann scheissegal ob die GPU Daten verzoegert oder Kopfstaende macht beim rendering. Ein (lebendiger) Elephant ist einfach zu gross fuer einen Haushalts-Kuehlschrank....wofuer wir uebrigens im Apple thread eine ganze Debatte hatten, wo ich der uebliche Spinner behauptete dass es total absurd ist dass das letzte mini iPad nur einen A8 bekam und das geplante mini iPhone (heutige SE) einen A9 bekommen soll.
Schon klar dass auch ein Adreno-Elephant grosse Probleme kriegen würde in dem Formfaktor. Ging mir nur darum dass eben auch diese Chips throtteln und nicht quasi davon verschont bleiben weil die inherent dank TDBR angeblich so wenig Strom brauchen.
Ich gebe dir im Uebrigen recht das mini iPad hätte eher einen A9 nötig als das iPhone SE (wobei ich jetzt den A8 für das mini iPad durchaus auch akzeptabel finde, hat ja zumindest auch die 2GB Speicher gekriegt). Ich denke aber beim iPhone SE ging es eher um sowas wie always-on Siri was Apple nur beim A9 bietet (würde wohl sonst zuviel Strom verbrauchen).
***edit: gerade erst in der Datenbank erschienen....so haette das iPhoneSE heute IMHO aussehen sollen, nicht wegen jeglichen throttling aber eher dass man heute eben NOCH nicht so viel Leistung wie im A9 fuer 1334 x 750 wirklich braucht: https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&D=Apple+iPhone+6&testgroup=overall
Ah ja die Resultate sind auch nicht so schlecht - und ohne Throttling... Wobei ist mir bisher noch gar nicht aufgefallen, der A9 ist normalerweise so Faktor 2 schneller als der A8, aber bei Manhattan 3.1 ist es fast ein Faktor 4.
Ist doch bei anderen genauso; ausser den Helio SoCs sind aus dem heutigen Mediatek portofolio genau welche interessant bzw. nennenswert als Gegenbeispiel.
Schon nur hat Mediatek nicht noch so halbgare neue Chips im Programm wie Qualcomm (sondern verkaufen einfach alte) - ich rede hier von so Zeugs wie dem SD 617 (ein 615/616 mit einem schnelleren Modem) oder dem SD 425 (der erscheint eh noch lange nicht, und ist nicht viel mehr als ein neu aufgelegter SD 410) - der SD 415 hingegen wäre theoretisch auch noch interessant den sieht man aber irgendwie fast nirgends obwohl es schon längst einigermassen obskure Smartphones damit gibt.
Ailuros
2016-04-12, 18:18:38
Schon klar dass auch ein Adreno-Elephant grosse Probleme kriegen würde in dem Formfaktor. Ging mir nur darum dass eben auch diese Chips throtteln und nicht quasi davon verschont bleiben weil die inherent dank TDBR angeblich so wenig Strom brauchen.
Ich gebe dir im Uebrigen recht das mini iPad hätte eher einen A9 nötig als das iPhone SE (wobei ich jetzt den A8 für das mini iPad durchaus auch akzeptabel finde, hat ja zumindest auch die 2GB Speicher gekriegt). Ich denke aber beim iPhone SE ging es eher um sowas wie always-on Siri was Apple nur beim A9 bietet (würde wohl sonst zuviel Strom verbrauchen).
Der Eindruck dass i-Geraete nie throtteln ist uebrigens im Grund falsch; unter normalen Umstaenden throtteln alle ULP mobile Geraete nach intensivem Stress bis zu ungefaehr 20%. Vorrausetzung man verbrennt sich in jedem Fall nicht die Finger von zu hohen Temperaturen.
Der richtige SoC im richtigen form factor und man sollte schon bis zu 20% als die Norm erwarten; alles ueber 30% ist dann natuerlich nicht mehr "normal".
Ah ja die Resultate sind auch nicht so schlecht - und ohne Throttling... Wobei ist mir bisher noch gar nicht aufgefallen, der A9 ist normalerweise so Faktor 2 schneller als der A8, aber bei Manhattan 3.1 ist es fast ein Faktor 4.
7XT ist glaube ich breiter am front/back end angelegt als die Vorgaenger. 6XT und kleiner verlieren um die 50% an Leistung im 3.1, waehrend Malis und Adrenos meistens nur 1/3 ihrer Leistung verlieren im Vergleich zu Manhattan 3.0 stets.
Schon nur hat Mediatek nicht noch so halbgare neue Chips im Programm wie Qualcomm (sondern verkaufen einfach alte) - ich rede hier von so Zeugs wie dem SD 617 (ein 615/616 mit einem schnelleren Modem) oder dem SD 425 (der erscheint eh noch lange nicht, und ist nicht viel mehr als ein neu aufgelegter SD 410) - der SD 415 hingegen wäre theoretisch auch noch interessant den sieht man aber irgendwie fast nirgends obwohl es schon längst einigermassen obskure Smartphones damit gibt.
Das stoert mich eigentlich weniger; die kleineren SoCs sind auch meistens konkurrenzfaehig. Ich werde generell den Verdacht nicht los dass QCOM eine ordentliche Re-Organisation brauchen koennte. HW Entwicklung drehte sich in Kreisen weil ihre DX11 GPU Architektur problematisch ist und es vor geraumer Zeit das Dilemma gab ob sie nicht doch vielleicht voruebergehend GPU IP lizenzieren sollten, CPU development ging von custom CPUs bis zu Kraits dann haben sie mit dem 64bit den Ball verloren und sind auf ARM CPU IP umgestiegen, jetzt haben wir KRYO cores und die sollen auch wieder voll von ARM CPUs abgeloest werden, Treiber sind immer noch so-so la-la und ein Gigant wie QCOM kann wohl immer noch nicht ihren eigenen GPU compiler selber entwickeln u.a.......lange Geschichte kurz: ich bezweifle dass es QCOM an engineering Talenten fehlt. Es hat wohl wieder - wie ueblich - das obrige Management einen fetten Dachschaden.... :rolleyes:
Ailuros
2016-04-13, 12:05:23
http://vr-zone.com/articles/samsung-galaxy-note-6-pack-snapdragon-823-soc-claims-new-rumor/108113.html
Ailuros
2016-04-15, 07:35:18
http://www.fudzilla.com/news/mobile/40446-2017-snapdragon-is-10nm
Auf jeden Fall scheint 10FF frueher in die Startloecher zu gehen als viele von uns geschaetzt hatten.
mczak
2016-04-25, 19:54:43
Auch der SD 625 zeigt sich schon in gfxbench, mit adreno 506 (dürfte dasselbe sein wie 505 aber ~30% höherer Takt, ist ja 14LPP, auch mit 2Ghz Cortex-A53). z.B. https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&D=Samsung+Galaxy+C7+%28SM-C7000%29&testgroup=overall
Schon erstaunlich, der Chip gehört ja zu denen die gerade erst angekündigt wurden (im Gegensatz etwa zum SD 430 den es auch noch nicht in einem Produkt zu kaufen gibt).
deekey777
2016-06-08, 13:49:09
Qualcomm Snapdragon 821 chip may be (slightly) faster than Snapdragon 820 (http://liliputing.com/2016/06/qualcomm-snapdragon-821-chip-may-slightly-faster-snapdragon-820.html)
Da ist Asus QCOMM reingegrätscht.
y33H@
2016-06-08, 15:01:07
Hrhr, daher auf der Pressekonferenz auch nur "820 series" ;D
Nightspider
2016-06-08, 15:06:12
Ich dachte der soll S823 heißen? ^^
100Mhz mehr locken aber auch niemanden hervor. Mal schauen was sich noch verbessert hat.
mczak
2016-06-08, 19:05:07
Ich dachte der soll S823 heißen? ^^
100Mhz mehr locken aber auch niemanden hervor. Mal schauen was sich noch verbessert hat.
Das ist doch genau derselbe Chip, da kann sich nichts verbessert haben. Na gut das sind wohl die besten Bins, also möglicherweise ist Perf/W etwas besser (so dass man die +100Mhz gratis kriegt). Das ist derselbe Quark wie MTK X20->X25, Kirin 950->955. Es gab im Uebrigen schon z.B. beim SD 801 verschieden schnelle Varianten, bloss hatten die halt denselben Marketingnamen (unterschieden sich aber beim Chipnamen durchaus minimal, 8974-AA, 8974-AB, 8974-AC).
mboeller
2016-06-08, 19:52:52
vielleicht wurde auch der 4MB große L2 od. L3 Cache aktiviert? Zumindest hat Rys auf Beyond3D mal davon gesprochen (oder es stand auf anandtech???), dass der beim SD820 noch nicht aktiviert ist.
edit:
eigentlich sprechen beiden von einem L3-Cache:
http://www.anandtech.com/show/9837/snapdragon-820-preview/2
https://forum.beyond3d.com/threads/qualcomm-soc-armv8-custom-core-discussions.56442/page-9
There is an L3 physically (at least 4MB, not sure of the exact size), but it's disabled just now.
Simon
2016-06-08, 21:33:48
Das ist doch genau derselbe Chip, da kann sich nichts verbessert haben.
Und das weisst du, weil du hier bei Qualcomm arbeitest?
Und nein, das sind nicht die besten Bins.
mczak
2016-06-08, 22:05:32
Und das weisst du, weil du hier bei Qualcomm arbeitest?
Nein das weiss ich nicht, das ist reine Spekulation. Aber ich bin eben pessimistisch - solange es keine Indizien gibt dass das wirklich ein neuer Chip ist gehe ich eben davon aus dass es derselbe ist (und ein neuer Marketingname plus 100Mhz mehr Frequenz ist definitiv kein solches Indiz).
So etwas wie ein neues Stepping könnte prinzipiell durchaus Sinn machen (wie von mboeller erwähnt ist ja offenbar der L3-Cache deaktiviert, es weiss zwar niemand wieso aber den könnte man dann entweder reparieren oder weglassen) - nur eben es fehlt zumindest bis jetzt jeglicher Hinweis darauf.
Simon
2016-06-09, 03:34:06
Na warum koennte der Cache wohl bisher deaktiviert sein?
Avalox
2016-07-12, 05:55:31
Snapdragon 821 ist offiziell vorgestellt worden.
https://www.qualcomm.com/news/snapdragon/2016/07/11/snapdragon-821-builds-820-processor-success
http://www.giga.de/unternehmen/qualcomm/news/mehr-leistung-weniger-energieverbrauch-snapdragon-821-offiziell-vorstellt/
CrazyIvan
2016-07-12, 06:22:57
Sofern es sich nicht um eine Revision mit architektonischen Anpassungen oder wenigstens um ein Microcode Update handelt, ist der 821 eigentlich für den Popo. Mehr Peak Leistung steht zumindest bei mir ziemlich weit unten auf der Prioliste. Effizienz FTW!
Ailuros
2016-10-06, 12:03:00
Keine besondere Ueberraschung: http://www.fudzilla.com/news/processors/41765-samsung-set-to-make-qualcomm-chips
Jetzt mal ehrlich wenn Samsung so langsam QCOM als Stammkunden gewinnt und TSMC ---> Apple, hat TSMC Ende ausser dem jeglichen imaginaeren "Prestige" dass man fuer Apple herstellt genau was gewonnen?
Ailuros
2016-10-31, 20:56:19
Niemand? Komisch :rolleyes:
http://www.fudzilla.com/news/41964-qualcomm-acquires-nxp-for-47-billion
Der groesste und wichtigste Kauf seit einige Jahren. QCOM hat sich gerade fett fuer IoT und automotive eingekauft, dank NXP (inkl. Freescale).
Ailuros
2016-11-17, 18:01:33
http://www.fudzilla.com/news/mobile/42146-snapdragon-835-10nm-announced
y33H@
2016-11-17, 19:34:06
10LPE, der Vollständigkeit halber.
y33H@
2016-11-25, 14:35:24
Diese Meldung zeigt, dass Leaks teilweise völliger BS sind: http://juggly.cn/archives/209986.html
Bei den Taktraten des SD835 wurde offenbar kräftig gewürfelt, die sind nämlich total daneben.
Nightspider
2016-11-25, 18:00:43
Was ist jetzt eigentlich LPDDR4x ? Gibts den schon länger? Und wo sind die Unterschiede zu normalem LPDDR4?
Hat das was mit GDDR5X gemeinsam?
deLuxX`
2016-11-25, 18:35:42
Was ist jetzt eigentlich LPDDR4x ? Gibts den schon länger? Und wo sind die Unterschiede zu normalem LPDDR4?
Hat das was mit GDDR5X gemeinsam?
This is identical to LPDDR4, except that additional power is saved by reducing the I/O voltage (Vddq) to 0.6 V rather than 1.1 V.
Quelle:https://en.wikipedia.org/wiki/Mobile_DDR
y33H@
2016-11-25, 20:29:31
Siehe Samsung:
http://scr3.golem.de/screenshots/1602/Helio-P20-LPDDR4X/Helio-P20-LPDDR4X-01.png
smalM
2016-12-07, 18:08:20
Ist dieser Thread eigentlich ausschließlich auf Snapdragon beschränkt oder wird er um den Centriq mit dem Falkor-Core erweitert?
Ailuros
2016-12-07, 18:29:04
Ist dieser Thread eigentlich ausschließlich auf Snapdragon beschränkt oder wird er um den Centriq mit dem Falkor-Core erweitert?
Ach fuer jeden techno-freak ist ein System On Chip genauso interessant wie ein Server On Chip :P
http://www.fudzilla.com/news/processors/42328-qualcomm-sampling-world-s-first-10nm-48-core-server-soc
Ailuros
2016-12-08, 07:43:36
http://www.anandtech.com/show/10889/microsoft-and-qualcomm-bring-windows-10-to-snapdragon-processors
Auf einem tablet kann ich es noch halbwegs verstehen, aber auf einem smartphone?
Ist zwar Geschmackssache, aber bei meinem dual boot Intel Atom tablet frisst win10 meistens nur unnoetig Platz.
DrumDub
2016-12-08, 13:45:30
geht wohl eher hier rum:
Qualcomm spricht explizit von PCs mit Snapdragon-Prozessoren und Windows 10, die kommendes Jahr erscheinen sollen. Das dürfte Alternativen zu AMD- und Intel-basierten Geräten bringen. Microsoft wiederum nannte das zweite Halbjahr 2017 als Starttermin für Geräte mit Windows 10 via x86-Emulator. http://www.golem.de/news/microsofts-x86-emulator-fuer-arm-yes-it-can-run-crysis-1612-124948.html
deekey777
2016-12-08, 13:59:42
http://www.anandtech.com/show/10889/microsoft-and-qualcomm-bring-windows-10-to-snapdragon-processors
Auf einem tablet kann ich es noch halbwegs verstehen, aber auf einem smartphone?
Ist zwar Geschmackssache, aber bei meinem dual boot Intel Atom tablet frisst win10 meistens nur unnoetig Platz.
geht wohl eher hier rum:
http://www.golem.de/news/microsofts-x86-emulator-fuer-arm-yes-it-can-run-crysis-1612-124948.html
Steck so ein Smartphone in eine Dockingstation und schon hast du einen PC.
Was meint ihr:
Surface 4 oder Surface Phone mt einem Snapdragon?
https://blogs.windows.com/windowsexperience/2016/12/07/device-innovation-opportunities-mixed-reality-gaming-cellular-pcs/
Finally, to deliver on our customers’ growing needs to create on the go, we announced today that Windows 10 is coming to ARM through our partnership with Qualcomm. For the first time ever, our customers will be able to experience the Windows they know with all the apps, peripherals, and enterprise capabilities they require, on a truly mobile, power efficient, always-connected cellular PC.
mboeller
2016-12-09, 13:30:59
Snapdragon 835 Grafik-Benchmark:
http://www.areamobile.de/news/41611-benchmark-snapdragon-835-schlaegt-kirin-960-in-grafik-test-deutlich
smalM
2016-12-10, 18:41:46
Ach fuer jeden techno-freak ist ein System On Chip genauso interessant wie ein Server On Chip
Gut, dann oute ich mich halt als Techno-Freak:
// Define the SchedMachineModel and provide basic properties for coarse grained
// instruction cost model.
def FalkorModel : SchedMachineModel {
let IssueWidth = 4; // 4-wide issue for expanded uops.
let MicroOpBufferSize = 128; // Out-of-order with temporary unified issue buffer.
let LoopMicroOpBufferSize = 16;
let LoadLatency = 3; // Optimistic load latency.
let MispredictPenalty = 11; // Minimum branch misprediction penalty.
let CompleteModel = 0;
}
Quelle (http://llvm.org/viewvc/llvm-project/llvm/trunk/lib/Target/AArch64/AArch64SchedFalkor.td?view=markup&pathrev=288194)
Ailuros
2016-12-10, 18:45:24
Steck so ein Smartphone in eine Dockingstation und schon hast du einen PC.
Was meint ihr:
Surface 4 oder Surface Phone mt einem Snapdragon?
https://blogs.windows.com/windowsexperience/2016/12/07/device-innovation-opportunities-mixed-reality-gaming-cellular-pcs/
Bis ich erstmal in Echtzeit sehe um was es sich genau handelt klingt es nach einer weiteren Schnappsidee mit einem Schnappsdrachen :P
Snapdragon 835 Grafik-Benchmark:
http://www.areamobile.de/news/41611-benchmark-snapdragon-835-schlaegt-kirin-960-in-grafik-test-deutlich
Wenn es ein vorzeitiger Treiber ist wo noch einiges an Leistung drinsteckt ok; sonst ist einen quad cluster G71 bei 900MHz zu schlagen kein besonderes Wunder. Momentan um 22% schneller als der peak Manhattan 3.1 score eines Adreno530 *schnarch*.
deekey777
2016-12-10, 19:38:29
Ich finde die x32-Emu sehr spannend, aber jetzt mal ehrlich: Sie ist nur eine Ausrede. MS versucht wohl den Dolchstoß von Intel (Einstellung der echten Atom-SoCs) durch Snapdragons (nebenbei mit integriertem Modem) auszugleichen, hinzu kommt, dass Windows 10 Mobile bereits mit Snapdragons funktioniert (Windows RT funktionierte aber auch mit Tegras).
xxxgamerxxx
2016-12-10, 21:59:00
hinzu kommt, dass Windows 10 Mobile bereits mit Snapdragons funktioniert (Windows RT funktionierte aber auch mit Tegras).
Windows RT konnte aber nicht die Masse an Win32 Software ausführen, weil die defakto x86 ist, sondern eben nur WinRT Apps. Somit konnte man auf dem Desktop eben nur die System Anwendungen oder das mitgelieferte Office 2013 ausführen, weil eben alles für Tegra kompiliert war.
deekey777
2016-12-10, 22:20:40
Lumia 2520 hatte einen Snapdragon-SoC.
xxxgamerxxx
2016-12-11, 08:47:15
Lumia 2520 hatte einen Snapdragon-SoC.
Ja richtig, das 2520 gab es ja auch. Vermutlich ist die reine SoC Anpassung samt Recompile eh kein großes Ding.
Jetzt frage ich mich nur, ob man nun auch umgedreht ARM unter einem x86 Windows emuliert. Wenn jetzt ein komplettes Windows auf Snapdragon läuft, dann kann man ja auch Software native dafür erstellen, wenn man den richtigen Compiler dafür hat.
Das wäre eigentlich ziemlich doof, weil man damit noch bei den legacy Kram für Fragmentierung sorgen könnte. Bin gespannt, was man sich hier ausdenkt.
deekey777
2016-12-11, 23:12:06
...
Ailuros
2016-12-12, 09:33:58
Ich finde die x32-Emu sehr spannend, aber jetzt mal ehrlich: Sie ist nur eine Ausrede. MS versucht wohl den Dolchstoß von Intel (Einstellung der echten Atom-SoCs) durch Snapdragons (nebenbei mit integriertem Modem) auszugleichen, hinzu kommt, dass Windows 10 Mobile bereits mit Snapdragons funktioniert (Windows RT funktionierte aber auch mit Tegras).
Ist zwar OT, aber ich hab's gestern auf presale gesehen: https://liliputing.com/2016/11/voyo-vbook-a1-is-an-apollo-lake-convertible-for-300.html wobei in der Zwischenzeit fuer billig-tablets Cherrytrail ueberwiegend verkauft wird. Anders so sicher bin ich mir gar nicht dass Intel nicht weiterhin ihre SoCs fuer billig-tablets (dual boot) bzw. convertibles verkaufen wird.
Dass M$ verzweifelt versucht sich ueber Wasser zu halten ist wohl schon klar. Ob etwas daraus wird bleibt nach wie vor abzusehen.
deekey777
2016-12-12, 09:43:44
Einstellung war das falsche Wort, gemeint war, dass Intel keine neuen Atom-SoCs bringen wird, sprich kein atomarer Ableger des Apollo Lake.
Ailuros
2016-12-12, 10:21:16
Einstellung war das falsche Wort, gemeint war, dass Intel keine neuen Atom-SoCs bringen wird, sprich kein atomarer Ableger des Apollo Lake.
Ich weiss zwar nicht was Intel fuer die vorhersehbare (tablet) Zukunft plant, aber ich hab das Gefuehl dass sie den Market nicht wirklich aufgegeben haben. Es klingt mir eher so dass sie womoeglich ihre roadmap geaendert haben und bis zum naechsten Schritt sie wohl mit Cherrytrail, Apollo Lake ueberbruecken. Lass mich aber gerne eines besseren belehren.
deekey777
2016-12-12, 10:54:38
Ich weiß nicht, was die günstigsten ARM-SoCs heute so können, aber die halbwegs aktuellen dürften H.265 in Hardware dekodieren können, vielleicht auch VP9. CT kann auch (irgendwie) H.265 bis 1080 dekodieren können, aber darauf würde ich mich nicht verlassen.
Sprich: Die CT sind einfach alt, hinzu kommt die Modem-Problematik.
Wo aber Geld zu holen ist, sind die 2in1-Geräte bzw. Convertibles wie von dir verlinkt, da ist Intel weiterhin gut aufgestellt, auch bei günstigen Geräten.
deekey777
2016-12-12, 14:41:22
Zwar ohne Quelle, aber interessant:
http://www.drwindows.de/content/11530-windows-10-arm-cpus-so-funktioniert-emulation.html#.WE6lKfi3QSw.twitter
Außerdem hat Microsoft noch ein Performance-As im Ärmel: Die Ergebnisse, die der JIT-Compiler ausspuckt, werden nämlich zwischengespeichert. Wird eine zuvor ausgeführte x86 Anwendung erneut gestartet, muss der JIT-Compiler nicht mehr aktiv werden, sondern er greift auf eine Referenz-Tabelle der übersetzten Befehle zu, die er sich bei der ersten Ausführung angelegt hat. Die Ausführung wird somit beschleunigt, wobei man auch hier wieder offen lassen muss, ob dieser Vorteil nur mess- oder tatsächlich auch spürbar ist.
Ailuros
2016-12-13, 10:10:51
Ich weiß nicht, was die günstigsten ARM-SoCs heute so können, aber die halbwegs aktuellen dürften H.265 in Hardware dekodieren können, vielleicht auch VP9. CT kann auch (irgendwie) H.265 bis 1080 dekodieren können, aber darauf würde ich mich nicht verlassen.
Sprich: Die CT sind einfach alt, hinzu kommt die Modem-Problematik.
Der white box china Markt ist heutzutage regelrecht von Cherrytrail dual boot tablets ueberschwemmt, wobei die Dinger meistens fuer H.265/4k decoding angegeben werden, aber im Echtzeit-Gebrauch ist es meistens dekorativ unter Android.
Ja zum Modem aber wenn Du glaubst dass die Affaere selbst auf Dell laptops mit Intel chipsets (teilweise) besser ist oder dass der chinesische Markt mit super-modems ueberschwemmt ist, denk nochmal scharf darueber nach.
Das wichtigste Problem momentan fuer alles CT ist eher dass sie nur Android5.1 unterstuetzen und nichts ab 6.0 als alles andere und das der Stromverbrauch immer noch zu gross ist. Da wo hingegen QCOM SoCs (selbst die mittleren 6xx) heute punkten koennen ist das sie nicht auf alte Android Varianten begrenzt sind und dass der Stromverbrauch diametrisch kleiner ist ueberhaupt wenn es zu 3D kommt. Sobald die GPU aus dem 2D niedrig getakteten modus auf meinem CT dual boot tablet kommt, schluckt das Ding selbst fuer laecherliches solitaire verdammt stark an der Batterie, wobei es scheissegal ist ob Du solitaire oder Asphalt 8 spielst.
Wo aber Geld zu holen ist, sind die 2in1-Geräte bzw. Convertibles wie von dir verlinkt, da ist Intel weiterhin gut aufgestellt, auch bei günstigen Geräten.
Schlag jeden chinesischen online retailer auf und das Bild fuer tablets ist in etwa gleich: http://www.geekbuying.com/Search/?keyword=2+in+1+tablet&c=971
Intel verkauft nach wie vor die meisten tablet SoCs momentan dort. Ob jetzt QCOM hier einspringt und Intel nur die higher end tablets bedienen wird in absehbarer Zukunft keine Ahnung, aber das emulierte 32bit win10 fuer alles dual boot ist dann eher unter dem Gedanken (IMHO) dass sowieso fast kein Schwein eigentlich win10 auf den Dingern benutzt. Ich hab's mir auf meinem ein paar mal angesehen und ausser dass es mehr Strom frisst als Android5.1 und im guten Ganzen auch langsamer als dieses ist generell hat es nicht wirklich etwas berauschendes zu bieten fuer ein 10.1" Geraet.
deekey777
2016-12-15, 16:40:33
PC vendors trying out Qualcomm/Windows products (http://www.digitimes.com/news/a20161214PD206.html)
Interesse ist da.
dildo4u
2016-12-19, 10:19:59
Qualcomm Demos 48-Core Centriq 2400 Server SoC in Action, Begins Sampling
http://www.anandtech.com/show/10918/qualcomm-demos-48core-centriq-2400-server-soc-in-action-begins-sampling
deekey777
2017-01-02, 15:19:56
http://videocardz.com/65139/qualcomm-snapdragon-835
Neu? Gleich 10 nm?
y33H@
2017-01-02, 15:23:21
Dass der SD835 in 10LPE kommt, ist nicht neu: http://www.golem.de/news/smartphone-soc-der-snapdragon-835-wird-in-samsungs-10lpe-prozess-gefertigt-1611-124522.html
Alles andere ist ein Leak ;(
deekey777
2017-01-02, 15:32:32
Dass der SD835 in 10LPE kommt, ist nicht neu: http://www.golem.de/news/smartphone-soc-der-snapdragon-835-wird-in-samsungs-10lpe-prozess-gefertigt-1611-124522.html
Alles andere ist ein Leak ;(
Wann soll das Ding dann kommen? Insbesondere im Hinblick mit der Win32-Emu?
Nightspider
2017-01-02, 16:47:46
Mit 10nm hat man schon einen ordentlichen Vorteil gegenüber dem in 16nm gerfertigen A10 Fusion SoC aus dem iPhone 7.
Allerdings wird man das volle Potential (großer Chip) wohl keinesfalls schon so früh ausreizen können.
Es würde mich daher nicht wundern wenn der SD835 nicht viel mehr Transistoren besitzt und eher ein kleiner Chip wird mit vielleicht nur 80-90mm² oder so.
Noch mehr gespannt bin ich aber ehrlich gesagt auf Samsungs neuen Exynos.
robbitop
2017-01-02, 19:33:05
Soweit ich weiß ist 10 nm der neue 20 nm Prozess. Kaum höhere Performance aber kleiner. Der große Sprung kommt wohl mit 7 nm.
A10X für die iPads soll wohl auch in 10 nm gefertigt werden (Launch wohl im März). A11 dann im September ebenfalls in 10 nm.
deekey777
2017-01-03, 09:47:40
Dass der SD835 in 10LPE kommt, ist nicht neu: http://www.golem.de/news/smartphone-soc-der-snapdragon-835-wird-in-samsungs-10lpe-prozess-gefertigt-1611-124522.html
Alles andere ist ein Leak ;(
Wenn die Bombe explodiert ist, sollte man die freigewordene Energie für eigene Zwecke nutzen.
Irgendwie habe ich eine gewisse Skepis, was 10 nm angeht. Geht mir irgendwie zu schnell, TSMC soll laut Zeitungsberichten Probleme haben, was TSMC umgehend verneint hat.
BlackBirdSR
2017-01-03, 10:49:14
Wenn die Bombe explodiert ist, sollte man die freigewordene Energie für eigene Zwecke nutzen.
Irgendwie habe ich eine gewisse Skepis, was 10 nm angeht. Geht mir irgendwie zu schnell, TSMC soll laut Zeitungsberichten Probleme haben, was TSMC umgehend verneint hat.
Das Problem ist doch, spielst Du einmal auf Nummer sicher und landest am Ende hinter den Konkurrenten, dann verspielst Du Dir alles.
Sieh doch mal, wo MediaTek und HiSilicon aufgeholt haben?
Früher einmal waren nahezu überall Snapdragons verbaut. Heute haben die meisten devices meistens MT oder HiSi verbaut.
In Midrange-Geräte kommt man mit teureren SOCs meist über Rahmenverträge über High-Ende SOCs. Und diese bekommt man eben nur, wenn man auch den High-End SOC hat, den jeder will...
Ich halte die Spirale auch für zu schnell, insbesondere, da man die Prozesse davor schon nicht im Griff hat, aber was will man tun?
Intel macht es irgendwie trotzdem richtig.... Nicht, dass man besonders hohen Druck vom Mittbewerber hätte.
Aber der kommt noch, wenn die ARMs SOCs mit neuen Geräten in den Desktop / Notebookmarkt wollen.
Nightspider
2017-01-03, 18:02:54
Soweit ich weiß ist 10 nm der neue 20 nm Prozess. Kaum höhere Performance aber kleiner. Der große Sprung kommt wohl mit 7 nm.
A10X für die iPads soll wohl auch in 10 nm gefertigt werden (Launch wohl im März). A11 dann im September ebenfalls in 10 nm.
Offiziell hieß es doch glaube von TSMC das 30% Platz eingespart wird und 40% weniger Energie ODER 30% mehr Leistung ermöglicht werden.
BlackBirdSR
2017-01-04, 08:24:09
Laut Anandtech basieren die CPU Kerne im Snapdragon 835 übrigens nicht auf den Kyro 200 des Snapdragon 820, sondern auf A72/73 in einer modifizierten Form.
http://www.anandtech.com/show/10948/qualcomm-snapdragon-835-kryo-280-adreno-540
Qualcomm würde immer alle Optionen prüfen (ARM, Custom oder Modified) und das entsprechend beste für den Kunden wählen....
Auf Deutsch meine Interpretation:
Aufgrund der schlechten Multi-Core Performance in Benchmarks des 820, und den doch recht hohen Verbrauchswerten der 2+2 Konfiguration, hat man wohl auf ein 4+4 ARM A72/73 mit einigen Modifikationen gesetzt, um nicht zu weit hinter Samsung, HiSilicon und MT zurückzufallen mit ihren 2x oder 4x A73 Designs.
Bin gespannt, ob wir nochmal einen fully custom core von Qualcomm sehen werden...
deekey777
2017-01-04, 10:17:52
Und trotzdem nennt Qualcomm sie "Kryo 280", weil doch etwas rumgefummelt.
Ist euch aufgefallen, dass fast in jedem Artikel zu S835 der Hinweis, dass darauf Windows 10 laufen wird, zu finden ist?
mboeller
2017-01-04, 10:39:16
....um nicht zu weit hinter Samsung, HiSilicon und MT zurückzufallen mit ihren 2x oder 4x A73 Designs.
Bin gespannt, ob wir nochmal einen fully custom core von Qualcomm sehen werden...
Samsung benutzt aber keine A72/73 sondern ihren eigenen Mongoose M1
hotchips PDF: http://www.hotchips.org/wp-content/uploads/hc_archives/hc28/HC28.22-Monday-Epub/HC28.22.20-Moble-Epub/HC28.22.220-ExynosM1-BradBurgess-SAMSUNG-FINAL.pdf
edit:
die Verbesserungen des SD835 halten sich aber in engen Grenzen:
Im Vergleich zum Vorgänger spart er 25 Prozent Energie und ist sogar 35 Prozent kleiner.
im Bild: up to 20% performance uplift over range of use cases....
und nur bei einigen Anwendungen ist der SD835 um bis zu 20% schneller als der SD820
IMHO enttäuschend
link: http://www.notebookcheck.com/Qualcomm-Snapdragon-835-Alle-offiziellen-Spezifikationen.189089.0.html
BlackBirdSR
2017-01-04, 10:50:52
Samsung benutzt aber keine A72/73 sondern ihren eigenen Mongoose M1
hotchips PDF: http://www.hotchips.org/wp-content/uploads/hc_archives/hc28/HC28.22-Monday-Epub/HC28.22.20-Moble-Epub/HC28.22.220-ExynosM1-BradBurgess-SAMSUNG-FINAL.pdf
war schon klar...
deLuxX`
2017-01-04, 11:19:52
und nur bei einigen Anwendungen ist der SD835 um bis zu 20% schneller als der SD820
Und der SD821 ist ja etwa 10% schneller als der 820....
Ailuros
2017-01-04, 11:56:19
Soweit ich weiß ist 10 nm der neue 20 nm Prozess. Kaum höhere Performance aber kleiner. Der große Sprung kommt wohl mit 7 nm.
A10X für die iPads soll wohl auch in 10 nm gefertigt werden (Launch wohl im März). A11 dann im September ebenfalls in 10 nm.
Prozesse hin oder her, es wurde hoechste Zeit dass SoC Hersteller mehr auf reale Effizienz setzen und weniger auf kunterbunte synthetische scores die nur fuer wenige Sekunden ihren Wert haben.
Die Zeiten sind vorbei wo man jedes Jahr einen sehr grossen Sprung sah und dieses gilt natuerlich nicht nur fuer den ULP SoC Markt.
deekey777
2017-01-04, 13:30:25
Was mir eingefallen ist:
Kann Windows 10 schon/überhaupt mit big.LITTLE-Umgehen? Wie ist das unter Windows 10 Mobile?
robbitop
2017-01-04, 14:56:51
Das ist ja mal eine Überraschung. Ich hätte damit gerechnet, dass Qualcomm ihre eigene mArch nutzt und weiterentwickelt. Vor dem Hintergrund, dass es ziemlich teuer und komplex ist, eine eigene CPU mArch zu nutzen und bereits 1 Jahr später wieder durch eine Fremd-mArch (selbst wenn sie modifiziert wurde) ersetzt wird, ist das kein gutes Zeichen. Dafür ist das ein zu teurer Spaß. Ich wäre über die wahren Gründe zu der Entscheidung hoch interessiert. Zu hören bekommt man natürlich eine Marketingbegründung "blabla wir prüfen jedes Jahr alle Optionen.." - schon klar...
Irgendwas scheint schiefgelaufen zu sein oder aber Kryos war hatte signifikante Nachteile in Punkto Perf/W.
BlackBirdSR
2017-01-04, 15:01:34
Das ist ja mal eine Überraschung. Ich hätte damit gerechnet, dass Qualcomm ihre eigene mArch nutzt und weiterentwickelt. Vor dem Hintergrund, dass es ziemlich teuer und komplex ist, eine eigene CPU mArch zu nutzen und bereits 1 Jahr später wieder durch eine Fremd-mArch (selbst wenn sie modifiziert wurde) ersetzt wird, ist das kein gutes Zeichen. Dafür ist das ein zu teurer Spaß. Ich wäre über die wahren Gründe zu der Entscheidung hoch interessiert. Zu hören bekommt man natürlich eine Marketingbegründung "blabla wir prüfen jedes Jahr alle Optionen.." - schon klar...
Irgendwas scheint schiefgelaufen zu sein oder aber Kryos war hatte signifikante Nachteile in Punkto Perf/W.
Hast Du doch gesehen.
In allen (für User-Experience unnützen) Multi-Core Tests hat das Gespann aus 2+2 Kyro200 versagt, war aber wohl auch bei "10nm" nicht ausreichend sparsam in einer 4+4 Variante.
Die aktuelle 4+4 Variante ist wohl sparsamer und ausreichend schnell in Multi-Core Tests, um die anderen etwas auf Abstand zu halten für die nächste Runde.
mboeller
2017-01-04, 15:35:05
Hast Du doch gesehen.
In allen (für User-Experience unnützen) Multi-Core Tests hat das Gespann aus 2+2 Kyro200 versagt, war aber wohl auch bei "10nm" nicht ausreichend sparsam in einer 4+4 Variante.
Die aktuelle 4+4 Variante ist wohl sparsamer und ausreichend schnell in Multi-Core Tests, um die anderen etwas auf Abstand zu halten für die nächste Runde.
...und IMHO sind sogar die 20% schneller aus der SD835 Präsentations-Folie mehr oder weniger auf die little-Cores zugeschnitten. Die Big-Cores werden sich sehr wahrscheinlich 90-95% der Zeit bei normaler Nutzung langweilen und sind weitgehend nur für die Benchmarks da (selbst bei Spielen werden die Cores ja runtergetaktet um die GPU mit max. Speed laufen lassen zu können).
Dieses Benchmark-Bingo geht IMHO in die falsche Richtung. Nur Apple macht es richtig(er).
robbitop
2017-01-04, 15:41:38
Hast Du doch gesehen.
In allen (für User-Experience unnützen) Multi-Core Tests hat das Gespann aus 2+2 Kyro200 versagt, war aber wohl auch bei "10nm" nicht ausreichend sparsam in einer 4+4 Variante.
Die aktuelle 4+4 Variante ist wohl sparsamer und ausreichend schnell in Multi-Core Tests, um die anderen etwas auf Abstand zu halten für die nächste Runde.
Apple, der Player, der den Großteil des Gewinns im Mobilemarkt einstreicht, interessiert MT auch nicht die Bohne. Wäre jedenfalls ein ziemlich bescheidener Grund.
BlackBirdSR
2017-01-04, 17:01:01
Apple, der Player, der den Großteil des Gewinns im Mobilemarkt einstreicht, interessiert MT auch nicht die Bohne. Wäre jedenfalls ein ziemlich bescheidener Grund.
Apple muss auch nicht dem Hersteller des iPhones seinen SoC schmackhaft machen.
Qualcomm muss Firmen wie Sony, Samsung, Google etc. überzeugen.
Ich denke das wird ein Grund sein.
CrazyIvan
2017-01-04, 18:12:50
Hast Du doch gesehen.
In allen (für User-Experience unnützen) Multi-Core Tests hat das Gespann aus 2+2 Kyro200 versagt, war aber wohl auch bei "10nm" nicht ausreichend sparsam in einer 4+4 Variante.
Die aktuelle 4+4 Variante ist wohl sparsamer und ausreichend schnell in Multi-Core Tests, um die anderen etwas auf Abstand zu halten für die nächste Runde.
Hinzu kommt noch, dass eine 8-Kern Variante mit Kyro 200 sicherlich trotz Shrink deutlich größer ausgefallen wäre. Damit bewahrheitet sich, was im B3D Forum AFAIR bereits zum 820 Release gemutmaßt wurde.
Big fail für die eigene Architektur, wenn bereits nach einem Jahr die Lösung von der Stange das in Summe bessere Gesamtpaket ist.
BlackBirdSR
2017-01-04, 19:28:28
Hinzu kommt noch, dass eine 8-Kern Variante mit Kyro 200 sicherlich trotz Shrink deutlich größer ausgefallen wäre. Damit bewahrheitet sich, was im B3D Forum AFAIR bereits zum 820 Release gemutmaßt wurde.
Big fail für die eigene Architektur, wenn bereits nach einem Jahr die Lösung von der Stange das in Summe bessere Gesamtpaket ist.
Sehe ich auch so.
Ich frage mich, ob es dann noch kurzfristig für nächstes Jahr einen ganz eigenen Core geben wird.
Abseits von Apple, scheinen die wenigsten mit ihren eigenen Kernen besonders große Vorteile zu erzielen.
QC, Nvidia, LG, (Samsung muss man sehen)
Anderes Thema:
Man sieht ja, dass die anderen Bestandteile des SoCs für Bildbearbeitung, Kamera, Video und "KI" nicht an den Custom-Core gebunden sind.
Qualcomm scheint sich mehr und mehr von den Anderen durch zusätzlich Features absetzen zu wollen.
Das wird doch irgendwann mit dem dual-sourcing bei den Samsung Geräten führen?
stinki
2017-01-04, 23:00:04
ich sage es ja nur sehr ungern aber ...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10901731&postcount=1218
lag dann wohl doch mal richtig...
Ailuros
2017-01-05, 11:07:02
ich sage es ja nur sehr ungern aber ...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10901731&postcount=1218
lag dann wohl doch mal richtig...
Fudo ist auch so keine Quelle; das Geruecht schwirrt aber trotz allem immer noch im Hintergrund herum. Ob QCOM KRYO aufgeben wird keine Ahnung; IHVs vermeiden es meistens so stark wie moeglich. Ihre DX11 GPU Architektur ist auch ziemlich im Popo gewesen und sie haben links und rechts fuer Alternativen geforscht, es ist aber doch am Ende bei Adreno geblieben.
robbitop
2017-01-05, 14:59:32
Ja man muss schon sagen, dass die Customcores von Samsung, QC und NV in Summe nicht besser als die bereits sehr guten Standard-ARM Cores sind. A15 war sehr hungrig. Das war sicherlich für Krait eine gute Zeit. A57 und A72 haben das Design nochmal deutlich optimiert und seit A73 ist ein sehr schlankes Design (2-issue!) was trotzdem die Performance der fetten Vorgänger mArch hat bei weniger Leistungsaufnahme.
Mediatek und HiSilicon haben hier vieles richtig gemacht.
Einzig Apples custom Cores bringen richtig Vorteile. Mich würde mal interessieren, ob die Little Cores im A10 auch custom Cores sind oder ob es sich um A35/53 handelt.
BlackBirdSR
2017-01-05, 16:13:22
Einzig Apples custom Cores bringen richtig Vorteile. Mich würde mal interessieren, ob die Little Cores im A10 auch custom Cores sind oder ob es sich um A35/53 handelt.
The biggest revelation was just how huge the Hurricane cores are. At 4.18 mm2 they’re “about twice the size of other high-end mobile CPUs”. Even the smaller Zephyr cores are much larger than their low-power counterparts – “nearly twice as large as Cortex-A53”. But does size really matter?
Quelle:
Microprocessor Report.
robbitop
2017-01-05, 17:57:40
Also auch custom. IMO ist A35 ein richtig guter Little Core, der aber praktisch kaum eingesetzt wird. In Hinsicht auf Leistungsaufnahme war A53 ggü A7 ein absoluter Rückschritt. A53 ist für einen Little Kern sehr schnell. IIRC Krait Niveau. Extrem schnell, wenn man bedenkt, dass A53 ein In Order Kern ist. Die Leistungsaufnahme stieg allerdings deutlich stärker als die Performance.
A35 ist der wahre Nachfolger von A7. Ein wenig schneller als A7, 64 bit ISA und super sparsam. Für Hintergrundzugriffe, Seitenaktualisierung etc schnell genug und sparsamer als A53.
Rooter
2017-01-08, 13:06:40
Sehe ich genau so, daher bin ich sehr auf den Helio X30 gespannt.
MfG
Rooter
deekey777
2017-01-20, 17:42:15
http://www.gizchina.com/2017/01/20/nokia-preparing-launch-huge-18-4-inch-tablet/
Riesentablet von Nokia mit S835?
Nebenbei: Apple hat Qualcomm auf eine Milliarde US-Dollar verklagt.
deekey777
2017-01-24, 11:51:51
Why The LG G6 Won't Have Snapdragon 835 (http://www.forbes.com/sites/bensin/2017/01/23/the-lg-g6-wont-have-snapdragon-835-because-the-galaxy-s8-has-first-dips/#7c98a24d23d0)
"The Snapdragon 835 won't be available in large quantities until after the Galaxy S8 launches," the source told me.
deekey777
2017-03-22, 15:04:33
Zahlen zum S830: http://www.anandtech.com/show/11201/qualcomm-snapdragon-835-performance-preview
Ailuros
2017-03-22, 17:12:49
Zahlen zum S830: http://www.anandtech.com/show/11201/qualcomm-snapdragon-835-performance-preview
Wohl typo da S835....leider nur eine Referenz-Platform ergo kann jeglicher reviewer leider auch nicht die Batterie-tests laufen lassen. Mich interessiert hauptsaechlich ob Adreno540 sehenswert weniger throttelt (als jeglicher Vorgaenger bis zum 330 zurueck), welches erstens die relativ geringe Leistungssteigerung zum 530 gerechtfertigen wuerde.
Sonst hat QCOM zwar recht was synthetische benchmarks betrifft, aber das meiste dass sie betonen wird in den ausfuehrlicheren tests in reviews von fertigen Geraeten verglichen.
Afaik ist die Aufnahme von NXP nocht nicht vollstaendig. Auf jeden Fall wuerde es mich interesserien ob es in der Zukunft eine aggressivere Politik fuer automotive geben wird.
deekey777
2017-03-22, 18:47:11
Du weißt doch, das Ding kann auch über Wasser laufen.
Ich bin auf Windows 10 ARM gespannt, wie gut es mit der Emulation von x32-Programmen klappen wird.
Ailuros
2017-03-23, 09:58:15
Du weißt doch, das Ding kann auch über Wasser laufen.
Neben der ueblichen Kritik und ausserhalb was jedes Herstellers Marketing-Abteilung behaupten wird, man ist mit einem jeglichen QCOM SoC schon in guten Haenden.
Ich bin auf Windows 10 ARM gespannt, wie gut es mit der Emulation von x32-Programmen klappen wird.
Ich verdaechtige ein "nothing to see here, move on".....
deekey777
2017-03-23, 10:17:21
Der Name "Snapdrageon" ist wie "Trump": Wenn er drauf steht, dann ist es besser als andere. :ulol:
Im Ernst: Du hast Recht, bis auf die beiden Hitzköpfe ist "Snapdragon" allein ein Qualitätsmerkmal.
Ailuros
2017-04-07, 07:10:29
Adreno540 im Gfxbench https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20(TM)%20540&did=43080073&D=Qualcomm%20Adreno%20540%20(development%20board)
Es fehlen noch leider die Batterie/long term performance tests aber auf einem devboard kann man die ja auch nicht laufen lassen.
deekey777
2017-04-07, 09:14:12
Semi-OT: Windows 10 Mobile soll (noch) keine Unterstützung für den S835 bieten. Wozu auch...
Ailuros
2017-04-07, 20:11:01
Semi-OT: Windows 10 Mobile soll (noch) keine Unterstützung für den S835 bieten. Wozu auch...
So toll ist die Nachricht nicht wirklich; im Klartext heisst es dass wenn ich ein weiteres billiges China-tablet haben will ist es dann leider nur Intel's lauwarmer Mist oder gar nichts.
deekey777
2017-04-07, 20:15:59
So toll ist die Nachricht nicht wirklich; im Klartext heisst es dass wenn ich ein weiteres billiges China-tablet haben will ist es dann leider nur Intels lauwarmer Mist oder gar nichts.
Es geht ja um Windows 10 Mobile, nicht um Windows 10.
Zwei Möglichkeiten:
Es wird keine neuen (Highend-)Geräte für Windows 10 Mobile geben.
Man will keine nichtveröffentlichten Geräte spoilern.
mboeller
2017-05-09, 10:22:30
Qualcomm Snapdragon 660 und 630:
https://www.notebookcheck.com/Qualcomm-Snapdragon-660-und-630-Mehr-Power-fuer-die-Mittelklasse.219652.0.html
wer braucht da noch Highend?
der Snapdragon 660 hat 8 Kryo 280 CPU-Kerne mit bis zu 2,2 GHz
deekey777
2017-05-09, 12:15:06
Qualcomm Snapdragon 660 und 630:
https://www.notebookcheck.com/Qualcomm-Snapdragon-660-und-630-Mehr-Power-fuer-die-Mittelklasse.219652.0.html
wer braucht da noch Highend?
der Snapdragon 660 hat 8 Kryo 280 CPU-Kerne mit bis zu 2,2 GHz
Und das vierzehn Tage vor dem weiteren Surface-Event am 23.05. Hm, Zufall? :freak:
CrazyIvan
2017-05-09, 18:48:16
Qualcomm Snapdragon 660 und 630:
https://www.notebookcheck.com/Qualcomm-Snapdragon-660-und-630-Mehr-Power-fuer-die-Mittelklasse.219652.0.html
wer braucht da noch Highend?
der Snapdragon 660 hat 8 Kryo 280 CPU-Kerne mit bis zu 2,2 GHz
Ich will nicht in Abrede stellen, dass der SoC für Midrange sehr stark ist. Aber er hat Kryo 260, die niedriger getaktet sind und ist vor allem auf einem älteren Prozess.
Was mich wundert - warum wird nirgends A35 für little verwendet - wäre doch zumindest in Kombination mit A53 als big sinnvoller als A53/A53.
mczak
2017-05-09, 20:04:36
Ich will nicht in Abrede stellen, dass der SoC für Midrange sehr stark ist. Aber er hat Kryo 260, die niedriger getaktet sind und ist vor allem auf einem älteren Prozess.
Es ist ziemlich das gleiche Rezept wie der 650/652/653 - auch wenn damals der SD820 noch andere Kerne hatte (die auch nicht wirklich schneller waren pro Takt).
Bei der GPU gibt es allerdings schon grössere Einbussen (wobei bei der longterm-Performance der Unterschied längst nicht so gross ist wie bei den restlichen 3d-Benchmarks, denn die Midrange-Chips können genauso wie die Lowend-Chips ihren GPU Takt auch unter Dauerlast ziemlich gut halten).
Was mich wundert - warum wird nirgends A35 für little verwendet - wäre doch zumindest in Kombination mit A53 als big sinnvoller als A53/A53.
Vielleicht ist bei einer A73/A35 Kombination der Unterschied schon wieder etwas gross - eine A53/A35 Konfiguration müsste aber eigentlich tatsächlich gut funktionieren. Vielleicht sind auch einfach alle zu faul da was zu Entwickeln, im Lowend-Bereich sieht man sehr selten was neues...
Dass A35 "nirgends" verwendet wird stimmt aber nicht ganz - der MTK Helio X30 hat 4 A35 in einer big.little.more-little Konfiguration :-). Da sind schon Smartphones angekündigt (wobei ich sehr skeptisch bin bei diesem Deka-Core Konzept).
robbitop
2017-05-11, 09:45:33
Ich frage mich, welche IP hinter Kryo 260 steckt. Kryo 280 und Mongoose M2 sind ja beides leicht veränderte A73. Hat mit echten Custom Cores ja nichts mehr zu tun.
Notebookcheck erwähnt A72 für Kryo 260. Macht aber IMO keinen Sinn. Sind fetter und stromhungriger als A73. Ggf. noch ein echter 2016 Kryo Custom Core aus dem S820?
Qualcomm didn't go into many details about what separates the 630's Kryo 260 from the Snapdragon 835's Kryo 280, which is itself a customized version of ARM's Cortex A73 rather than an all-new CPU architecture. What we do know is that the Kryo 260 cores are a couple hundred MHz slower than the Kryo 280 cores and that the "performance" cores include just 1MB of L2 cache compared to 2MB in Kryo 280. The end result is a processor that's up to 20 percent faster than the 1.95GHz Cortex A72 cores and 1.44GHz Cortex A53 cores in the Snapdragon 653.
https://arstechnica.com/gadgets/2017/05/qualcomms-snapdragon-660-and-630-bring-more-high-end-features-to-midrange-chips/
Der etwas geringere Takt und die 1 MiB L2 Cache würden zum originalen 2016er Kryo Kern passen. So könnte man diesen, bevor man ihn nach teurer Entwicklung komplett entsorgt, im Mainstreamprodukt nochmal verbauen und spart sich hier Lizenzgebühren. Klingt erstmal konkludent.
Schon merkwürdig, dass QC und Samsung auf A73 gewechselt sind. Scheint ja ein toller Core zu sein...
y33H@
2017-05-11, 15:22:58
260/280 sind beide Semi-Custom laut Qualcomm.
robbitop
2017-05-11, 15:27:28
Ich bin gespannt. A73 als Basis mit weniger L2 würde sicherlich auch gehen. Dann wäre man aber kaum langsamer als der 835er. A72 und A57 machen keinen Sinn mehr (nicht billiger, aber stromhungriger).
mczak
2017-05-11, 18:11:26
Ich bin gespannt. A73 als Basis mit weniger L2 würde sicherlich auch gehen. Dann wäre man aber kaum langsamer als der 835er.
Naja sind ja immerhin ~10% weniger Takt, weniger Cache, das gibt dann schon einen gewissen Unterschied. Zudem vermutlich noch etwas weniger energieeffizient (wegen anderem Prozess), das schlägt sich auch in den (multicore) Benchmarks nieder.
Da ist doch eh praktisch nur der Name custom, und fürs Marketing macht sich das richtig gut wenn man High-End eine höhere Nummer hat :biggrin:.
Rooter
2017-05-13, 20:24:04
Was mich wundert - warum wird nirgends A35 für little verwendet - wäre doch zumindest in Kombination mit A53 als big sinnvoller als A53/A53.Ja, das wundert mich auch, außer im Helio X30 hört man gar nichts vom A35. :confused:
MfG
Rooter
deekey777
2017-05-21, 18:06:14
S845 blabla: https://www.notebookcheck.com/Snapdragon-845-Kirin-970-Erste-Leaks-zu-den-naechsten-High-End-SOCs.222084.0.html
A75(?)&A53 mit Adreno 630.
=Floi=
2017-05-22, 14:23:51
was soll denn der A75 können? wieder nur ein refresh?
deekey777
2017-05-22, 15:11:46
Nun ja, es ist kein Kryo. Und ein A75 wurde (noch) nicht vorgestellt.
robbitop
2017-05-22, 16:53:28
was soll denn der A75 können? wieder nur ein refresh?
Wieso "wieder nur ein Refresh"? A73 war bspw eine völlig andere mArch als A72.
A72 war ein stark optimierter A57 (breites, relativ hungriges Design). Und dieser hatte seine Wurzeln ein Stück weit im A15.
A73 fußt eher auf der Designphilosophie vom A12/17 auf. Schmales, sparsames Design (2 issue).
Nur weil die Zahl in letzter Zeit nicht so stark wächst, sagt das nichts über die Veränderung aus.
Da ARM den A75 Core noch nicht vorgestellt hat, wissen wir nicht, welche mArch verbaut wurde.
Ggf. ist jetzt wieder das andere Designteam (A15-A57-A72) dran.
mczak
2017-05-22, 19:31:42
Ggf. ist jetzt wieder das andere Designteam (A15-A57-A72) dran.
Das wäre eigentlich logisch. Welches Team auch immer, ich würde vermuten es ist ein breiteres Design als A73. Der ist zwar toll, aber am Ende des Tages nicht gross schneller als der A72 (trotz der schönen Diagrammen), bloss effizienter. Ich denke mal das 2-fach breite Design (jedenfalls was den Decoder und die Integer-ALUs angeht) ist doch langsam ziemlich ausgereizt.
Rooter
2017-08-15, 21:07:57
Qualcomm Spectra ISP: Bildprozessor des Snapdragon 845 liefert Tiefendaten in 3D (https://www.computerbase.de/2017-08/qualcomm-2nd-gen-spectra-isp/)
Das eröffnet viele Möglichkeiten. Muss sich aber zeigen in wie vielen Geräten die nötige Hardware tatsächlich auch verbaut werden wird... :-/
MfG
Rooter
urpils
2017-08-16, 06:36:25
Qualcomm Spectra ISP: Bildprozessor des Snapdragon 845 liefert Tiefendaten in 3D (https://www.computerbase.de/2017-08/qualcomm-2nd-gen-spectra-isp/)
Das eröffnet viele Möglichkeiten. Muss sich aber zeigen in wie vielen Geräten die nötige Hardware tatsächlich auch verbaut werden wird... :-/
MfG
Rooter
es sollte ja schon reichen "nur" 2-Kamera-Systeme im Smartphone zu haben - was ja mittlerweile keine Rarität mehr darstellt.
deekey777
2017-12-05, 15:13:30
Heute ist das große Qualcomm-Event, u.a. soll Snapdragon 845 offiziell vorgestellt werden, aber auch erste Geräte mit Windows 10 ARM (gemunkelt wird, dass sie mit Snapdragon 845 kommen).
https://www.qualcomm.com/news/releases/2017/11/15/qualcomm-live-webcast-second-annual-snapdragon-technology-summit-keynote
Loeschzwerg
2017-12-06, 06:43:29
https://www.anandtech.com/show/12097/qualcomm-snapdragon-tech-summit-live-blog-630pm-utc#post1205144103
https://www.computerbase.de/2017-12/snapdragon-835-windows-10-asus-hp/
Sieht jetzt nicht nach 845 für Win10@ARM aus, schade. Gespannt bin ich trotzdem.
dildo4u
2017-12-06, 09:54:53
64 Bit Programme laufen noch nicht da muss noch einiges auf der Software Seite passieren bevor es interessant wird.
deekey777
2017-12-06, 09:56:09
64 Bit Programme laufen noch nicht da muss noch einiges auf der Software Seite passieren bevor es interessant wird.
Natürlich laufen 64-bit-Programme, aber eben keine x86-64-Programme/Apps, was auch nie angekündigt worden ist.
------------------------------
Snapdragon 845 Unveiled: Here's What to Expect (https://www.tomsguide.com/us/snapdragon-845-previewed,news-26220.html)
While not revealing every detail about the Snapdragon 845, Qualcomm said the newest mobile processing platform would focus on six features: cameras that could take 360-degree photos, VR and AR immersion, artificial intelligence, security, Gigabit LTE and, of course, more power. Qualcomm didn't disclose how much faster the Snapdragon 845 would be relative to this year's top-of-the-line Snapdragon 835, but that chip was significantly faster than its predecessor when we tested it at the start of 2017 while consuming less power.
845 könnte wirklich ein größerer Schritt nach vorne sein.
aceCrasher
2017-12-06, 22:04:28
Auf Anandtech stand, dass es heute mehr Informationen zum SD845 gibt - wann ist denn heute die Präsentation, auf Anandtech etc. tut sich da nichts.
EDIT: Top, danke!
dildo4u
2017-12-06, 22:07:27
Hier sind die Infos zum 845.
https://www.notebookcheck.com/Qualcomm-Snapdragon-845-Mehr-Power-fuer-unsere-2018er-Flaggschiffe.268228.0.html
aceCrasher
2017-12-06, 22:17:31
Da steht was von 8x Kryo 385 Kernen, sehe ich das richtig, dass die anstatt 4 high performance und 4 efficiency Kernen einfach 8 high performance Kerne verbaut haben und die Hälfte dieser mit niedriger Taktrate betreiben, anstatt "richtige" efficiency Kerne wie den A55 zu verwenden?
EDIT: Hat sich erledigt, die 1,7GHz Kerne sind A55s.
Von reddit:
"I am at the Q&A, Travis Lanier was asked which semi-custom cores they are using and he said A75 and A55 (got it on clip). So, not really, it's using "real" efficiency cores (A55). We waited to publish specifically to hear what cores they were using."
y33H@
2017-12-07, 02:38:31
Anandtech ist nicht vor Ort, lange Geschichte. Aber andere Leute von Purch.
mboeller
2017-12-07, 07:55:52
vom 845er SoC gibt es ja ein schönes Bild incl. Pinnwand-Nadel.
Diese Nadeln sind anscheinend ca. 23mm lang
Wenn der 845er wirklich nur das kleine schwarze "Rechteck" in der Mitte ist, dann wäre er ja nur knapp über 50mm² groß (ich komme grob auf so 52-55mm²).
Kann das stimmen?
link: https://newatlas.com/snapdragon-845/52506/#gallery
y33H@
2017-12-07, 09:34:23
Package ist 12,4 x 12,4 mm.
deekey777
2017-12-07, 09:51:41
Was kann Adreno 630 noch außer 30% mehr Leistung?
mboeller
2017-12-07, 10:06:00
Package ist 12,4 x 12,4 mm.
Danke. Damit komme ich dann auf ca. 48mm²
IMHO sehr klein. Ein A11 wäre damit über 82% größer!
Lurtz
2017-12-07, 10:59:36
Was SingleCore-Leistung angeht (Javascript) sieht das Ding wahrscheinlich immer noch kein Land gegen Apple-SoCs?
dildo4u
2017-12-07, 11:26:43
Sie versprechen 25% mehr CPU Leistung für die 4 Performance Cores.
Laut Computerbase ist A11 bei der Single Core Leistung 120% schneller als 835.
BlackBirdSR
2017-12-07, 14:50:13
Ich glaube eher, dass x64 ein Lizenz Thema ist....
64 Bit Programme laufen noch nicht da muss noch einiges auf der Software Seite passieren bevor es interessant wird.
Nightspider
2017-12-07, 16:50:21
Danke. Damit komme ich dann auf ca. 48mm²
IMHO sehr klein. Ein A11 wäre damit über 82% größer!
Mit welcher Formel kommst du von der Package Größe zur Die Größe?
Kann mir kaum vorstellen das der 845 so klein wird, bei dem ausgereiften 10nm Prozess.
Loeschzwerg
2017-12-07, 17:52:12
Ich glaube eher, dass x64 ein Lizenz Thema ist....
Wurde denn entsprechend für x86 etwas lizenziert? Da war doch Intel hinter vorgehaltener Hand auch nicht so glücklich, bezüglich der Emulation.
mboeller
2017-12-07, 20:26:54
Mit welcher Formel kommst du von der Package Größe zur Die Größe?
Kann mir kaum vorstellen das der 845 so klein wird, bei dem ausgereiften 10nm Prozess.
ich auch nicht... aber wenn man dieses Bild hier (link zur Seite: https://newatlas.com/snapdragon-845/52506/#gallery ) als Basis nimmt und die 12,4mm Kantenlänge für das Package dann bleibt nicht mehr für den 845 übrig.
Rooter
2017-12-09, 18:35:32
2,8 GHz... :freak: Bin mal gespannt in welchen Geräten wir die wirklich sehen werden.
Was SingleCore-Leistung angeht (Javascript) sieht das Ding wahrscheinlich immer noch kein Land gegen Apple-SoCs?Nein X-D
MfG
Rooter
deekey777
2017-12-09, 18:47:33
Wurde denn entsprechend für x86 etwas lizenziert? Da war doch Intel hinter vorgehaltener Hand auch nicht so glücklich, bezüglich der Emulation.
Intel war am Anfang sehr erbost (ist vielleicht noch), aber vielleicht hat das was mit HP zu tun.
https://www.heise.de/ct/ausgabe/2017-22-Von-Stellungen-und-Stellschrauben-3855024.html
smalM
2017-12-09, 23:28:12
Kann mir kaum vorstellen das der 845 so klein wird, bei dem ausgereiften 10nm Prozess.
10LPP bietet gegenüber 10LPE keinen Vorteil bei der Packungsdichte, also denke ich, daß Deine Vorstellung richtig ist.
y33H@
2017-12-10, 04:32:53
2,8 GHz :freak: Bin mal gespannt in welchen Geräten wir die wirklich sehen werden.Always Connected PCs mit 3 GHz :cool:
=Floi=
2017-12-10, 08:09:56
Es langt im alltag doch im millisekunden bis sekunden bereich. Ne kurze ladezeit oder bei fotos ist solch eine vorhande leistung schon nicht schlecht. Das braucht man auch nicht so negativ sehen.
Schlimmer find ich den names fake mit den kernen.
mboeller
2017-12-11, 09:47:42
IMHO gute FAQ zu den neuen Qualcomm-Windows Geräten:
https://www.notebookcheck.com/Die-ultimative-FAQ-Antworten-zu-Always-Connected-PCs-mit-Snapdragon-Chip-und-Windows-10-auf-ARM.269502.0.html
deekey777
2017-12-11, 10:50:43
IMHO gute FAQ zu den neuen Qualcomm-Windows Geräten:
https://www.notebookcheck.com/Die-ultimative-FAQ-Antworten-zu-Always-Connected-PCs-mit-Snapdragon-Chip-und-Windows-10-auf-ARM.269502.0.html
Kleiner Einwand: https://www.drwindows.de/news/windows-on-arm-desktop-programme-installieren-trotz-windows-10-s
=Floi=
2017-12-11, 16:29:12
IMHO gute FAQ zu den neuen Qualcomm-Windows Geräten:
https://www.notebookcheck.com/Die-ultimative-FAQ-Antworten-zu-Always-Connected-PCs-mit-Snapdragon-Chip-und-Windows-10-auf-ARM.269502.0.html
zwei absätze gelesen und wieder zugemacht. Da kann man X86 vergessen...
xxxgamerxxx
2017-12-12, 21:45:11
Kleiner Einwand: https://www.drwindows.de/news/windows-on-arm-desktop-programme-installieren-trotz-windows-10-s
Welcher Einwand?
Nightspider
2017-12-20, 13:15:52
Galaxy S9 scheint ~22% schneller in SingleCore und MultiCore zu sein.
https://www.netzwelt.de/samsung-galaxy-s9/162765-galaxy-s9-plus--benchmark-test-zeigt-power-snapdragon-845-chips.html
IC3M@N FX
2017-12-21, 09:49:54
Galaxy S9 scheint ~22% schneller in SingleCore und MultiCore zu sein.
https://www.netzwelt.de/samsung-galaxy-s9/162765-galaxy-s9-plus--benchmark-test-zeigt-power-snapdragon-845-chips.html
Selbst ein Apple A9 (iPhone 6s) ist schneller als ein Snapdragon 845 CPU seitig im Single Core....
Wie kann das sein? Ich meine okay es ist perfekt abgestimmt auf Apple Hardware.
Trotzdem sind die ARM SoC hoffnungslos langsam, das sich die Hersteller nicht mal die Mühe machen zumindest Anschluss zu bekommen.....
lumines
2017-12-21, 10:21:48
Ich meine okay es ist perfekt abgestimmt auf Apple Hardware.
Die Software? Großartige Optimierungen scheinen sie da nicht zu haben. Die Hardware ist einfach tatsächlich nur brutal schnell und eben ihre Brechstange.
Wenn denn der Akku mitspielt, natürlich.
Ich denke Qualcomm hat da schon relativ stetige Verbesserungen. Könnte besser sein, aber so katastrophal sieht es nur gegen Apple aus. Auch MediaTek, Huawei oder Samsung kitzeln nicht viel mehr Leistung aus ihren Kernen raus. CPU-Entwicklung geht überall außer bei Apple eher schleppend voran.
Rooter
2017-12-23, 18:17:26
Die Software? Großartige Optimierungen scheinen sie da nicht zu haben. Die Hardware ist einfach tatsächlich nur brutal schnell und eben ihre Brechstange.
Wenn denn der Akku mitspielt, natürlich.
Ich denke Qualcomm hat da schon relativ stetige Verbesserungen. Könnte besser sein, aber so katastrophal sieht es nur gegen Apple aus. Auch MediaTek, Huawei oder Samsung kitzeln nicht viel mehr Leistung aus ihren Kernen raus. CPU-Entwicklung geht überall außer bei Apple eher schleppend voran.Ja, diese Tatsache ist für mich das IT-Mysterium der letzten Jahre. Wie zum Kuckuck machen die das? :freak: :uponder:
MfG
Rooter
BlackBirdSR
2017-12-24, 08:06:39
Ja, diese Tatsache ist für mich das IT-Mysterium der letzten Jahre. Wie zum Kuckuck machen die das? :freak: :uponder:
MfG
Rooter
Das ist wie bei den Autos auch. Man hat eine Basis z.B A4 und baut auf dieser Generation für Generation auf.
Hier werden Schwächen oder Kompromisse mitgezogen.
Intel is a und Arm sind in vielen Bereichen durch Basis oder Philosophie Entscheidungen gebunden.
Apple hatte es einfacher und wohl auch ein glückliches Händchen
robbitop
2017-12-24, 10:27:17
Apple hat halt über Jahre die besten Leute der Industrie zusammengeholt. Budget, und eine entsprechende Vision und Freiheiten sind sicherlich auch nicht irrelevant. Da ist sicherlich ein ganz andere Budget und Team als bei ARM, QC, Samsung oder gar NV an der CPU dran. Mit ganz anderen Mitteln.
basix
2017-12-24, 12:27:10
Jo Apple steckt enorm viel R&D in ihre SoCs. Und die Performance + Energieeffizienz gibt ihnen recht. Ob man so viel Power wirklich braucht ist ein anderes Thema. Ich habe gerne immer mehr als genug Leistung. Dies aber vor allem PC seitig, wo ich wesentlich mehr Zeit verbringe als am Smartphone. Ich schreibe das hier auf einem über 2 Jahre alten Samsung A5 und hatte noch fast nie aus Performance-Gründen das Bedürfnis auf was neues. Einzige Ausnahme ist die Kamera, wo die neuen und höherwertigen Modelle vor allem bei schwachen Lichtverhältnissen bessere Ergebnisse erzielen. Dies ist aber nur am Rande ein SoC Thema.
mboeller
2018-02-13, 10:14:10
https://www.anandtech.com/show/12420/snapdragon-845-performance-preview
der Snapdragon 845 scheint bei der CPU um einiges langsamer zu werden als der neue 9810/M3 von Samsung. Dafür ist die neue 630 GPU anscheinend massiv effizienter als die G72 GPUs von ARM.
https://www.anandtech.com/show/12361/samsung-exynos-m3-architecture
Qualcomm willl in den Linux Kernel ein aehnlich fettes Display-Treiber Paket fuer ihre Adrenos bringen wie AMD es mit DC gemacht hat. Bei AMD hat es knapp zwei Jahre gedauert, bis der Code im mainline Kernel war, mal schauen wie es bei Qualcomm laeueft...
Mesa hat mit freedreno auch schon laenger einen freien Treiber fuer Adrenos, aus der community entstanden und inzwischen von Qualcomm unterstuetzt. Waere auf jeden Fall sehr wuenschenswert, wenn deren SoCs eines Tages auch ootb mit einem Mainline Kernel funktionieren wuerden...
(via phoronix (https://www.phoronix.com/scan.php?page=news_item&px=Qualcomm-SDM845-Display))
Ailuros
2018-02-17, 23:10:39
https://www.anandtech.com/show/12420/snapdragon-845-performance-preview
der Snapdragon 845 scheint bei der CPU um einiges langsamer zu werden als der neue 9810/M3 von Samsung. Dafür ist die neue 630 GPU anscheinend massiv effizienter als die G72 GPUs von ARM.
https://www.anandtech.com/show/12361/samsung-exynos-m3-architecture
Adreno630 ist in der Zwischenzeit so effizient fuer fast alles PPA geworden dass es jegliche Konkurrenz verdammt schwer haben wird QCOM kurzfristig einzuholen.
WilhelmTre
2018-02-18, 01:35:36
Qualcomm willl in den Linux Kernel ein aehnlich fettes Display-Treiber Paket fuer ihre Adrenos bringen wie AMD es mit DC gemacht hat.
Dazu passend https://www.glassdoor.com/Interview/When-does-the-control-passes-from-user-mode-to-kernel-mode-in-a-Linux-System-QTN_6281.htm
Frage und Antwort eines ING.
BlackBirdSR
2018-02-19, 16:34:41
Und angeblich 2,9ghz (M3) zu 2,3 GHz (S845).
Das passt einfach nicht...
Das würde M3 zu einem one run benchmark tiger machen....
Bin gespannt
https://www.anandtech.com/show/12420/snapdragon-845-performance-preview
der Snapdragon 845 scheint bei der CPU um einiges langsamer zu werden als der neue 9810/M3 von Samsung. Dafür ist die neue 630 GPU anscheinend massiv effizienter als die G72 GPUs von ARM.
https://www.anandtech.com/show/12361/samsung-exynos-m3-architecture
mboeller
2018-03-24, 14:24:25
https://www.anandtech.com/show/12420/snapdragon-845-performance-preview
der Snapdragon 845 scheint bei der CPU um einiges langsamer zu werden als der neue 9810/M3 von Samsung. Dafür ist die neue 630 GPU anscheinend massiv effizienter als die G72 GPUs von ARM.
https://www.anandtech.com/show/12361/samsung-exynos-m3-architecture
https://cdn.gsmarena.com/imgroot/news/18/03/chipset-size-comparison/-1674x1441m/gsmarena_002.jpg
wow... die Effizienz bezieht sich nicht nur auf die Leistung oder den Verbrauch. Auch die Größe der GPU ist wesentlich geringer als bei der Konkurrenz.
https://www.gsmarena.com/comparing_the_sizes_of_flagship_chipsets_qualcomm_samsung_huawei_adn_apple-news-30240.php
Der Vergleich zw. dem Samsung 9810 und dem 845 ist wirklich :eek::eek::eek: bzgl. der GPU
reaperrr
2018-03-24, 15:39:30
Der Vergleich zw. dem Samsung 9810 und dem 845 ist wirklich :eek::eek::eek: bzgl. der GPU
Auch bzgl. der CPU, die 4 Kryo-Gold-Kerne sind ja zusammen kaum größer als ein einzelner M3-Kern, da kann man die geringere IPC schon verschmerzen...
Rooter
2018-03-24, 18:16:52
Aber echt, die M3 Kerne sind ja mal gigantisch! :O
MfG
Rooter
Ailuros
2018-04-05, 19:57:12
https://cdn.gsmarena.com/imgroot/news/18/03/chipset-size-comparison/-1674x1441m/gsmarena_002.jpg
wow... die Effizienz bezieht sich nicht nur auf die Leistung oder den Verbrauch. Auch die Größe der GPU ist wesentlich geringer als bei der Konkurrenz.
https://www.gsmarena.com/comparing_the_sizes_of_flagship_chipsets_qualcomm_samsung_huawei_adn_apple-news-30240.php
Der Vergleich zw. dem Samsung 9810 und dem 845 ist wirklich :eek::eek::eek: bzgl. der GPU
LOL ;) Leider ist vieles kein Zufall mehr ;)
Nightspider
2018-04-05, 20:11:11
Wie meinst du das?
Ailuros
2018-04-06, 00:21:13
Wie meinst du das?
Ich hatte vor kurzem mit mboeller eine private Diskussion ueber das Thema bevor die obrigen Daten veroeffentlicht wurden. Sowohl Apple als auch Samsung werden bald ihre eigenen GPUs entwickeln eben um effektiver gegen QCOM zu konkurrieren.
Digidi
2018-04-06, 00:31:55
Ob sich Apple damit einen Gefallen getan hat. Der PowerVR ist zwar größer, aber auch Leistungsfähiger. PowerVR hatte aber auch immer sehr gute Ideen. Der Tiled Based Rasterizer ist z.B. eine Erfindung von PowerVr
Ailuros
2018-04-06, 07:58:17
Ob sich Apple damit einen Gefallen getan hat. Der PowerVR ist zwar größer, aber auch Leistungsfähiger. PowerVR hatte aber auch immer sehr gute Ideen. Der Tiled Based Rasterizer ist z.B. eine Erfindung von PowerVr
Einem ewigen PVR Fan darfst Du das nicht erzaehlen.....aber einen jeglichen Vorsprung muss man pflegen und staendig aufs laufende bringen, wobei bei IMG mit all deren internen Problemen (hauptsaechlich vom obrigen Management) zu verdammt viel geschlampt wurde und die Entwicklung leidete eben darunter. Alles seit Rogue und auch Furian ist zwar sehr gut aber bei weitem nicht mehr besser als das was die Konkurrenz hat. Ob Du es glaubst oder nicht ein ARM G71 war zwar miserabel weil er zu viel Strom verdonnerte aber ARM lieferte es zu frueh aus dank Druck ihrer Partner; ein heutiger G72 verbraucht weniger Bandbreite als ein Series7XT core ob Du es glaubst oder nicht, eben weil ARM fett in ihr engineering bzw. R&D investiert und sich nicht auf ihren verdammten Lorbeeren fuer eine Ewigkeit ausruht. Furian hat nur noch einen geringen Vorsprung im Vergleich zum 72 und es wuerde mich kein bisschen wundern wenn selbst ARM bei der naechsten Generation sie ueberholt....
Die heutigen Adrenos haben im Vergleich zu Rogue GPU IP in Apple's SoC einen so hohen Vorteil was Stromverbrauch und die area betrifft, dass es nicht mehr schoen ist. Apple sah sich gezwungen auf's Frequenz-pedal in den letzten Generationen zu treten um ihre Marketing-Ziele einhalten zu koennen was aber wiederrum auf kosten des Stromverbrauchs ging. Von der Kombination Leistung-Frequenz-die area etc. eines heutigen Adreno630 kann ein jeglicher Series7XT Ableger nur traeumen. Dass die tablet SoC GPUs trotz ihrer gigantischen Groesse fast bei 1GHz takten ist Euch wohl entgangen...
Die Bilder eben sind ein Augenoeffner was die area betrifft, bleibt nur noch zu bedenken wie bescheiden der 630 eigentlich taktet. So schnell ist der A11 nun auch wieder nicht, stellenweise ist der 630 schneller und stets bei geringem Stromverbrauch denn der A11 erreicht seine scores nur wenn das Geraet relativ kalt ist https://www.anandtech.com/show/12520/the-galaxy-s9-review/6 https://www.anandtech.com/show/12520/the-galaxy-s9-review/2
Natuerlich gibt es Hoffnung fuer IMG wenn die Chinesen den Saustall endlich aufrauemen koennen: https://www.imgtec.com/news/press-release/imagination-technologies-group-ltd-announces-ceo-succession/ aber high end GPU IP im ULP SoC kann man in absebahrer Zukunft sowohl fuer IMG als auch ARM total vergessen.
Ob jetzt Apple irgendwelche Patentrechte von IMG mit ihrer eigenen GPU verletzt oder nicht und ob Canyon Bridge ueberhaupt Bock hat diese anzufechten bleibt abzusehen. Wie dem auch sei Apple zeigt sich verdammt selbstsicher mit ihrer eigenen GPU und wenn sie es nicht geschafft haetten, haetten sie IMG auch nicht so frueh rausgeschmissen. Und ich kann Dich auch versichern dass Samsung fieberhaft an einer eigenen GPU (ja wieder...) entwickelt. QCOM hat einfach zu viele und zu grosse GPU engineering Talente engagiert (u.a. einen Eric Demers zur Erinnerung) dass es nur eine Frage der Zeit war bis sie die GPU Geschichte auf die richtige Balancen steuerten. Wenn man bedenkt wie beschissen ein jeglicher 4x0 teilweise war ist ein 630 schon ein massiver Sprung.
=Floi=
2018-04-06, 08:25:58
nur wird das gute zeug nirgends verbaut.
Nur apple dreht bei der GPU richtig auf.
Ailuros
2018-04-06, 08:38:48
nur wird das gute zeug nirgends verbaut.
Ein Adreno630 wird nicht verbaut oder wie soll ich das verstehen?
Nur apple dreht bei der GPU richtig auf.
Aus welcher Zeitschleusse der Vergangenheit kommt jetzt das wieder?
deekey777
2018-04-06, 10:06:48
Die paar Galaxy S9/S9+, Sony Xperias und Asus irgendwas sind nur Tropfen auf dem heißen Stein. X-D
https://www.anandtech.com/show/12520/the-galaxy-s9-review/6
Da wurde geklotzt und nicht gekleckert. Schade, dass Windows-Teile (ganze 2) noch den S835 verbauen dürfen.
Ailuros
2018-04-07, 08:37:28
Die paar Galaxy S9/S9+, Sony Xperias und Asus irgendwas sind nur Tropfen auf dem heißen Stein. X-D
Offensichtlicher Sarkasmus? Wohl schon aber da der 845 eine ziemlich hohe Anzahl an high end smartphones landen wird braucht man es nicht betonen. Und sowohl Samsung mit ihren Exynos als auch QCOM mit ihren Schnappsdrachen verbauen high end GPUs schon seit etlichen Jahren; Apple hatte einen Vorsprung auf der GPU seit lediglich bei den ersten paar iPhone Generationen danach holte die gesamte Konkurrenz auf. Nicht immer problemlos, aber QCOM ist heute so weit dass sich Apple gezwungen sah mit ihrer eigenen GPU Entwlickung aufs Gaspedal zu treten und sich von IMG frueher als projeziert zu loesen.
https://www.anandtech.com/show/12520/the-galaxy-s9-review/6
Da wurde geklotzt und nicht gekleckert. Schade, dass Windows-Teile (ganze 2) noch den S835 verbauen dürfen.
Verrueckte design wins fuer windows basierende Geraete wird wohl auch der S845 nicht landen, aber das hat dann nichts mit der GPU selber bzw. der insgesamten hardware zu tun.
Uebrigens da ich es vergessen habe: sowohl Mali als auch PowerVR GPU IP in den Bildern oben sind lediglich DX10, waehrend der Adreno 630 doch schon DX12.1 (feature level) ist. Series7XT cores haben zwar Tesselations-Einheiten aber es fehlt noch einiges in den ALUs fuer DX11.x, von 12.1 mal ganz zu schweigen....
dildo4u
2018-06-05, 12:01:49
Qualcomm’s new Snapdragon 850 processor will arrive in Windows PCs this year
https://www.theverge.com/2018/6/4/17426766/qualcomm-snapdragon-850-always-connected-pc-features-computex-2018
mboeller
2018-06-08, 07:33:47
Snapdragon 1000:
12W TDP(!)
http://winfuture.de/news,103570.html
Ganon
2018-06-08, 08:52:56
Ich frag mich ja wie ihre Direct3D Implementierung so ist. Die meisten ARM SoCs auf Android haben in der Regel eine echt unterirdische Qualität bei ihren Grafiktreibern. Und damit meine ich nicht nur die Rendering-Qualität an sich, sondern z.B. auch heftige Sicherheitslücken. Wie lange und regelmäßig Treiberupdates kommen wird dann auch noch ganz spannend.
mczak
2018-06-08, 12:06:06
Snapdragon 1000:
12W TDP(!)
Was ist jetzt daran so erstaunlich? Die GPU eines SD 850 (und auch anderer HighEnd Smartphone Chips) zieht so etwa 5W (jedenfalls ein paar Minuten), würde man dem erlauben gleichzeitig auch noch alle Kerne mit Maximaltakt zu betreiben wäre der auch schon locker über 10W (der Exynos 9810 wohl eher bei 20W...). Ist nur logisch dass man für grössere Geräte das Limit erhöht, da braucht man am Chip gar nicht gross was zu ändern.
Ailuros
2018-06-09, 08:49:38
Was ist jetzt daran so erstaunlich? Die GPU eines SD 850 (und auch anderer HighEnd Smartphone Chips) zieht so etwa 5W (jedenfalls ein paar Minuten), würde man dem erlauben gleichzeitig auch noch alle Kerne mit Maximaltakt zu betreiben wäre der auch schon locker über 10W (der Exynos 9810 wohl eher bei 20W...). Ist nur logisch dass man für grössere Geräte das Limit erhöht, da braucht man am Chip gar nicht gross was zu ändern.
Stimmt. Ich will auch ernsthaft bezweifeln dass ein Apple A11 in einem grossen tablet weniger zieht bei hoher Auslastung. Die Frage ist dann doch eher wie es mit der generellen Effizienz aussieht bzw. windows Treibern wie Ganon oben erwaehnt.
IMHO sind selbst die 12W nicht der eigentliche "TDP" sondern da wo QCOM den maximalen Verbrauch angesetzt hat. Wenn ein N zukuenftiges windows Geraet auch mehr als nur eine handvoll von Stunden aushalten soll auf Batterie dann ist es auch richtig so.
y33H@
2018-06-09, 10:46:10
Die Dokumente sprechen von 15W für System und 12W für SoC, was auch immer damit genau gemeint ist.
Akkarin
2018-06-23, 14:05:01
Neue Snapdragon 1000 infos: https://arstechnica.com/gadgets/2018/06/more-details-leak-on-snapdragon-1000-qualcomms-chip-for-windows-10-laptops/
y33H@
2018-06-23, 17:02:29
Wird Ende des Jahres offiziell angekündigt.
=Floi=
2018-06-23, 17:05:02
was ändert sich denn? Richtung A73 oder kommt da ne neue architektur mit mehr power?
AffenJack
2018-06-23, 17:10:50
was ändert sich denn? Richtung A73 oder kommt da ne neue architektur mit mehr power?
A76 natürlich, ist schon noch ein gutes Stück schneller
MSABK
2018-06-24, 16:55:47
Die Dokumente sprechen von 15W für System und 12W für SoC, was auch immer damit genau gemeint ist.
Würde da eine passive Kühlung ausreichen? Das ist ja eigentlich der große Vorteil von seinem Arm-Prozessor.
dildo4u
2018-06-24, 17:11:06
Nein dafür gibt es den 850.15 Watt sind ganz normale Mobile i7,die haben alle Lüfter.
https://ark.intel.com/products/122589/Intel-Core-i7-8550U-Processor-8M-Cache-up-to-4_00-GHz
Naitsabes
2018-06-24, 17:53:20
Je nach Aufbau geht das auch passiv klar (Surface Pro, um ein Beispiel zu nennen)
dildo4u
2018-06-27, 15:40:53
Je nach Aufbau geht das auch passiv klar (Surface Pro, um ein Beispiel zu nennen)
Surface Pro nutzt nicht die neuen Qauds.Das sind alles noch 7 Gen Dual Cores.
Naitsabes
2018-06-27, 22:54:47
Interessiert nicht, da es hier bei der Diskussion nur um TDP=15W geht.
Und bereits die Dualcores überschreiten ihre TDP gerne massiv.
Rooter
2018-08-09, 10:02:24
Snapdragon 670: 10-nm-SoC für die obere Smartphone-Mittelklasse (https://www.computerbase.de/2018-08/snapdragon-670-qualcomm/)
MfG
Rooter
MSABK
2018-09-18, 10:56:27
Neue Snapdragon 1000 infos: https://arstechnica.com/gadgets/2018/06/more-details-leak-on-snapdragon-1000-qualcomms-chip-for-windows-10-laptops/
Es gibt wieder neue Gerüchte.
Roland Quandt, der schon bisher jede Menge Infos zum nächsten Snapdragon-Prozessor für Notebooks lieferte, hat nun auch die Anzahl der darauf integrierten Transistoren ermitteln können - laut seiner Recherchen sind im Snapdragon 8180 offenbar 8,5 Milliarden dieser Halbleiter-Bauelemente verbaut, ein Wert der weit über dem der aktuell schnellsten Mobilprozessoren liegt.
https://www.notebookcheck.com/Windows-on-ARM-8-5-Milliarden-Transistoren-2019-im-Snapdragon-8180.332732.0.html
Ailuros
2018-09-18, 11:56:29
Es gibt wieder neue Gerüchte.
https://www.notebookcheck.com/Windows-on-ARM-8-5-Milliarden-Transistoren-2019-im-Snapdragon-8180.332732.0.html
Ich hab zwar nicht die blasseste Ahnung wieviel Transistoren ein heutiger S845 hat, fuer einen etwas queren Vergleich, aber da der Author oben mit Apple's A12/2018/smartphone SoC und dessen 6.9b transistors vergleicht, klingt mir das ganz schon ziemlich merkwuerdig den 8.5 Mrd. fuer einen 2019 SoC sind wirklich nichts mehr besonderes, noch heisst es dass in diesem irgend etwas besonders mehr stecken koennte als einem stinknormalen QCOM smartphone 2019 SoC, egal mit welchen Frequenzen dieser in einem >mobilen Geraet antanzen koennte. 23% mehr Transistoren in einem Jahr klingen mir eher als ein stinknormales Wachstum (ausser ein heutiger S845/50 liegen weit unter 6Mrd.).
mboeller
2018-09-18, 12:43:17
Ich hab zwar nicht die blasseste Ahnung wieviel Transistoren ein heutiger S845 hat, fuer einen etwas queren Vergleich, aber da der Author oben mit Apple's A12/2018/smartphone SoC und dessen 6.9b transistors vergleicht, klingt mir das ganz schon ziemlich merkwuerdig den 8.5 Mrd. fuer einen 2019 SoC sind wirklich nichts mehr besonderes, noch heisst es dass in diesem irgend etwas besonders mehr stecken koennte als einem stinknormalen QCOM smartphone 2019 SoC, egal mit welchen Frequenzen dieser in einem >mobilen Geraet antanzen koennte. 23% mehr Transistoren in einem Jahr klingen mir eher als ein stinknormales Wachstum (ausser ein heutiger S845/50 liegen weit unter 6Mrd.).
Zum Vergleich: Der Snapdragon 845, der in den meisten aktuellen High-End-Android-Smartphones steckt, basiert "nur" auf etwa 5,3 Milliarden Transistoren
https://www.notebookcheck.com/Windows-on-ARM-8-5-Milliarden-Transistoren-2019-im-Snapdragon-8180.332732.0.html
Platos
2018-09-18, 12:57:32
Moment mal, das ist aber auch gar kein Smartphone SoC mehr, auch wen da SD drauf steht. Der Apple Chip allerdings schon. Man kann schlecht den 12W SoC mit dem Apple SoC vergleichen und auch nicht mit dem SD 845 ??
Auch kann man das nicht als Nachfolger des SD 845 sehen, das ist eine neue Produktsparte. Der Chip hat 12w Verbrauch, das ist weit weg von einem Smartphone Soc, das ist Laptop-Bereich.
Ailuros
2018-09-18, 13:15:11
Moment mal, das ist aber auch gar kein Smartphone SoC mehr, auch wen da SD drauf steht. Der Apple Chip allerdings schon. Man kann schlecht den 12W SoC mit dem Apple SoC vergleichen und auch nicht mit dem SD 845 ??
Auch kann man das nicht als Nachfolger des SD 845 sehen, das ist eine neue Produktsparte. Der Chip hat 12w Verbrauch, das ist weit weg von einem Smartphone Soc, das ist Laptop-Bereich.
Ohne Zweifel. Muss aber nicht unbedingt ein dedizierter Laptop SoC sein. Verbrauch bzw. TDP kann man via Frequenzen und DVFS anpassen. Fuer ein smartphone koennte solch ein SoC nur N Temperaturen bzw. einen maximalen Verbrauch von 5-6W erreichen und fuer ein um einiges groesseres Geraet (Notebook z.B.) dann um einiges hoehere Temperaturen bzw. =/>15W TDP. Ist auch wirklich kein besonderes Hexenwerk da es solche SoCs schon seit einer Ewigkeit gibt. NV's Tegra K1 hat einen theoretischen maximalen Verbrauch von 35W auf NV's eigener maschinellen Dokumentation, wobei es nie dafuer ein Geraet mit mehr als ~10W TDP gab.
Platos
2018-09-18, 22:42:46
Hmm, ja das wäre ne Möglichkeit. Ob aber bei 5W noch ne brauchbare Taktrate erreicht wird bei diesem Chip?
Gibt es nicht noch einen Nachfolger von SD 845?
mczak
2018-09-19, 05:51:42
Hmm, ja das wäre ne Möglichkeit. Ob aber bei 5W noch ne brauchbare Taktrate erreicht wird bei diesem Chip?
Wieso denn nicht? intel verkauft auch denselben Chip mit 4.5W oder 25W (mit cTDP up).
Ok seit Coffee Lake stimmt das nicht mehr so ganz, aber die Idee dahinter stimmt schon.
Klar da gibt es Einschränkungen bei kleiner TDP - vor allem wenn alle CPU-Kerne und dann womöglich noch die GPU gleichzeitig am Werkeln sind sind die Unterschiede deutlich, da skaliert dann die Gesamtleistung quasi schön proportional zur TDP bei dauerhafter Last. Gerade bei den 4.5W intel core CPUs ist der Basistakt ja auch enorm tief - aber der Chip kann trotzdem noch sehr hohen Boost-Takt erreichen.
Simon
2018-09-19, 06:59:23
Gibt es nicht noch einen Nachfolger von SD 845?
Doch sicher. SnapDragon 855.
Ailuros
2018-09-19, 22:22:28
Hmm, ja das wäre ne Möglichkeit. Ob aber bei 5W noch ne brauchbare Taktrate erreicht wird bei diesem Chip?
Gibt es nicht noch einen Nachfolger von SD 845?
Stromverbrauch steigt NIE linear zur Frequenzsteigerung. Welches im gegebenen Fall sogar nebenwichtig ist. Da DVFS in einem >/=5W TDP smartphone enorm drosselt und ein jegliches Prozessor-Element extrem selten sehr lange sehr hohe Frequenzen ueber laengere Zeit benutzt, ist die Frage hier nicht ob die CPU z.B. 2.0GHz erreicht sondern um wieviel Sekunden genau, bevor der Temperatur-regler automatisch runterschaltet.
In einem um einiges groesseren Geraet wie einem notebook mit 3x Mal so viel theoretischem TDP sind die Zeiten dort auch um einiges laenger fuer hohe Frequenzen.
Platos
2018-09-20, 10:46:21
Die frage ist, ob das Ding so viel schneller sein kann, als ein SD 855. Die Kosten bei so einem riesen Ding sind nâmlich enorm (im Vergleich zu einem kleineren) und nur schon deshalb glaube ich nicht an einen Ei satz in Smartphones.
Gaestle
2018-09-20, 11:05:07
Wenn ich das recht in Erinnerung habe, brauchen die GPU-Bereiche eines SoC anteilig die meisten Transistoren.
Angenommen, SD855 kommt mit 6,5 Mrd. Transistoren (frei erfundene Zahl, einfach ca. 20% mehr als SD845) und SD1000 hat wirklich 8,3Mrd. Transistoren:
Könnte es sein, dass man beim SD1000 den GPU-Teil (im Vergleich zum SD855) unverändert lässt und die Mehr-Transistoren (im Vergleich zum SD855) eher woanders investiert (und natürlich mehr Frequenz)?
Z.B indem man die IPC der CPU-Kerne aufbohrt? Oder irgendwelche "Sonder-Baugruppen" für eine bessere x86-Emulation?
Ailuros
2018-09-21, 10:37:18
Die frage ist, ob das Ding so viel schneller sein kann, als ein SD 855. Die Kosten bei so einem riesen Ding sind nâmlich enorm (im Vergleich zu einem kleineren) und nur schon deshalb glaube ich nicht an einen Ei satz in Smartphones.
Kommt erstmal darauf an was QCOM als eigentliches Ziel hat. Selbst ein garden variety smartphone 845 so wie er ist (lediglich anderes DVFS) wuerde fuer ein jegliches low end laptop bzw. desktop Projekt ausreichen. Theoretisch zwei refreshes/generations (egal wie man es bezeichnen mag) danach sind offensichtlich noch einige Schritte weiter vorne.
Es ist nicht so dass Intel irgendwelche Effizienz-wunder in diesem Markt genau verkauft.
Und ja benutzt man ein weniger "strenges" DVFS theoretisch auf einem 855 koennte man locker schaetzungsweise 30-40% mehr Leistung erreichen, wobei natuerlich dann von der smartphone Variante der TDP um einiges groesser sein wird aber so lange irgendwo in der 15W Region durchaus konkurrenzfaehig.
Es soll nicht heissen dass QCOM nicht einen dedizierten laptop/desktop SoC entwickelt hat; rein theoretisch halte ich es lediglich nicht unbedingt notwendig denn in den smartphone SoCs liegt generell einiger Leistungs-luftraum wenn man nicht so extrem drosselt.
***edit: https://www.fudzilla.com/news/mobile/47232-qualcomm-snapdragon-pc-is-not-oc-s-855
Naitsabes
2018-09-21, 12:14:35
Ist es nicht auch möglich, dass "einfach" die 4 low-power Kryos gegen die 4 schnelleren getauscht werden?
Also statt 4+4 bigLittle 4+4 bigbig?
Dann ein bisschen mehr Cache dabei und fertig
Ailuros
2018-09-21, 12:33:53
Ist es nicht auch möglich, dass "einfach" die 4 low-power Kryos gegen die 4 schnelleren getauscht werden?
Also statt 4+4 bigLittle 4+4 bigbig?
Dann ein bisschen mehr Cache dabei und fertig
Fudo blubbert oben von einer sehenswert groesseren GPU. Ob's stimmt oder nicht bleibt abzusehen.
Sonst fuer die CPU: ob man eine volle octacore CPU fuer low end PC/notebooks wirklich schon jetzt braucht ist wohl eine Debatte fuer sich.
Platos
2018-09-21, 12:59:18
Ist das überhaupt nötig ? Schon die 'normalen' High End Adrenos haben so 600-700 GFlops, wenn ich mich recht erinnere. Das ist schon langsam GT1030 Niveau. Angenommen das Ding hat wirklich eine so viel grössere GPU, dann kann man schon mit 1-1,1 TFLOPs rechnen. Das wäre dann genau GT1030 Niveau (Oder so zwischen GTX 750-750Ti)
Also das wäre dann kein Konkurrent für die 300 Euro Laptops sondern eher die etwas teureren
Gaestle
2018-09-21, 13:30:53
Ist das überhaupt nötig ? Schon die 'normalen' High End Adrenos haben so 600-700 GFlops, wenn ich mich recht erinnere. Das ist schon langsam GT1030 Niveau. Angenommen das Ding hat wirklich eine so viel grössere GPU, dann kann man schon mit 1-1,1 TFLOPs rechnen. Das wäre dann genau GT1030 Niveau (Oder so zwischen GTX 750-750Ti)
Also das wäre dann kein Konkurrent für die 300 Euro Laptops sondern eher die etwas teureren
Im Falle eines ultraportablen 2in1 erschließt sich mir ein Fokus auf GPU gar nicht, zumal wenn es doch eigentlich woanders Probleme gibt. Das habe ich mit Hinblick auf Windows@ARM geschrieben.
Ailuros
2018-09-21, 18:16:04
Ist das überhaupt nötig ? Schon die 'normalen' High End Adrenos haben so 600-700 GFlops, wenn ich mich recht erinnere. Das ist schon langsam GT1030 Niveau. Angenommen das Ding hat wirklich eine so viel grössere GPU, dann kann man schon mit 1-1,1 TFLOPs rechnen. Das wäre dann genau GT1030 Niveau (Oder so zwischen GTX 750-750Ti)
Also das wäre dann kein Konkurrent für die 300 Euro Laptops sondern eher die etwas teureren
Fudo ist nicht wirklich eine zuverlaessige Quelle IMHO, aber wir werden sehen. Von dem abgesehen ist eine GT 1030 fast 2x Mal so schnell als ein Adreno630 heute, FLOP != FLOP bei verschiedenen Architekturen, End-leistung wird zu einem sehenswerten Prozentual von der Bandbreite abhaengen und da wir offensichtlich von =/>2019 Produkten reden muss man eher bedenken was fuer Leistungsniveau NV, AMD und Intel fuer laptops naechstes Jahr liefern werden.
Je hoeher QCOM's Ambitionen bzw. Ziele desto besser fuer uns alle ;)
Nightspider
2018-12-05, 00:10:15
Snapdragon 855 soll 3 fache KI-Leistung und einen Gaming Modus haben, mehr Details gibts morgen:
https://www.computerbase.de/2018-12/qualcomm-snapdragon-855/
MSABK
2018-12-06, 21:09:02
Der erste 7nm Chip für Laptops wurde angekündigt. Der Snapdragon 8cx. Dieser soll es mit einer 15 Watt Intel CPU aufnehmen können. Klar, Intel ist bei 14nm, aber man kann halt nur das vergleichen was da ist.
The CPU includes eight Kryo 495 cores, which are built on a 7nm architecture, and Qualcomm boasts that this is the fastest Kryo CPU that it's ever built. Indeed, it's faster than the Kryo 485 CPU that was announced yesterday for the Snapdragon 855 Mobile Platform. It also has a larger cache at 10MB than previous generations, which should allow for faster multitasking.
And then there's the Adreno 680 GPU, which Qualcomm once again says is its most powerful GPU ever. The firm says that it's 2x faster than the Adreno 630 GPU on the Snapdragon 850 while being 60% more efficient, and 3.5x faster than the Adreno 540 on the Snapdragon 835.
https://www.neowin.net/news/the-snapdragon-8cx-is-the-first-7nm-pc-chip-built-to-compete-with-core-i5-on-windows-10
prinz_valium
2018-12-06, 21:49:18
https://www.windowscentral.com/sites/wpcentral.com/files/styles/xlarge/public/field/image/2018/12/8cx-specs.jpg
Nightspider
2018-12-06, 21:54:20
Wohl (noch) keine feste Taktrate der CPU festgelegt?
Bin mal gespannt wie die Performance im Vergleich zu Intel wird.
prinz_valium
2018-12-06, 22:04:21
Wird interessant für HoloLens V2
Das Smartphone-Tablet Hybrid Surface
Oder ähnliche Geräte.
Ich glaube aber nicht einmal, dass es etwas für kostengünstige Geräte wird. Das teil ist mit Sicherheit nicht billiger als ein Pentium Gold oder so zu haben..
Nightspider
2018-12-06, 22:06:09
Ein 15W SoC in einer AR-Brille? :|
MSABK
2018-12-06, 22:09:14
Wird interessant für HoloLens V2
Das Smartphone-Tablet Hybrid Surface
Oder ähnliche Geräte.
Ich glaube aber nicht einmal, dass es etwas für kostengünstige Geräte wird. Das teil ist mit Sicherheit nicht billiger als ein Pentium Gold oder so zu haben..
Pentium Gold? Ein Windows-Gerät mit Snapdragon 835 fängt bei ca. 860€ (https://geizhals.de/lenovo-ideapad-miix-630-12q35-81f1000qge-a1865967.html?hloc=at&hloc=de) an. Ich glaube Geräte mit dem 8cx werden deutlich teurer, es soll ja noch der Snapdragon 850 weiter angeboten werden. Ich hatte auch gehofft, dass die Snapdragon Windows-Geräte eine günstige Alternative sein werden, aber die leider wirklich sehr weit oben angesetzt.
Zumal ohne Thunderbolt 3 so ein teurer Gerät auch nicht wirklich zukunftssicher ist. Es wird jedenfalls spannende Geräte geben nächstes Jahr. Vlt sieht man ja ein Surface mit einem SD 8cx. Jetzt muss Microsoft noch Office und co. nativ auf Arm nativ bringen.
Wie ist das den eigentlich mit den Apps, auf einer Folie war ein Netflix Logo, wird dann Netflix z.B nur emuliert?
prinz_valium
2018-12-06, 22:28:48
Der Pentium Gold war mein Beispiel, weil es den im Surface Go gibt.
Aber ich habe keine Hoffnung, dass dieser durch den 8xc ersetzt würde.
Einkaufspreis ist mit Sicherheit höher ^^
MSABK
2018-12-06, 22:35:12
Der Pentium Gold war mein Beispiel, weil es den im Surface Go gibt.
Aber ich habe keine Hoffnung, dass dieser durch den 8xc ersetzt würde.
Einkaufspreis ist mit Sicherheit höher ^^
Ich denke Geräte mit 8cx sind im Bereich ab 1200€. Wo ich mich dann doch mach dem Sinn von solchen Geräten frage.
=Floi=
2018-12-06, 23:05:08
noch immer keinje eigenen benchmarks? ich glaube so viel schneller wird er nicht. die gestrigen geekbench benchmarks waren 30% schneller.
mczak
2018-12-07, 01:16:49
Interessant, Qualcomm macht also tatsächlich ernst mit "echtem" Notebookchip. Quasi wie bei apple a12x ein deutlich gepimpter SD 855.
Ueberrascht mich aber nicht dass die CPU nicht allzuviel schneller sein soll, ich schätze mal die schnelleren Kerne sind dann mehr oder weniger identisch mit dem 855 Prime-Core, bei noch einmal leicht höherer Frequenz (aber man darf nicht vergessen das ist immer noch ein HD und kein HP-Prozess).
Geräte damit könnten im Prinzip durchaus interessant sein, wenn sie denn preislich vernünftig sind, was nach bisherigen Erfahrungen leider nicht zu erwarten ist. Performancemässig sollte CPU-seitig Geminilake-Niveau locker drin liegen, und die GPU dürfte sich eigentlich auch gegenüber den "grossen" intel Chips (hd 620) nicht zu verstecken brauchen.
y33H@
2018-12-07, 01:42:07
Vorserie läuft mit 2,75 GHz
https://scr3.golem.de/screenshots/1812/Qualcomm-Snapdragon-8cx/Snapdragon-8cx-05.JPG
Ailuros
2018-12-07, 07:34:30
Interessant, Qualcomm macht also tatsächlich ernst mit "echtem" Notebookchip. Quasi wie bei apple a12x ein deutlich gepimpter SD 855.
Ueberrascht mich aber nicht dass die CPU nicht allzuviel schneller sein soll, ich schätze mal die schnelleren Kerne sind dann mehr oder weniger identisch mit dem 855 Prime-Core, bei noch einmal leicht höherer Frequenz (aber man darf nicht vergessen das ist immer noch ein HD und kein HP-Prozess).
Geräte damit könnten im Prinzip durchaus interessant sein, wenn sie denn preislich vernünftig sind, was nach bisherigen Erfahrungen leider nicht zu erwarten ist. Performancemässig sollte CPU-seitig Geminilake-Niveau locker drin liegen, und die GPU dürfte sich eigentlich auch gegenüber den "grossen" intel Chips (hd 620) nicht zu verstecken brauchen.
Persoenlich konzentriere ich mich eher auf die Kombination von Leistung und Batterie-Laufzeit.
MSABK
2018-12-07, 08:28:52
Persoenlich konzentriere ich mich eher auf die Kombination von Leistung und Batterie-Laufzeit.
Was noch wichtiger sein sollte finde ich, sind mehr native Arm Programme. Firefox und Chromium sind da ein guter Anfang. Microsoft sollte auch alle ihre Programme nativ bringen, allen voran Office.
mboeller
2018-12-07, 08:43:15
Was noch wichtiger sein sollte finde ich, sind mehr native Arm Programme. Firefox und Chromium sind da ein guter Anfang. Microsoft sollte auch alle ihre Programme nativ bringen, allen voran Office.
vielleicht kommt ja deshalb der Edge mit Chromium Unterbau???
Platos
2018-12-07, 08:47:22
Wie sieht es denn eig. mit der Perfomance aus ? Reine theoretische Perfomance ist ja schön und gut, aber wenn da alles emuliert wird, kann ich mir kaum vorstellen, dass die Dinger richtig schön sauber ohne grosse Hänger (Celeron etc) laufen werden.
Google arbeitet ja an ihrem Fuchsia-OS. Mal sehen, ob das was wird. Wenn der Schwerpunkt auf Effizienz und nicht "nettes-innovatives-Design" ist, könnte das was werden.
MSABK
2018-12-07, 09:32:14
vielleicht kommt ja deshalb der Edge mit Chromium Unterbau???
Ich denke mal schon. Vlt erhofft man sich dadurch mehr Konkurrenz durch google Chrome auf Arm. Jedenfalls sollte so wenig wie möglich emuliert werden, da ist denke ich jede native App ein positives Signal. So sollte auch die Performance stimmen.
Ailuros
2018-12-07, 10:28:56
Was noch wichtiger sein sollte finde ich, sind mehr native Arm Programme. Firefox und Chromium sind da ein guter Anfang. Microsoft sollte auch alle ihre Programme nativ bringen, allen voran Office.
Ich weiss zwar nicht was M$ genau vorhat, aber ich koennte mir schon vorstellen dass ihr Interesse zunehmend generell fuer die ARM Welt waechst. Umsonst findet man schon heute in smartphones Word, Excel, PowerPoint, Outlook und Skype unter Android. Angenommen es handelt sich um angepasste Varianten fuer smartphones und co. klingen weitere Anpassungen fuer die desktop Versionen der Programme nicht allzu kompliziert.
Ist zwar OT aber Microsoft's launcher fuer Android ist eines der stabilsten mit fast taeglichen updates 3rd party launchers der umsonst erhaeltlich ist.
Sonst zum vorigen:
https://images.anandtech.com/doci/13688/e_575px.jpg
Mir ist zwar klar dass marketing ueberhaupt rechts im Bild die Affaere uebertrieben positiv praesentiert, aber wer zumindest ein tablet als Beispiel mit einer Intel CPU hat, wird schon wissen wie "grosszuegig" die Batterie-Laufzeit generell war und ist.
https://www.anandtech.com/show/13688/qualcomm-tech-summit-day-3-snapdragon-8cx-the-new-acpc-soc
MSABK
2018-12-07, 10:36:16
Ich weiss zwar nicht was M$ genau vorhat, aber ich koennte mir schon vorstellen dass ihr Interesse zunehmend generell fuer die ARM Welt waechst. Umsonst findet man schon heute in smartphones Word, Excel, PowerPoint, Outlook und Skype unter Android. Angenommen es handelt sich um angepasste Varianten fuer smartphones und co. klingen weitere Anpassungen fuer die desktop Versionen der Programme nicht allzu kompliziert.
So wie ich das verstehe ist das ja das große Ziel von Microsoft: Die Codes Systemübergreifend vereinheitlichen. Da könnte ich mir dein Szenario schon vorstellen. Dank Android und iOS hat man ja schon eine gewisse Arm-Basis.
Laut Computerbase soll der 8cx leider nicht vor Juli 2019 kommen. So oder so, wird das Jahr 2019 spannend. 8cx und AMD mit jeweils 7nm. Endlich kann es mal spannende Produkte geben unabhängig von Intel
Ailuros
2018-12-07, 10:46:08
So wie ich das verstehe ist das ja das große Ziel von Microsoft: Die Codes Systemübergreifend vereinheitlichen. Da könnte ich mir dein Szenario schon vorstellen. Dank Android und iOS hat man ja schon eine gewisse Arm-Basis.
Laut Computerbase soll der 8cx leider nicht vor Juli 2019 kommen. So oder so, wird das Jahr 2019 spannend. 8cx und AMD mit jeweils 7nm. Endlich kann es mal spannende Produkte geben unabhängig von Intel
Aus dem Anandtech Text oben ist es leicht herauszulesen dass 8cx noch einigen Abstand hat bis er auf allen Ebenen fertig fuer prime time ist. Mitte Sommer klingt durchaus realistisch.
MSABK
2018-12-07, 10:49:52
Aus dem Anandtech Text oben ist es leicht herauszulesen dass 8cx noch einigen Abstand hat bis er auf allen Ebenen fertig fuer prime time ist. Mitte Sommer klingt durchaus realistisch.
Auch interessant aus dem Artikel:
The Snapdragon 8cx will support both UFS 3.0 storage and NVMe SSD storage, along with having an additional PCIe 3.0 x4 connection so OEMs can add external controllers. When I questioned Qualcomm if something like Thunderbolt 3 was possible, they said that they don’t see why it wouldn’t be if an OEM wanted to make that configuration.
Simon
2018-12-07, 17:50:03
Fuer Thunderbolt braucht es einen extra Intel Controller und extra Firmware. Das kriegt man auch nur auf Umwegen auf AMD-Systemen zum Laufen.
MSABK
2018-12-08, 11:53:59
In diversen anderen Foren meinten User, dass der 8cx kein AV1 per Hardwarebeschleunigung kann und folglich einen großen Nachteil hat, weil Youtube auf AV1 umstellt. Seht ihr das auch so?
dildo4u
2018-12-08, 12:03:59
Das gilt doch auch für Intel und AMD.Laut Wiki rechnet man mit AV1 in Hardware in 2020.
"Nachteil" in dem Sinne, dass man es auf staerkeren Systemen vielleicht ueberhaupt abspielen kann und auf dem SD halt nicht. Mobil will man das eh in Hardware und da wird Google ganz sicher nicht umstellen bevor es Hardwaresupport gibt. Kaeme ein bisschen bloed, wenn ploetzlich keiner mehr fluessig (oder ueberhaupt) Youtubevideos auf seinem high-end Android-Geraet abspielen koennte. Die werden sicherlich langsam Videos in AV1 umwandeln, aber fuer eine laengere Zeit nicht exklusiv in dem Format vorliegen haben.
Fuer Thunderbolt braucht es einen extra Intel Controller und extra Firmware. Das kriegt man auch nur auf Umwegen auf AMD-Systemen zum Laufen.
Den Controller per PCIe anzuschliessen ist jetzt kein riesen Umweg. Da sollte das Problem eher sein, dass das Geld kostet und der Controller 1-2+ Watt extra verbraucht. Fuer den Mehrwert, den man effektiv dadurch hat (externe PCIe Geraete anschliessen zu koennen bzw. "ein schnellerer USB Anschluss") ist das wohl zu viel. Ein externes Display anzuschliessen geht halt auch so.
dildo4u
2018-12-08, 12:18:23
Ich hab hier keine sonderliche CPU Last mit 2600X und GTX 1070,wird das schon irgendwie beschleunigt?
Geht mit der aktuellen Firefox Version wenn man den AV1 Flag auf True stellt.
Nightly braucht es nicht.
https://demo.bitmovin.com/public/firefox/av1/
Daredevil
2018-12-08, 12:23:55
Microsoft wird denke ich mal den gleichen Weg gehen, den Apple vermutlich wählt.
Intel Prozessoren sind aktuell zwar schnell, aber nicht unbedingt maximal effizient und deswegen für mobile Anwendungen suboptimal.
Wenn Apple noch 1-2 Generationen weiter denkt, werden die bestimmt ihre eigenen SoCs auch in die kleinen Macbooks packen. Deswegen braucht Microsoft unbedingt schnelle ARM Prozessoren und eine schlankere Windows Oberfläche , um mit der Surface Linie noch entgegen treten zu können.
Gerade das kleine Surface Go würde mit einem schnellem Multicore ARM Prozessor deutlich besser dastehen als mit einem Dual Core von Intel.
Das Surface muss sich halt mit dem iPad messen und abgesehen von der Software ist das iPad halt deutlich weiter, in allen belangen. Wenn Intel es nicht geschissen bekommt, muss ARM halt her.
( Habt ihr schon mal mit dem Ipad gesurft? Die Geschwindigkeit ist einfach nur irre hoch )
Ich hab hier keine sonderliche CPU Last mit 2600X und GTX 1070,wird das schon irgendwie beschleunigt?
Ich schon. Ein Thread faehrt Volllast, schon wenn man 1,5x abspielen laesst oder Takt wegnimmt wird es schon zu lahm. Und das ist "nur" 1080p, kein HDR usw. Klar ist da noch einiges an Optimierungen drin, FF 65 soll mit dav1d kommen, der gerade starke MT Verbesserungen zeigt. Trotzdem verbraucht das halt deutlich mehr Strom als VPx oder h.26x in Hardware auf so einem Mobilgeraet. Es gibt einfach keinen Grund fuer Google, kurzfristig wirklich alles auf AV1 umzustellen.
MSABK
2018-12-08, 12:48:43
Microsoft wird denke ich mal den gleichen Weg gehen, den Apple vermutlich wählt.
Intel Prozessoren sind aktuell zwar schnell, aber nicht unbedingt maximal effizient und deswegen für mobile Anwendungen suboptimal.
Wenn Apple noch 1-2 Generationen weiter denkt, werden die bestimmt ihre eigenen SoCs auch in die kleinen Macbooks packen. Deswegen braucht Microsoft unbedingt schnelle ARM Prozessoren und eine schlankere Windows Oberfläche , um mit der Surface Linie noch entgegen treten zu können.
Gerade das kleine Surface Go würde mit einem schnellem Multicore ARM Prozessor deutlich besser dastehen als mit einem Dual Core von Intel.
Das Surface muss sich halt mit dem iPad messen und abgesehen von der Software ist das iPad halt deutlich weiter, in allen belangen. Wenn Intel es nicht geschissen bekommt, muss ARM halt her.
( Habt ihr schon mal mit dem Ipad gesurft? Die Geschwindigkeit ist einfach nur irre hoch )
Ich denke und hoffe Microsoft könnte bei den kleinen Surface im Jahr 2020 auf Arm umsteigen. Angeblich hatte ja Intel seine Hand im Spiel beim Surface Go, damit sie bei Intel bleiben. Aber ewig werden die Hersteller da nicht auf Intel warten, die anderen schlafen nicht. Je mehr native Windows Arm Programme kommen, desto besser und breiter kann das CPU Angebot werden.
SKYNET
2018-12-08, 13:50:03
Ich denke und hoffe Microsoft könnte bei den kleinen Surface im Jahr 2020 auf Arm umsteigen. Angeblich hatte ja Intel seine Hand im Spiel beim Surface Go, damit sie bei Intel bleiben. Aber ewig werden die Hersteller da nicht auf Intel warten, die anderen schlafen nicht. Je mehr native Windows Arm Programme kommen, desto besser und breiter kann das CPU Angebot werden.
da ARM grad im server bereich gestorben ist(qualcomm entlässt 950 mitarbeiter = 95%), wird auch im dektopbereich ein ähnliches scheitern kommen... niemand will ARM im desktop... zumal für was? weder sind sie schneller, noch können sie was besser, weil sobald emuliert werden muss(also in 99.9% der fälle auf desktop derzeit) isses grottig langsam und verbrauch unmengen an saft da die CPU mit volldampf rennt... somit ist der einzige vorteil = performance/watt vollkommen zunichte
maximus_hertus
2018-12-08, 14:08:16
Ich denke und hoffe Microsoft könnte bei den kleinen Surface im Jahr 2020 auf Arm umsteigen. Angeblich hatte ja Intel seine Hand im Spiel beim Surface Go, damit sie bei Intel bleiben. Aber ewig werden die Hersteller da nicht auf Intel warten, die anderen schlafen nicht. Je mehr native Windows Arm Programme kommen, desto besser und breiter kann das CPU Angebot werden.
Was wollen sie mit ARM im Surface? Der Windows Store ist irrelevant, native Apps wird es kaum geben. Ergo, wie ja schon von SKYNET geschrieben worden ist, geht der ARM Vorteil flöten.
PWAs scheinen ja auch keine Relevanz zu gewinnen. Wenn ich mir dann noch die Gerätepreise der ersten ARM Notebooks vom letzten Jahr anschaue.... Da kann ich direkt einen i5 nehmen.
dildo4u
2018-12-08, 14:21:24
Das Surface Go ist das Ziel für Arm,die Laufzeit mit den Intel CPU ist unter aller Kanone.
RVOMI1rb4O8
Daredevil
2018-12-08, 14:32:34
Ein mobiles Gerät sollte halt auch einen mobilen Prozessor besitzen mit einer Software, welche auch bei ( geringerer ) Leistungsfähigkeit ein fluffiges Erlebnis zaubert.
Ein SurfaceGO mit Intel Dual Core ist zwar nett, aber Windows10 ist weder Touchfreundlich, noch ist ein Dual Core und 4GB Ram dort schnell für "alle" Aufgaben.
Da muss also Intel nachliefern oder Microsoft die Software schlanker und sexyer machen.... ooooder man muss sich halt mit ARM arrangieren.
Ein iPad macht in der Hinsicht halt einfach viel mehr richtig, aber natürlich auch nicht alles.
Windows sollte schlanker werden und iOS funktionaler, mal schauen wer zuerst am Sweetspot ankommt.
MSABK
2018-12-08, 14:51:43
da ARM grad im server bereich gestorben ist(qualcomm entlässt 950 mitarbeiter = 95%), wird auch im dektopbereich ein ähnliches scheitern kommen... niemand will ARM im desktop... zumal für was? weder sind sie schneller, noch können sie was besser, weil sobald emuliert werden muss(also in 99.9% der fälle auf desktop derzeit) isses grottig langsam und verbrauch unmengen an saft da die CPU mit volldampf rennt... somit ist der einzige vorteil = performance/watt vollkommen zunichte
Klar, im grunde ist das die Realität. Aber ganz ehrlich, statt einfach zu warten was Intel macht und die mal endlich was zum laufen kriegen, ist es mir lieber andere versuchen was und bringen mal Bewegung in den Markt (Zen2 oder 8cx als Beispiel). Ist besser wenn nichts kommt und wir alle sitzen und warten bis gnädigerweise Intel mit 14nm+++++++ fertig ist und der nächste Schritt kommt.
Ich persönlich finde die Entwicklung spannend und bin gespannt auf die neuen Ideen und Impulse, Microsoft ist auch quasi im Umbruch und versucht mit ihrer immensen Trägheit sich langsam anzupassen. Ist mir alles lieber wie, dass alle sitzen und auf Intel warten. Der Preis ist halt leider wieder eine Geschichte, ein SoC wie der 8cx wird halt preislich niemals in einem Surface Go kommen, auch wenn es ideal wäre.
Edit: Bezüglich der Server Prozessoren, ich glaube das ist ein schwieriger Markt, da ist ja auch Amazon erst mit eigenen Arm Prozessoren eingestiegen, da wird es dann für Qualcomm noch schwerer als es ohnehin schon ist. Das ist halt der Vorteil von ARM, da kann jeder quasi sein eigenes Süppchen kochen.
Daredevil
2018-12-08, 15:16:21
Wenn man sich auf jemanden verlässt, ist man verlassen.
Microsoft kann sich nicht alleine auf einen Hersteller verlassen. Sie können schauen, was AMD so bringt in den nächsten Monaten und wenn ARM auf Microsoft zugeht und sagt "Habt ihr Bock? Wir können da was basteln!", dann wäre ein ablehnen dessen fatal.
7nm sollte eigentlich in jedem neuen Gerät in 2019 stecken und wie MSABK schon sagt, kein 14nm+++++
MSABK
2018-12-09, 01:39:24
Mal aus Neugier, meint ihr ein Snapdragon 835 ist schneller als ein Intel Celeron N3060? Wir haben ein Hp 14 Zoll im Haus mit der CPU, das Asus NovaGo mit Windows on Arm und SD835 gibt es zum relativ guten Kurs auf eBay, vlt riskiere ich mal so einen Tausch mit dem HP. Wird nur für Youtube, Office und Internet verwendet.:)
Rooter
2018-12-09, 01:55:00
Ich habe die Tage mal ein paar Windows und Android Geräte mit dem JS-Benchmark Jetstream (https://browserbench.org/JetStream/) gebencht. Hier meine Ergebnisse:
Arbeits-PC Pentium Dual-Core E5400 (Vivaldi): 68.000
Mein i5-2500K OC (Vivaldi): 155.56
Mein i5-2500K OC (IE11): 134
Galaxy S4 (Opera): 19.414
Galaxy S7 (Opera): 52.266
Und, aus dem Internet:
Galaxy S9: 61.834
iPhone 7: 144.71
iPhone Xs: 267.92 O_O
EDIT: Bei diesen Werten ist der Punkt als Komma zu deuten!
MfG
Rooter
Daredevil
2018-12-09, 13:02:47
Ein mobiles Gerät sollte halt auch einen mobilen Prozessor besitzen mit einer Software, welche auch bei ( geringerer ) Leistungsfähigkeit ein fluffiges Erlebnis zaubert.
Ein SurfaceGO mit Intel Dual Core ist zwar nett, aber Windows10 ist weder Touchfreundlich, noch ist ein Dual Core und 4GB Ram dort schnell für "alle" Aufgaben.
Da muss also Intel nachliefern oder Microsoft die Software schlanker und sexyer machen.... ooooder man muss sich halt mit ARM arrangieren.
Es ist ja auch ein "Windows 10 Lite" in mache, das wusste ich gar nicht.
https://windowsarea.de/2018/12/sonntagslektuere-windows-lite-mit-neuem-edge-ist-windows-chrome-os/
aceCrasher
2018-12-09, 13:19:50
iPhone Xs: 267.92 O_O
Hallelujah, mein geköpfter 7820X@4,6 mit getuntem RAM kommt gerade mal auf 241, da bin auch ich ein wenig schockiert muss ich sagen.
Ailuros
2018-12-09, 16:38:53
Am Rand soll die Adreno640 GPU im 855 ueber 768SPs verfuegen. A630 ist bei 512@710MHz und es ist durchaus moegliche dass die 640 etwas niedriger takten wird.
BlackBirdSR
2018-12-09, 18:57:47
Hallelujah, mein geköpfter 7820X@4,6 mit getuntem RAM kommt gerade mal auf 241, da bin auch ich ein wenig schockiert muss ich sagen.
Browser ist einfach schlecht. Optimiert
https://benediktmeurer.de/2016/12/16/the-truth-about-traditional-javascript-benchmarks/
MSABK
2018-12-09, 21:41:15
Mal aus Neugier, meint ihr ein Snapdragon 835 ist schneller als ein Intel Celeron N3060? Wir haben ein Hp 14 Zoll im Haus mit der CPU, das Asus NovaGo mit Windows on Arm und SD835 gibt es zum relativ guten Kurs auf eBay, vlt riskiere ich mal so einen Tausch mit dem HP. Wird nur für Youtube, Office und Internet verwendet.:)
Habe einen Test mit einem SD835 und einem Celeron N3450 gefunden, im Gegensatz zu meinem Celeron hat der aus dem Test 4 Kerne, also sollte bisschen schneller als meiner sein.
Wie zu erwarten ist die Emulation sehr langsam, aber mit nativen ARM-Programmen scheint der SD relativ gut mit dem N3450 mithalten zu können.
https://www.techspot.com/review/1599-windows-on-arm-performance/page3.html
mczak
2018-12-10, 00:54:55
Habe einen Test mit einem SD835 und einem Celeron N3450 gefunden, im Gegensatz zu meinem Celeron hat der aus dem Test 4 Kerne, also sollte bisschen schneller als meiner sein.
Nicht nur das, die sind aus einer anderen Generation. Der N3450 ist Goldmont-CPU (Apollo Lake Plattform), der N3060 ist Airmont (Braswell Plattform), und Goldmont ist doch eine Ecke schneller. (Die haben dann auch andere GPUs mit anderen Video-Decode-Fähigkeiten, aber solange da beschleunigt wird was man braucht macht das wohl keinen grossen Unterschied, dasselbe gilt natürlich auch für den SD 835.)
Ailuros
2018-12-10, 08:36:46
Browser ist einfach schlecht. Optimiert
https://benediktmeurer.de/2016/12/16/the-truth-about-traditional-javascript-benchmarks/
Angenommen ich nehme Rooter's Resultate und schenke seinem uebertaktetem i5 Vivaldi doppelt so viel Leistung durch diverse Javascript Optimierungen komme ich auf 311.12 vs. 267.92 von einer nicht uebertakteten Apple A12 CPU in einem smartphone.
Der beste "benchmark" wie der Artikel oben auch erwaehnt ist wenn moeglich Geraete in Echtzeit zu vergleichen.
Ailuros
2019-01-16, 10:59:18
https://www.anandtech.com/show/13786/snapdragon-855-performance-preview
Zwar noch etwas frueh aber es sieht gut aus fuer den SD855.
Blediator16
2019-01-23, 18:30:56
https://twitter.com/KerrisdaleCap/status/1088081401289814016
Judge will likely require $QCOM to license its core patents to competitors & renegotiate all existing licenses on fair terms, which could realistically cut Qualcomm’s licensing revenue, earnings power, and stock price in half (2/5)
Wenn ich das richtig verstehe, dann könnte das richtig böse Folgen für QC haben, falls die anderen nicht nur lizensieren können, sondern auch Snapdragon in bestimmten Gebieten nicht mehr unbedingt benötigt wird.
Unicous
2019-01-23, 22:30:34
Warum sollte ich dem Geschreibsel einer random Investment-Firma irgendein Gewicht beimessen?:confused:
Und warum denkst du wird dieses Urteil, wenn das Behauptete denn überhaupt der Wahrheit entspricht, Bestand haben? Ich erinnere gerne an den Apple-Samsung Prozess der übrigens von derselben Richterin geführt wurde. Da musste nach ca. 7 Jahren Prozessdauer Samsung nur noch ca. die Hälfte der initial festgelegten Schadensforderung zahlen.
Also (ca. 5 Jahre) abwarten und Tee trinken.(y)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.