Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Samsung Exynos-SoCs
AffenJack
2016-08-11, 10:14:36
Samsung selbst berichtet davon, gerade den Exynos 8895 mit 4 GHz Takt zu testen.
http://www.sammobile.com/2016/08/09/samsung-reportedly-testing-10nm-exynos-8895-processor-with-4ghz-peak-speed/
Wo berichtet Samsung davon? Ein Asiatischer Forennutzer berichtet irgendwas, nix weiter. Bei Taktangaben von 4ghz und 3,6 ghz für 830 sollte einem eher klar werden, dass dies nur BS ist.
Avalox
2016-08-11, 10:34:39
Exynos 8890 ist bis 3 GHz spezifiziert und wird in aktuellen Geräten bis 2,6 GHz passiv gekühlt getaktet und dabei sehr komfortabel eingesetzt.
Weshalb soll ein 30% höherer Takt für ein Nachfolge SoC neuer Strukturgrösse nun so unpassend sein?
Ailuros
2016-08-11, 15:46:55
Wenn es wirklich auf 4GHz takten sollte, bin ich verdammt neugierig fuer wieviel millisecs dieses den Takt ueberhaupt einhalten kann.
"Komfortabel" fuer heute bis zu 2.6GHz ist auch so ein Kapitel fuer sich, denn jeglicher moeglich Report fuer moegliches throttling bei sogar nur 2.3GHz peak sind wohl frei erfundene Maerchen: http://www.techtimes.com/articles/144660/20160328/galaxy-s7-performance-issues-is-the-exynos-8890-overheating-during-stretched-gaming-sessions.htm
Nightspider
2016-08-11, 16:04:30
Würde mich wundern wenn wir überhaupt die 3,5Ghz in nächster Zeit sehen.
4Ghz vielleicht in einem größeren Tablet mit dicker Heatpipe oder aktiver Kühlung.
Mich stört Throttling immer noch kein Stück, da ich nicht auf dem Handy oder Tablet zocke.
Und selbst wenn ich es mal tun würde, wäre es mir wurscht wenn das neue Smartphone dann ein kleines Stückchen langsamer wäre als ein iPhone.
Ich bete nur das Samsung endlich mal ein Tab S Tablet mit neuestem SoC herausbringt und nicht immer nur mit alten oder mainstream SoCs....
Avalox
2016-08-11, 16:11:30
Peak Takt von 2,6 GHhz wird beim Exynos 8890 bei zwei aktiven M1 Kernen erreicht.
Die CPU bekommt man kaum zum thermischen drosseln im Smartphone.
Allein bei intensiver Nutzung der GPU wird irgendwann herunter geregelt.
Ailuros
2016-08-11, 19:53:47
Peak Takt von 2,6 GHhz wird beim Exynos 8890 bei zwei aktiven M1 Kernen erreicht.
Fuer einen Furz an Anteil vom insgesamten Gebrauch. Lass mich raten: bei irgend einer daemlichen "fast boot" Funktion, in Antutu oder sonst noch irgend einem daemlichen synthetischen benchmark.
Die CPU bekommt man kaum zum thermischen drosseln im Smartphone.
Wie oft und wie lange laufen denn CPU cores in ULP SoC Geraeten auf Hochtouren genau? Eine der Aussnahmen dass mal ein core ausnahmsweise ueber 90% steigt waere irgend eine beschissene Webseite und dass nur fuer ein paar Millisekunden beim hochladen. Bei einem big.LITTLE config wird dieses noch selterner.
Allein bei intensiver Nutzung der GPU wird irgendwann herunter geregelt.
Sicher und das bis zu 50% teilweise und dieses nicht nur seit neuestem. Man nennt so etwas schlampiges engineering und nicht einen balancierten SoC. Kunterbunte benchmarks gewinnt man schon damit, aber damit ist es auch ziemlich schnell aus denn keines dieser Dinger bleiben fuehlbar "eiskalt" in der Hand beim einfachen browsen, wobei die meiste Schufterei sowieso auf den LITTLE cluster faellt.
In Echtzeit ist IMHO fuer das Mausekino eines smartphones die hw schon lange genug. Ausser es gibt irgend eine excel aehnliche Applikation fuer Android die man mit einer Lupe bedienen kann. Bevor auch die ULP SoCs in eine Sackgasse mit Herstellungsprozessen rennen, waere es vielleicht mal ein Gegengedanke in Richtung laengere Laufzeiten zu investieren.
Avalox
2016-08-11, 21:30:33
Fuer einen Furz an Anteil vom insgesamten Gebrauch. Lass mich raten: bei irgend einer daemlichen "fast boot" Funktion, in Antutu oder sonst noch irgend einem daemlichen synthetischen benchmark.
Kommt schon vor.
20 Minuten Browsen, Benchmark und 3D Spiel.
http://scr3.golem.de/screenshots/1603/Exynos-8890-Benchmarks/Exynos-8890-00-Mixed-Workload-20min.png
http://www.golem.de/news/exynos-8890-im-test-samsungs-s7-soc-drosselt-kaum-1603-119612.htm
Echtzeit ist IMHO fuer das Mausekino eines smartphones die hw schon lange genug. Ausser es gibt irgend eine excel aehnliche Applikation fuer Android die man mit einer Lupe bedienen kann. Bevor auch die ULP SoCs in eine Sackgasse mit Herstellungsprozessen rennen, waere es vielleicht mal ein Gegengedanke in Richtung laengere Laufzeiten zu investieren.
Rechenleistung ist nie verkehrt. Wenn die SoCs sparsamer werden, oder die Akkus leistungsfähiger, wird das wohl eher in leichtere und flachere Geräte investiert, als in einer noch längere Laufzeit. Einmal am Tag sollt doch jeder an der Steckdose vorbei kommen.
Allerdings stecken die Exynos SoCs ja nicht nur im Smartphone.
Ailuros
2016-08-12, 11:43:37
Kommt schon vor.
20 Minuten Browsen, Benchmark und 3D Spiel.
[Spoiler]
http://scr3.golem.de/screenshots/1603/Exynos-8890-Benchmarks/Exynos-8890-00-Mixed-Workload-20min.png
Wobei rein zufaelligerweise nirgends steht wo was vorkommt; wenn Du jetzt glaubst dass es irgend etwas an meiner Behauptung aendert dass es sich generell nur um wenige Millisekunden handelt, brauchst Du einen Augenarzt.
Rechenleistung ist nie verkehrt. Wenn die SoCs sparsamer werden, oder die Akkus leistungsfähiger, wird das wohl eher in leichtere und flachere Geräte investiert, als in einer noch längere Laufzeit. Einmal am Tag sollt doch jeder an der Steckdose vorbei kommen.
Nein "sollte" er nicht nur weil Du gerade dafuer stehst. Dass Du natuerlich "Rechenleistung" nur so wage in die Luft schmeisst ist mal wieder typisch von Dir. Fuer was genau die Rechenleistung gebraucht werden soll wird mit Absicht nicht erklaert.
Allerdings stecken die Exynos SoCs ja nicht nur im Smartphone.
Das macht sie auch nicht unbedingt besser :P Spass beiseite, mag sein dass Du und Samsung's Marketing-Affen es geniessen auf =/<10" ernsthaft zu arbeiten, ich persoenlich aus verstaendlichen Gruenden wohl nicht.
Undertaker
2016-08-12, 12:21:29
Das macht sie auch nicht unbedingt besser :P Spass beiseite, mag sein dass Du und Samsung's Marketing-Affen es geniessen auf =/<10" ernsthaft zu arbeiten, ich persoenlich aus verstaendlichen Gruenden wohl nicht.
Da sind auch noch ein paar Millionen TV-Geräte, die nach Leistung gieren. Dort ist es dann auch relativ egal, ob der SoC 2 oder 4 Watt verbraucht.
Ailuros
2016-08-12, 12:35:51
Da sind auch noch ein paar Millionen TV-Geräte, die nach Leistung gieren. Dort ist es dann auch relativ egal, ob der SoC 2 oder 4 Watt verbraucht.
Erstens ein brutal groesseres Geraet wie Du selber andeutest, zweitens eine Steckdose (ergo ich muss nicht so oft und so lange throtteln) und drittens arbeitet auch keiner auf einem TV z.B. mit komplizierten Gleichungen. Wenn es zu TDP kommt duerfte heutzutage kein high end ULP SoC mehr unter 30W liegen; bei einem Fernseher kann man dann locker auch auf 15W echtem maximalen Verbrauch gehen je nach Umstaenden.
Undertaker
2016-08-12, 12:43:54
Es ging um die Frage, ob die Leistungsfähigkeit eh schon "lange genug" wäre und man nur noch auf Verbrauch/Laufzeit schauen sollte. Wie Avalox aber schon gesagt hat, werden die Exynos (wie andere Modelle) nicht nur in Smartphones sondern auch in anderen Geräten verbaut, wo man a) nicht so stark TDP-limitiert ist und b) auch durchaus noch deutlich mehr Leistung haben möchte. Insofern kann ein gewisses Skalierungspotential nach oben sicher nicht schaden.
Ailuros
2016-08-12, 13:04:17
Es geht MIR nicht um das eigentliche Skalierungspotential sondern ob und wie lange man dieses in einem <10" Geraet einhalten kann. Dabei ist es mir logischerweise auch scheissegal ob Samsung einen high end Exynos in einem ihrer Schiffe bei vollem TDP einbaut, egal wenn es nur ein paar Dutzend Stueck sein sollten.
Undertaker
2016-08-12, 14:00:02
Wie gesagt: Die Exynos-Welt ist nicht <=10", auch wenn DU dich persönlich nur darauf beziehen willst. :) Allein im TV-Segment reden wir über Millionen-Stückzahlen, das ist nunmal kein unwichtiger Markt. Und hier sind wir auch noch lange nicht an einem Punkt angelangt, an dem ich von "genug" Leistung reden würde.
Ailuros
2016-08-12, 14:20:36
Wie gesagt: Die Exynos-Welt ist nicht <=10", auch wenn DU dich persönlich nur darauf beziehen willst. :)
Ich weiss sehr genau was ich meine, egal ob Du teilweise nichts besseres zu tun hast um dagegen einzuwenden nur um etwas einzuwenden zu haben.
Allein im TV-Segment reden wir über Millionen-Stückzahlen, das ist nunmal kein unwichtiger Markt.
Ein high end ULP SoC kommt nicht in "alle" Samsung und Co. TV Sets sondern in die high end TV Kisten und dessen Zahlen sind so begrenzt dass es nicht wirklich genug ist die Entwicklung eines solchen SoCs zu definieren. Leistung "muss" auf einem smartphone (wo auch das wirklich groesste Volumen liegt) so hoch sein weil sonst Samsung und jegliches Samsung nicht mehr konkurrenzfaehig sein wird in synthetischen benchmarks gegen jegliche Konkurrenz. Wobei benchmarks und Echtzeit-Applikationen doch ein anderes Kapitel sind teilweise, eben weil ueber 90% der benchmarks ueber zu kurze Zeit laufen.
Und hier sind wir auch noch lange nicht an einem Punkt angelangt, an dem ich von "genug" Leistung reden würde.
Wir sind schon seit langem am Punkt angelangt wo es von ALLEN Seiten so langsam mit der Ueberspefizierung von SoC hw aufhoeren koennte, damit dass was benchmarks vorgaukeln auch in Echtzeit ueber laengere Zeit eingehalten werden kann. Sonst hab ich immer noch keinen einzigen anstaendigen Punkt bis jetzt gelesen fuer was die so HOHE Rechenleistung auf einem smartphone HEUTE notwendig sein sollte.
Undertaker
2016-08-12, 15:16:30
Och nö, nicht schon wieder so eine sinnlose Zitate-Schlacht. Jaaa, du weißt es eh besser als alle anderen hier und als die Hersteller selbst sowieso. :freak: Bzgl. des Einzuwendens allein um des Einzuwendes Willen solltest du dir höchstpersönlich an die eigene Nase fassen. Avalox sprach ganz bewusst davon, dass es nicht nur um Smartphones geht, was du geflissentlich weiter ignorierst und jegliche Diskussion ad absurdum führst. Danke, aber nein. :rolleyes: Ich gönne dir das Abschlusswort, viel Spaß.
@Topic: Kann mir jemand verraten, welche App hier genutzt wurde?
Kommt schon vor.
20 Minuten Browsen, Benchmark und 3D Spiel.
http://scr3.golem.de/screenshots/1603/Exynos-8890-Benchmarks/Exynos-8890-00-Mixed-Workload-20min.png
http://www.golem.de/news/exynos-8890-im-test-samsungs-s7-soc-drosselt-kaum-1603-119612.htm
Ich würde ähnliches gern mal beim Exynos 7420 nachprüfen.
Ailuros
2016-08-12, 20:39:34
Och nö, nicht schon wieder so eine sinnlose Zitate-Schlacht. Jaaa, du weißt es eh besser als alle anderen hier und als die Hersteller selbst sowieso. :freak:
Nicht wirklich. Aber es ist konstant DEIN Zweck es so aussehen zu lassen. Dem eigentlichen Thema weichst Du natuerlich aus, eben weil wohl die wirkliche Dokumentation dafuer fehlt. Ergo ich gebe zu dass ich der Depp des Dorfes bin und Ihr beiden geehrten Herren liefert mir eine sachliche Antwort fuer was genau man so hohe Leistung heute bzw. auch noch in einem Jahr genau brauchen sollte und dafuer haette ich gerne auch spezifische Android Applikationen die auch wirklich einen brutalen Vorteil dank der sehr hohen Rechenleistung zeigen koennen.
Bzgl. des Einzuwendens allein um des Einzuwendes Willen solltest du dir höchstpersönlich an die eigene Nase fassen. Avalox sprach ganz bewusst davon, dass es nicht nur um Smartphones geht, was du geflissentlich weiter ignorierst und jegliche Diskussion ad absurdum führst. Danke, aber nein. :rolleyes: Ich gönne dir das Abschlusswort, viel Spaß.
Es wird weder mich als User noch Euch beiden zu besseren Mods machen. Natuerlich wird eine Diskussion absurd wenn man den anderen als Trottel indirekt abstempelt und sich weigert selbst den geringsten Gegen-beweiss zu bringen. Egal ob Apple. Samsung oder sonst wer noch, es gibt momentan eine deutliche Tendenz fuer high end smartphones wo Verkaufspotentiale ab- und nicht zunehmen. Demzufolge ist es natuerlich deutlich "krank" nach der Wurzel des Problems zu suchen. Und ja im Gegenteil ist es eben "gesunder" weiterhin das Lied von 4GHz bzw. im Gegenfall einer Schaar von N mehr Einheiten zu singen egal in welche Sackgasse man die Geschichte fuehren koennte. Tablets sind dafuer das beste Beispiel.....
@Topic: Kann mir jemand verraten, welche App hier genutzt wurde?
Ich würde ähnliches gern mal beim Exynos 7420 nachprüfen.
Wenn wir das Gleiche meinen unterm Diagramm, dann:
Diagramm 9
20 Minuten Browsing, Geekbench, 3DMark und Riptide GP2
Diagramm 10
20 Minuten Geekbench Thermal Test
Diagramm 11
20 Minuten T-Rex im Loop
TRex ueberrascht hier nicht, da es stets sehr sehr wenig CPU power braucht, weil geekbench benchmarks mit Absicht als GPU benchmarks sehr GPU bound sind. Heutige mobile Spiele beanspruchen schon einiges mehr an CPU Leistung und ueberhaupt starkes single threading.
Um jeglichen big.LITTLE config beim browsing auf laengere Hochtouren zu bringen (alle cores gleichzeitig maxed out) braeuchte man eigentlich eine Unzahl an Google updates zum herunterladen und eine beschissen optimierte Webseite gleichzeitig oeffnen als eins der extremen Beispiele.
Rooter
2016-08-13, 11:57:28
Wenn es wirklich auf 4GHz takten sollte, bin ich verdammt neugierig fuer wieviel millisecs dieses den Takt ueberhaupt einhalten kann.Na und, das stört bei Intels Turbo doch auch keinen.
Ein SoC der kurzzeitig bis 4 GHz peakt aber bei Dauerlast "nur" mit 2,x GHz läuft? Gerne, immer her damit! =)
MfG
Rooter
CrazyIvan
2016-08-13, 12:07:31
Ich kann das Gezetere auch nicht so ganz nachvollziehen. Dass ein Smartphone seine Peak-Leistung über einen längeren Zeitraum aufrechterhalten soll ist meines Erachtens eine unrealistische Erwartungshaltung.
Natürlich sollten Tester sowohl peak als auch sustained performance testen. Und die spezifischen Eigenschaften sollte mittlerweile auch der letzte Tester mitbekommen und seinen Parcours entsprechend darauf ausgelegt haben.
Ailuros
2016-08-14, 08:36:28
Na und, das stört bei Intels Turbo doch auch keinen.
Ein SoC der kurzzeitig bis 4 GHz peakt aber bei Dauerlast "nur" mit 2,x GHz läuft? Gerne, immer her damit! =)
MfG
Rooter
Nur gehen bisherige Intel Atom CPUs fuer tablets nichtmal annaehernd auf solche Hoehen. Wobei diese sogar einen guten Grund haetten fuer N% hoehere Rohleistung denn unter windows10 auf dual boot tablets sind die Atoms noch zu lahmarschig.
Von mir aus koennten es auch mehr GHz auf smartphones werden, aber so lange es keine anspruchsvolleren Applikationen fuer mobile geben wird, besteht die Gefahr dass alle in eine Sackgasse entwickeln. Wenn Frequenz nicht reicht, dann eben irgendwelches oedes decacore, fetteres IPC oder sonst was noch um N hoehere Leistung zu erreichen.
Ich kann das Gezetere auch nicht so ganz nachvollziehen. Dass ein Smartphone seine Peak-Leistung über einen längeren Zeitraum aufrechterhalten soll ist meines Erachtens eine unrealistische Erwartungshaltung.
Natürlich sollten Tester sowohl peak als auch sustained performance testen. Und die spezifischen Eigenschaften sollte mittlerweile auch der letzte Tester mitbekommen und seinen Parcours entsprechend darauf ausgelegt haben.
Es sollte klar sein dass jegliche Sparmassnahmen selbstverstaendlich sind im ULP SoC Markt. Der Depp des Dorfes hier hat lediglich das Gefuehl dass hw zu schnell skaliert ohne dass sich etwas sehenswertes im sw bzw. Anwendungs-Bereich bewegt. Ideen und Moeglichkeiten gibt es stets genug nur kommt wirklich langsam nichts sehenswertes. Einfache und uralte Frage: quo vadis?
Rooter
2016-08-14, 10:54:19
Von mir aus koennten es auch mehr GHz auf smartphones werden, aber so lange es keine anspruchsvolleren Applikationen fuer mobile geben wird, besteht die Gefahr dass alle in eine Sackgasse entwickeln.Anspruchsvolle Applikationen brauchen doch eher die Dauerleistung, hier geht es um die Peakleistung und da sehe ich einen echten Mehrwert.
Beispiel Internetbrowser:
- User liest eine Seite oder scrollt vielleicht mal ein Stück --> SoC langweilt sich
- User tippt einen Link an, Seite muss gerendert werden --> SoC kann kurz auf 4 GHz hochknallen um aus z.B. 1 Sek. Renderzeit 0,5 Sek. zu machen
Stichwort Race-to-Idle. Wobei die Frage ist, ob man für 4 GHz die Spannung nicht zu sehr erhöhen muss, so das diese Ersparnis wieder aufgefressen wird.
MfG
Rooter
CrazyIvan
2016-08-14, 11:19:36
Genau so sehe ich das auch.
@Ail
Ich tue mich ehrlich gesagt schwer, Deinen Aussagen zu folgen. Oben genanntes Race to idle ist genau die Rechtfertigung für die Arbeitsweise aktueller SOCs. Darüber hinaus erwarte ich bei der sustained performance nur, dass bspw. aktuelle Spiele dauerhaft in einem akzeptablen FPS Bereich bleiben.
Natürlich zeigen Dinge wie Continuum/VR/AR auf, wohin die Reise gehen kann - aber ohne Quantensprünge bei Herstellprozess und/oder der Akkutechnologie darf man halt keine Wunder erwarten.
Ailuros
2016-08-14, 14:03:34
Genau so sehe ich das auch.
Wobei Rooter im letzten Satz womoeglich die richtige Frage stellt. 4GHz haben sich nichtmal im desktop bis jetzt weitgehend durchgesetzt.
@Ail
Ich tue mich ehrlich gesagt schwer, Deinen Aussagen zu folgen. Oben genanntes Race to idle ist genau die Rechtfertigung für die Arbeitsweise aktueller SOCs. Darüber hinaus erwarte ich bei der sustained performance nur, dass bspw. aktuelle Spiele dauerhaft in einem akzeptablen FPS Bereich bleiben.
Natürlich zeigen Dinge wie Continuum/VR/AR auf, wohin die Reise gehen kann - aber ohne Quantensprünge bei Herstellprozess und/oder der Akkutechnologie darf man halt keine Wunder erwarten.
Tja das Problem mit den letzten paar Qualcomm und Samsung SoC Generationen ist dass sie dank ihrer GPU Architektur-bedingten Macken schwer eine anstaendige sustained Leistung vorweisen koennen unter 3D im Vergleich zu peak Leistung. In Realitaet hat dann der finale Hersteller eines Geraetes die Wahl entweder die GPU Frequenzen brutal zu throtteln wobei man oefters bis zu 50% der peak Leistung verliert oder man laesst das uebertriebene throtteln weg und das Geraet wird ziemlich heiss.
Sonst ist Continuum u.a. auch wieder eher ein Henne/Ei artiges Dilemma, deshalb scheint die Idee schon seit langem herumzuwschwirren aber bis jetzt noch nicht zur anstaendigen bzw. erflogreichen Realisierung gelangt.
y33H@
2016-08-14, 18:19:24
@Topic: Kann mir jemand verraten, welche App hier genutzt wurde?Qualcomms Trepn Profiler.
mboeller
2016-08-23, 08:40:59
https://www.computerbase.de/2016-08/galaxy-s7-note-7-samsung-m1-prozessor/
mboeller
2016-09-09, 21:09:01
Ailuros der link ist speziell für dich zum schmunzeln :)
http://www.gsmarena.com/samsung_wants_to_use_amd_or_nvidia_gpus_in_its_exynos_chipsets_plans_to_ditch_qu alcomm_for_good_in_2-news-20441.php
Ailuros
2016-09-10, 08:27:36
Ailuros der link ist speziell für dich zum schmunzeln :)
http://www.gsmarena.com/samsung_wants_to_use_amd_or_nvidia_gpus_in_its_exynos_chipsets_plans_to_ditch_qu alcomm_for_good_in_2-news-20441.php
Samsung mobile schreit schon ewig nach einer Alternative, es ist eher LSI das merkwuerdige Ideen hat. Ich schliesse es nicht aus dass Samsung sich nach Alternativen umsieht, aber mehr darueber via PM.
Sonst zur eigentlichen "Quelle" http://www.sammobile.com/2016/09/09/exclusive-samsung-is-in-talks-with-nvidia-and-amd-for-gpu-technologies/ schreibt der Typ auch zufaellig bei wccftech? Wuerde mich nicht wundern :P
Ravenhearth
2017-02-23, 23:39:56
Samsung Announces Exynos 8895 SoC: 10nm, Mali G71MP20, & LPDDR4x (http://www.anandtech.com/show/11149/samsung-announces-exynos-8895-soc-10nm)
Nightspider
2017-02-24, 02:12:08
Ich hoffe nur inständig das Samsung so schlau ist den SoC im neuen Galaxy Tab S 3 zu verbauen.
Denn da hängt man bisweilen meilenweit Apple hinterher.
Ravenhearth
2017-02-24, 03:04:54
Ich glaube nicht dran. Und dann wundert man sich, dass sich Tablets immer schlechter verkaufen...
Das ist halt auch ein Henne/Ei-Problem: Es gibt immer weniger Neuvorstellungen, insbesondere im High-End-Bereich gibt es eigentlich nur Apple und sonst kaum etwas. Deswegen dürften die Verkäufe auch zurückgehen. Und was machen die Hersteller? Produzieren noch weniger neues...
Ailuros
2017-02-24, 08:01:56
Ich glaube nicht dran. Und dann wundert man sich, dass sich Tablets immer schlechter verkaufen...
Das ist halt auch ein Henne/Ei-Problem: Es gibt immer weniger Neuvorstellungen, insbesondere im High-End-Bereich gibt es eigentlich nur Apple und sonst kaum etwas. Deswegen dürften die Verkäufe auch zurückgehen. Und was machen die Hersteller? Produzieren noch weniger neues...
Es ist im white box Markt fuer tablets in China auch nicht besonders besser. Fuer low end tablets gibt es hauptsaechlich dual OS Intel Rums tablets mit relativ kurzen Batterie-Laufzeiten.
Sonst zum vorigen link oben: wie war es nochmal dass Samsung angeblich GPU IP von NV lizenzieren wuerde.....uhhhmmm yeahrightsureok. Ich will hoffen dass Samsung den MP20 nicht besonders hoch taktet, sonst throttelt das Ding wieder unendlich.
deekey777
2018-01-04, 12:33:25
Samsung Optimizes Premium Exynos 9 Series 9810 for AI Applications and Richer Multimedia Content (https://news.samsung.com/global/samsung-optimizes-premium-exynos-9-series-9810-for-ai-applications-and-richer-multimedia-content)
The new Exynos 9810 brings premium features with a 2.9GHz custom CPU, an industry-first 6CA LTE modem and deep learning processing capabilities
2,9 GHz? Alter...
Bucklew
2018-01-04, 12:37:47
said Ben Hur, vice president of System LSI marketing at Samsung Electronics.
So much win ;D
mboeller
2018-01-04, 13:31:02
das hier ist noch interessanter:
https://www.gsmarena.com/samsung_launches_its_flagship_exynos_9810_processor-news-28981.php
Built on Samsung’s second-generation 10nm FinFET process it's packing a brand new eight-core CPU under its hood, four of which are powerful third-generation custom cores that can reach 2.9GHz, with the other four optimized for efficiency. Single-core performance is enhanced two-fold and multi-core performance is increased by around 40% compared to its predecessor.
das wären dann so 3900 Punkte SingleCore und 9000 Punkte MultiCore beim Geekbench :eek:
Zum Vergleich das S8:
https://browser.geekbench.com/android_devices/376
ziemlich nahe dran am A11 (~90% vom A11):
https://browser.geekbench.com/ios_devices/52
Ein S9 mit 845 Qualcomm SoC wäre da schon um einiges langsamer.
Sunrise
2018-01-04, 16:04:03
Das ist unrealistisch und kann eigentlich nur falsch ausgedrückt worden sein. Für diese Werte müsste die IPC urplötzlich drastisch gesteigert worden sein, das lässt sich nirgends festmachen.
Bei 2,9GHz käme man bei gleicher IPC auf schon großzügige 2500 Punkte im Single-Core, da landen wir mit etwa 10% mehr IPC bei um die 2700-2800 Punkte.
Ist natürlich dennoch ordentlich und das S9(+) wird sicher wieder beliebt werden, vor allem wenn Samsung den Endpreis nicht weiter erhöht, denn ich habe so den Eindruck dass für viele der iPhone X-Preis absolut indiskutabel war und da könnte man einige wieder zum Wechsel bewegen.
mboeller
2018-01-04, 16:12:16
Das ist unrealistisch und kann eigentlich nur falsch ausgedrückt worden sein. Für diese Werte müsste die IPC urplötzlich drastisch gesteigert worden sein, das lässt sich nirgends festmachen.
denke ich auch, steht aber so auf vielen Webseiten (hab 3-4 weitere gecheckt)
+60% IPC wären schon extrem
AffenJack
2018-01-04, 16:16:18
Das ist was Samsung behauptet. Das Ding ist wohl auch deutlich breiter mit ganz neuem Cachesystem. Mit dem alten Kern könnte das nicht mehr viel gemein haben. Aber wie man z.B. bei Ryzen sieht, kann man durchaus auchmal nen 40% IPC Sprung hinlegen. Erst recht in den tiefen IPC Regionen, wo es viele low hanging fruits gibt.
Sunrise
2018-01-04, 16:16:38
denke ich auch, steht aber so auf vielen Webseiten (hab 3-4 weitere gecheckt)
Habs gesehen. Wahrscheinlich wieder irgendeine Marketing-Schönrechnerei die bei Einzelwerten wohl auch stimmt. Ist jedenfalls gute Werbung, wenn es einfach jeder abschreibt.
Das ist was Samsung behauptet, aber es fehlt das schön "up to", welches Samsung erwähnt hat. Das Ding ist wohl auch deutlich breiter mit ganz neuem Cachesystem. Mit dem alten Kern könnte das nicht mehr viel gemein haben. Aber wie man z.B. bei Ryzen sieht, kann man durchaus auchmal nen 40% IPC Sprung hinlegen. Erst recht in den tiefen IPC Regionen, wo es viele low hanging fruits gibt.
Ja, das "up to" täte dieser Aussage wirklich ganz gut.
dildo4u
2018-01-04, 16:19:50
Warum sollte Samsung nicht in der Lage sein auf Apple aufzuholen wenn sie zusätzlich noch die Fertigung kontrollieren?
AffenJack
2018-01-04, 16:24:11
Habs gesehen. Wahrscheinlich wieder irgendeine Marketing-Schönrechnerei die bei Einzelwerten wohl auch stimmt. Ist jedenfalls gute Werbung, wenn es einfach jeder abschreibt.
Ja, das "up to" täte dieser Aussage wirklich ganz gut.
Steht bei Samsung aber doch nicht da, ich hatte das bei Anandtech gelesen und die haben das dazugedichtet. Samsung sagt wirklich nur 2fach Single Thread.
Aber ich erwarte auch eher, dass das nur Schöngerede bei wenigen Benches ist. Heißt aber eben nicht, dass man nicht einen massiven IPC-Sprung auch so hinlegt bei den durchschnittlichen Anwendungen.
Edit:
2x IPC, aber nur 1,4 Multithread könnte aber auch darauf deuten, dass der Single-Thread Verbrauch deutlich nach oben gegangen ist, was zu leistungsfähigeren Kernen passt. Nur dafür taktet das Teil bei Volllast wahrscheinlich stark runter.
deekey777
2018-01-04, 16:29:00
Samsung Optimizes Premium Exynos 9 Series 9810 for AI Applications and Richer Multimedia Content (https://news.samsung.com/global/samsung-optimizes-premium-exynos-9-series-9810-for-ai-applications-and-richer-multimedia-content)
2,9 GHz? Alter...
Kleines Update:
https://www.notebookcheck.com/Samsung-Galaxy-S9-Exynos-9810-mit-2-9-Ghz-CPU-unterstuetzt-4K-120fps.276782.0.html
Mali G72MP18, vier Custom-Kerne mit bis zu 2,9 GHz und vier A55-Kerne mit 1,9 GHz
Sunrise
2018-01-04, 16:56:49
Steht bei Samsung aber doch nicht da, ich hatte das bei Anandtech gelesen und die haben das dazugedichtet. Samsung sagt wirklich nur 2fach Single Thread.
Ich habe das gerade ausgegraben:
https://browser.geekbench.com/v4/cpu/4866523
Als SoC wird ein "universal9810" erkannt, mit 2680 Punkten im Single-Core (realistisch und auch nochmal etwa 10% schneller als der geleakte Wert vom Snapdragon 845 im S9). Multi-Core ist auch deutlich schneller als der alte Exynos-Vorgänger.
Müssen wir wohl wieder auf mehr Ergebnisse warten, die näher am Release kommen werden. Die Samsung-Angaben lesen sich für mich einfach zu wahnwitzig.
Nightspider
2018-01-04, 17:14:47
Das ist ja schon sehr nett aber Samsung muss mal 6GB ins normale S9 bringen.
Im S8 werden noch viel zu viele Apps aus dem RAM geschmissen die man noch braucht.
Wenn wirklich nur das S9+ 6GB bekommen sollte wäre das bescheuert, so ein großes Gerät brauch ich nicht in der Hosentasche.
robbitop
2018-01-04, 17:29:09
Multicore könnte analog A11 sein: dass die Low Power Kerne simultan zu den High Performance Kerne laufen und somit das Ergebnis verbessern.
mboeller
2018-02-13, 15:05:32
neuer angeblicher geekbench Score des 9810-SoC von Samsung:
https://forums.anandtech.com/threads/samsung-outs-exynos-9-series-9810.2532740/page-6#post-39303197
bzw.: http://browser.geekbench.com/v4/cpu/6974531
2.6GHz = 3717 Punkte SingleCore und 8839 Punkte MultiCore
Zum Vergleich das Samsung S8 (8895 SoC):
http://browser.geekbench.com/v4/cpu/compare/7019370?baseline=6974531
Apple verliert zwar nicht die Krone, aber den großen Vorsprung:
http://browser.geekbench.com/v4/cpu/compare/7019304?baseline=6974531
schade, dass die GPU bei weitem nicht mithalten kann. Da ist die 630er GPU im Snapdragon 845 zumindest laut anandtech wesentlich effizienter.
https://www.anandtech.com/show/12361/samsung-exynos-m3-architecture
https://www.anandtech.com/show/12420/snapdragon-845-performance-preview
Ailuros
2018-02-13, 15:18:16
Hat Andre@Anand recht (siehe B3D Forum) und Samsung kommt diesmal mit einer anstaendigen high end GPU IP Loesung an, kann sich jegliches GPU IP fuer high end ULP SoC verabschieden. QCOM hat sich in den letzten Jahren so brutal hohe Vorteile eingeraeumt fuer ihre GPUs dass Apple und Samsung gar keine andere Loesung haben als ihre eigenen GPUs zu entwickeln. Semis geben zwar schon seit einer Ewigkeit keine die area fuer GPU Bloecke in SoCs an, aber wenn man sich ansieht wie relativ klein die letzten 630/540 Adrenos geraten sind im Vergleich zu jeglicher Konkurrenz, sieht man schnell den Vorteil.
Kommt Samsung mit etwas anstaendigen an (bleibt abzusehen) kommt ARM eventuell was GPU IP betrifft in etwa in die gleiche Situation wie IMG. ARM wird so oder so neben CPU IP locker weiterhin GPU IP entwickeln koennen egal ob nur in low end SoCs ankommt, von Samsung haben sie sowieso nur minimal verdient. Die eigentliche Frage ist was Canyon Bridge mit IMG anrichten wird und ob dieses langfristig auch ueberleben kann.
Nightspider
2018-02-13, 15:29:19
@mboeller:
Die Werte sind ja echt genial und liegen über dem was ich von Samsungs nächsten SoC erwartet habe.
Da wird sich eigentlich mehr über die Leistung beim neuen S9 beschweren können, solange die Software nicht wieder ausbremst.
Haben die ihr Touchwiz nun eigentlich mal überarbeitet? Ich bilde mir ein vor einem Jahr mal etwas gelesen zu haben das Samsung seine Software auf Schnelligkeit und Effizienz optimieren will.
Trotzdem schade, dass das kleine S9 nur 4GB RAM bekommen wird.
@Ailuros:
Hey, schön zu sehen das es dich noch gibt und es dir (hoffentlich) gut geht. :)
@all:
Was schätzt ihr wie lange es noch dauern wird bis wir Stacked Memory (HBM oder Vergleichbar) in Smartphones bekommen werden?
Ich glaube die kranken auch etwas an der Speicherbandbreite.
Wenn ich mir die niedlichen <20GB/s RAM-Bandbreite für CPU und GPU anschaue müssten die SoCs trotz tollen Cache-Architekturen schon ordentlich ausgebremst werden.
Man stelle sich mal ein HBM Stack mit ~200GB/s neben dem SoC vor.
Ailuros
2018-02-13, 15:39:42
ULP SoCs sind noch etliche Meilen in Bandbreite von einem PC entfernt dass man an etwas so aufwendiges und teures wie HBM in diesen schon jetzt denken koennte. Ich lass mich gerne eines besseren belehren, aber ich bezweifle dass es momentan wenigstens einen ULP SoC gibt mit >128bit bus. Breitere IOs definitiv ja fuer die absehbare Zukunft auch hier aber es klingt mir nicht danach als ob die Herstellungsprozesse so viel mehr Leistung erlauben werden dass man ploetzlich zehn Mal so viel Bandbreite z.B. brauchen wuerde.
Nightspider
2018-02-13, 18:31:17
Hab mal drauf geantwortet im anderen Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896&page=21
(2. Abschnitt)
dildo4u
2018-02-20, 10:51:54
Erste Benches vom Exynos S9.
http://abload.de/img/geekbenchex6bpuu.png
https://www.computerbase.de/2018-02/samsung-galaxy-s9-plus-leak/
mboeller
2018-08-21, 09:45:39
Hot Chips 2018: Samsung’s Exynos-M3 CPU Architecture Deep Dive
https://www.anandtech.com/show/13199/hot-chips-2018-samsungs-exynosm3-cpu-architecture-deep-dive
In this slide we finally have an official figure for the IPC increase for the core: ~59%. I had pointed out at >50% at the beginning of the year so again glad to see that work out in the end. As we see in the graph, the increase is naturally not linear across all workloads and we see limited increases of only 25% in high ILP workloads, to near to not much of an increase in what is likely to be MLP workloads. Conversely, there’s also a lot of mixed workloads where the IPC increase is >80%.
deekey777
2018-11-14, 11:34:53
Der neue Eskimo ist da: Exynos 9820
https://www.anandtech.com/show/13599/samsung-announces-8nm-exynos-9820-with-trigroup-cpu-design
Interessantes Design: 2x M4, 2x A75 und 4x A55. Dazu im eigenen Haus in 8 nm gefertigt. Wieder Mali-Grafik, diesmal Mali G76MP12. Jetzt kriegt auch Exynos eine NPU (wie A12 oder Kirin).
Ailuros
2018-11-19, 09:20:31
Der neue Eskimo ist da: Exynos 9820
https://www.anandtech.com/show/13599/samsung-announces-8nm-exynos-9820-with-trigroup-cpu-design
Interessantes Design: 2x M4, 2x A75 und 4x A55. Dazu im eigenen Haus in 8 nm gefertigt. Wieder Mali-Grafik, diesmal Mali G76MP12. Jetzt kriegt auch Exynos eine NPU (wie A12 oder Kirin).
Die ersten Kirin980 (G76MP10) Resultate aus Anandtech's review zeigen vergleichbare Konstanten zum Adreno630/SD845 was die GPU betrifft. Wenn QCOM unter 7nm beispielsweise nochmal 30% zusaetzliche Leistung liefern sollte, koennen sie theoretisch locker wieder die PPA metrics auch mit der kommenden Generation wieder gewinnen.
Deinorius
2018-11-20, 16:36:31
2x M4? @ ? GHz
It does have L2
2x Cortex A75 @ ? GHz
Probably L2
4x Cortex A55 @ ? GHz
Let's hope it has L2
Ich mag diesen beiläufigen Humor. ;D
mczak
2018-11-20, 17:15:52
Ich mag diesen beiläufigen Humor. ;D
Ja, lustige Beschreibung dafür dass man nicht weiss wieviel L2-Cache. Der A75 hat allerdings auf jeden Fall L2, und nicht bloss "probably" (L2 beim A55 ist optional, 64-256kB, aber nicht optional beim A75, 256kB-512kB, laut ARM, ansonsten wäre das nicht mehr wirklich ein "reiner" A75).
dildo4u
2019-08-07, 14:24:26
Samsung Announces the Exynos 9825 SoC: First 7nm EUV Silicon Chip
https://www.anandtech.com/show/14645/samsung-announces-exynos-9825-first-7nm-euv-silicon-chip
smalM
2019-09-04, 13:00:53
Anandtech (https://www.anandtech.com/show/14829/samsung-announces-exynos-980-midrange-with-integrated-5g-modem): Samsung Announces Exynos 980 - Mid-Range With Integrated 5G Modem
2x A77 2,2GHz
6x A55 1,8GHz
Mali G76 MP5
Prozeß: 8LPP
Locuza
2019-10-01, 12:38:43
Laut Twitterverse hat Samsung das Ganze Austin R&D-Team entlassen und setzt künftig auf ARM-Designs und keine eigenen Cores.
This seems to have come true. Samsung cut the entire Austin CPU team and will adopt the ARM CPU architecture in the future. This is good news.
https://twitter.com/UniverseIce/status/1178963916656766978
A77
https://twitter.com/UniverseIce/status/1178964831480639489
This is old news. They fired around 50-60% of the team back in June.
https://twitter.com/eyemnav/status/1178966011220877312
Thunder99
2019-10-01, 12:48:31
Um sich abzusetzen eher schlechte Entscheidung. Die bisherigen waren doch Konkurrenzfähig, oder nicht?
robbitop
2019-10-01, 12:55:34
So schlecht waren die Ansätze aus der Mongoose uArch doch nicht. Potenzial die ARM Cores zu überflügeln war IMO da. Diversifizierung sieht dann anders aus.
Erstaunlich, dass die ganzen custom cores untergegangen zu sein scheinen.
Qualcomm macht keine mehr, NV auch nicht mehr und nun Samsung auch nicht mehr. Sehr enttäuschend. Alle haben die gleiche CPU und alle sind von ARM abhängig.
Nur Apple nicht.
Bucklew
2019-10-01, 13:05:24
Die gleichen Cores im gleichen (Android-)Ökosystem macht allerdings auch Sinn.
Wahrscheinlich stehen schlicht Kosten nicht im Verhältnis zum Nutzen. Sicherlich sinnvoller das Geld in die Software-Optimierung zu stecken.
Locuza
2019-10-01, 13:13:09
@ robbitop
Die Differenzierung klappt im positiven Sinne ja nur, wenn man ständig Vanilla-Cores schlägt, sei es bei der perf/w oder per/mm² oder wenn man es schaffen würde kostengünstiger selbst zu entwickeln, als fertige zu Designs lizenzieren.
Laut dem Management sah es scheinbar nicht gut aus für die eigene Entwicklung gegenüber ARM, welche in den letzten Jahren deutlich zugelegt haben.
Nvidia verwendet noch eigene ARM-Cores.
Der Xavier-SoCs setzt auf 8 Carmel Cores (Denver3 könnte man wohl sagen).
Bezüglich dem Nachfolger Orin ist offiziell nichts bekannt und ich habe am Rande auch keine Gerüchte mitbekommen, dass Nvidia auch aufgeben möchte, eigene ARM-Designs zu entwickeln.
Hast du was dazu?
robbitop
2019-10-01, 15:25:49
Nicht explizit. Aber der Fortschritt ist verglichen mit dem Wettbewerb gering. Die veröffentlichen jedes Jahr einen neuen Core. Carmell gubt es schon eine Weile. Die Abstände sind recht gering.
Könnte ggf daran liegen, dass sie hauptsächlich Automotive machen - da lohnt es wohl nicht so oft etwas Neues zu machen. Consumergeräte mit den hohen Stückzahlen scheinen passe zu sein. Ich bin kein AI Experte aber ich nehme an, dass der Fokus dort weniger auf CPUs liegt und mehr in entsprechner SpezialHW. Auch sind die TDP Envelopes dort ggf anders. Insofern ist ggf gar nicht nötig auf besonders viel perf/W zu optimieren. Zumindest nicht vergleichbar wie im mobile Bereich.
Aber zugegeben alles nur Annahmen und Indizien.
Die Frage ist auch wie gut diese Transmeta-Konzept CPUs in mobilen Bereichen wären.
Denver hatte ja noch merkwürdig herumgestottert.
Carmell wurde von Anand ja mal in Form des Xaviers mal vermessen. War ganz ok - aber mehr nicht iirc.
KarlKastor
2019-10-01, 15:52:12
So schlecht waren die Ansätze aus der Mongoose uArch doch nicht. Potenzial die ARM Cores zu überflügeln war IMO da. Diversifizierung sieht dann anders aus.
Erstaunlich, dass die ganzen custom cores untergegangen zu sein scheinen.
Qualcomm macht keine mehr, NV auch nicht mehr und nun Samsung auch nicht mehr. Sehr enttäuschend. Alle haben die gleiche CPU und alle sind von ARM abhängig.
Nur Apple nicht.
Was soll daran gut gewesen sein?
Die Performance ist kaum besser als bei einem A76, die Energieeffizienz ist schlechter (und das nicht nur wegen den 8lpp, anandtechs Analyse des 8225 wird's zeigen) und das bei doppelter Diesize? Sorry, aber da ist der A76 das rundere Produkt.
Und das ist jetzt die vierte Iteration. Irgendwann werden sich die Verantwortlichen auch fragen, wie viel Geld sie noch verbrennen müssen um ein Produkt zu erhalten, dass auch besser ist.
Ich finde es auch schade, dass es kaum noch Vielfalt gibt. Zeigt aber, dass ARM einen guten Job macht und Samsung es nicht hinbekommt. Es macht dann wohl mehr Sinn, die Arm-cores zu optimieren, als alles komplett neu zu machen
Ganon
2019-10-01, 16:02:36
Die Frage ist doch heutzutage "Wozu?"... Im Gegensatz zu Apple hat sonst niemand Interesse mit dem PC-Sektor in Konkurrenz zu treten und eigenes R&D ist teuer und wenig vielversprechend. Ich denke auch die wenigsten Android-Nutzer interessieren sich großartig für die CPU-Leistung, von daher reicht auch das was ARM liefert (was ja im Grunde auch nicht so schlecht ist). Und ich denke auch nur die Wenigsten gehen zu Apple, nur weil dort die CPUs in den Geräten schneller sind.
Oder einfaches tl;dr: Es fehlt aktuell die Notwendigkeit.
Die Zukunft in schnellen & stromsparenden Chips liegt aktuell eh wieder vermehrt in der Verwendung von sehr vielen ASICs.
amdfanuwe
2019-10-01, 16:33:24
Könnte ggf daran liegen, dass sie hauptsächlich Automotive machen - da lohnt es wohl nicht so oft etwas Neues zu machen.
Hab mal als Entwickler im Automotive Bereich gearbeitet. Das dauert Jahre, bis ein neues Teil in die Produktion kommt. Wenn also ein neuer Chip vorgestellt wird, dauert das ~3 - 5 Jahre, bis der in Massenproduktion im Fahrzeug eingesetzt wird. Da muß das neue schon wesentliche Vorteile bringen bevor man vom bekannten, bewährtem abweicht.
mboeller
2019-10-01, 17:01:41
Was soll daran gut gewesen sein?
Die Performance ist kaum besser als bei einem A76, die Energieeffizienz ist schlechter (und das nicht nur wegen den 8lpp, anandtechs Analyse des 8225 wird's zeigen) und das bei doppelter Diesize? Sorry, aber da ist der A76 das rundere Produkt.
und der A77 hat nochmal 20% mehr IPC (Integer) bei 17% mehr Die-Area gegenüber dem A76:
https://www.golem.de/news/cortex-a77-arm-kern-hat-20-prozent-mehr-leistung-pro-takt-1905-141378.html
https://scr3.golem.de/screenshots/1905/ARM-Cortex-A77/thumb620/ARM-Cortex-A77-02.png
und schon beim S10 hat der Mongoose nicht so gut abgeschnitten:
https://www.anandtech.com/show/14031/samsung-galaxy-s10-first-exynos-9820-vs-snapdragon-855-scores
S855 hat zwar AFAIR leichte Verbesserungen gegenüber dem A76, aber soweit ich mich erinnere nur geringe. Der Kirin 980 sollte aber "richtige" A76 core drin haben.
edit:
https://www.anandtech.com/show/13614/arm-delivers-on-cortex-a76-promises
ein A77 sollte also ungefähr so schnell wie ein A11 sein, Integer ein wenig schlechter, FP ein wenig besser; basierend auf dem Spec2006. Beim GB4 schaut es aber schlechter aus, da ist der A77 eher so schnell wie der A10
Thunder99
2019-10-01, 17:05:43
In CB sieht zum Onleplus 7T man gut wie dicht 855(+) und 9820/9825 liegen. Mal der eine vorne, Mal der andere.
Aber dennoch, ohne eigene Entwicklung wird man es nicht selbst in der Hand haben an Apple ran zu kommen.
Rooter
2019-10-01, 19:09:32
Qualcomm macht keine mehrKryo wurde eingestellt? Ist das offiziell (dass dieses Jahr kein neuer Kern raus kam weiß ich)?
MfG
Rooter
Locuza
2019-10-01, 19:29:47
Kryo wurde eingestellt? Ist das offiziell (dass dieses Jahr kein neuer Kern raus kam weiß ich)?
MfG
Rooter
Der erste Kryo war ein Custom-Core von Qualcomm und wurde im Snapdragon 820 eingesetzt.
Mit dem Kryo 280 im Snapdragon 835 sah das aber schon wieder anders aus, der Kryo 280 basiert nicht auf dem Vorgänger Kryo, sondern ist ein Semi-Custom-Core auf Basis von einem fertigen ARM-Design (Vermutlich Cortex-A73):
The new Kryo 280, despite the similar name, shares no design DNA with the original Kryo. Its an octa-core, big.LITTLE configuration with four “performance” cores and four lower-power “efficiency” cores. What makes Kryo 280 unique, however, is that it’s the first design to use ARM’s new "Built on ARM Cortex Technology" (BoC) license, which allows vendors to customize ARM cores. This new semi-custom option gives vendors the ability to differentiate their products from those using ARM’s stock cores while avoiding the more costly route of creating a fully-custom design from scratch.
The BoC license allows the vendor to request certain modifications, particularly to the fetch block and issue queues, but certain parts of the microarchitecture are off limits, including the decoder and execution pipelines, because modifying these blocks requires too much effort. Qualcomm is not disclosing which ARM cores serve as the foundation for Kryo 280 or precisely which modifications it requested, but it did say that both CPU clusters use semi-custom cores. Qualcomm also confirmed that Snapdragon 835’s memory controllers are its own design.
https://www.anandtech.com/show/11201/qualcomm-snapdragon-835-performance-preview/2
Wenn man Wikipedia pauschal vertraut, dann basieren die Big-Cores im Kryo 280 auf ARMs A73, die im Kryo 385 auf A75 und die im Kryo 485 auf A76.
https://de.wikipedia.org/wiki/Kryo
Rooter
2019-10-01, 19:48:55
Okay, es sind keine kompletten Eigenentwicklungen, ich kann ja verstehen, dass sie das Rad nicht neu erfinden. Aber sind immer noch gepimpte ARM-Cores, so wie es doch auch die Exynos sind.
MfG
Rooter
robbitop
2019-10-01, 19:54:21
Die Mongoose Kerne waren komplette Eigenentwicklungen. Der erste Kryo und dessen Vorgänger waren das auch. Die aktuellen Qualcomms sind marginal modifizierte Standard ARM Cores.
Sehr viel Zeit bleibt für Veränderungen nicht, da ARM die im Jahreszyklus vorstellt und Wualcomm praktisch gleichzeitig ihre darauf basierende Kerne in den SoCs auf den Markt bringt.
Locuza
2019-10-01, 20:07:37
Die Mongoose-Kerne im Exynos bei Samsung sind komplette Eigenentwicklungen, sei es in Bezug auf die Execution-Pipelines, die Latenzen, dass Cache-System etc.
Das Semi-Custom-Zeug bei Qualcomm ist deutlich weniger differenziert und die Ergebnisse bei Anandtech unter Geekbench4 zeigen nahezu Stock A73-Performance unter INT- und FP-Workload für den Kryo280.
Edit: Zu lange nachgeschaut vor dem absenden, robbitop got it already covered.
y33H@
2019-10-01, 22:21:17
Nach den Resultaten von M3 und M4 war das iwie abzusehen, der 9825 ist ja offenbar "nur" ein 7LPP-Shrink und hat keine M5 integriert ...
robbitop
2019-10-02, 08:33:18
Ich habe irgendwie noch recht dunkel vom M1 und M2 in Erinnerung, dass Samsung die Kerne ggf zu fett machen wollte und das in ein paar Benchmarks auch brutal durchschien. Irgendwas anderes hat dann die Leistung aber offenbar limitiert. Theoretisch hätten die Dinger bei der Breite die regulären ARMs zerfetzen müssen. Ggf. zu durstig - ggf. anderer Bottlneck...?
Im mobile Bereich ist die Balance wahrscheinlich wichtiger als irgend sonst.
(wobei Apple es erstaunlicherweise hinbekommt, extrem breite Kerne zu liefern, die gemessen an allen anderen erstaunlich schnell und dafür erstaunlich energieeffizient sind - in den Anandtech Tests sieht das schon brutal aus. Deutlich schneller und gleichzeitig sparsamer als die Standard ARM Cores - IMO ist das schon ein Vorteil für solche Geräte wenn man energieeffizienter ist)
smalM
2019-10-02, 16:10:13
Semiaccurate (https://www.semiaccurate.com/2019/10/01/samsung-kills-off-a-major-silicon-design-program/) verbreitet gerade das Gerücht, Samsung hätte ein großes Halbleiter-Designprojekt beerdigt.
An verschiedenen Stellen wird nun vermutet, die Mongoose-Entwicklung sei eingestellt worden.
Edit:
Anscheinend wurde die CPU-Entwicklung in Austin tatsächlich gestoppt und die Entwicklergruppe mit 300 Leuten gefeuert.
Locuza
2019-10-02, 16:13:03
Von David Shor (Wikichip):
Reports of Samsung killing off *multiple* Si teams @ SARC are true. Managed to confirm. The graphics integration team is also getting restructured (no idea what this means for AMD deal - if anything). Lots of other Si opportunities at Austin. Hopefully everyone transitions well.
https://twitter.com/david_schor/status/1179376443920457728
Nuvirus
2019-10-04, 16:00:45
hab mich in letzter Zeit viel mit dem Thema neues Smartphone beschäftigt.
Samsung fand ich von den Smartphones her sehr interessant als Gesamtpaket, aber die Exynos CPUs haben in der Praxis gerade beim mobilen Verbrauch sowohl bei der aktuellen Gen als auch die des letzten Jahres doch wesentlich schlechter abgeschnitten als aktuelle Snapdragon CPUs.
Es gab ja sogar direkte Vergleiche da man das S10 ja sowohl mit Snapdragon z.B. in den USA bekommt als auch mit Exynos.
Die schlechte Akkulaufzeit gerade bei mobilen Daten war für mich der Hauptgrund nicht zu einem Samsung Smartphone zu greifen.
Daher ist es für Europa atm ganz gut wenn es keine Exynos mehr gibt, schade ist natürlich das dadurch ggf. die Preise langfristig steigen da weniger Konkurrenz.
Nightspider
2019-10-06, 01:55:37
Exynos SoCs wird es weiterhin geben. Nur eben ausschließlich mit ARM Kernen.
Samsung wird auch weiterhin keine Lust haben QualComm Geld zu schenken.
danarcho
2019-10-06, 04:31:35
Hm, damit dürften Exynos und Kirin fast identisch werden...
Thema Anpassungen: Wenn Huawei halt ihre ARM Cores unverändert ein halbes Jahr früher auf den Markt schmeißen kann, müssen sich die anderen echt überlegen, ob sie daran noch viel Zeit verlieren wollen.
Nightspider
2019-10-06, 06:47:55
Gibt ja noch genug andere Felder über die man herausstechen kann (GPU (AMD tech?), NPU, usw)
Aber QualComm ist halt ein brutaler Gegner.
DrFreaK666
2019-10-06, 10:18:07
Soweit ich mich erinnern kann wird Samsung in zukunft AMD-Hardware zu Hilfe nehmen
Rooter
2019-10-06, 10:35:07
Gibt ja noch genug andere Felder über die man herausstechen kann (GPU (AMD tech?), NPU, usw)Was ist mit der Cachegröße, die ist bei ARM doch konfigurierbar. Oder nehmen die Firmen für ihre Topmodelle eh immer das Maximum?
MfG
Rooter
CrazyIvan
2020-04-06, 09:22:43
Das Anandtech Review zu den neuen Galaxies inkl. Vergleich von Exynos und Snapdragon zeigt noch einmal in aller Deutlichkeit, warum die Beerdigung von Custom-Designs wohl die richtige Entscheidung ist:
https://www.anandtech.com/show/15603/the-samsung-galaxy-s20-s20-ultra-exynos-snapdragon-review-megalomania-devices
robbitop
2020-04-06, 10:11:10
Oder man baut bessere uArchs als ARM. Dass das machbar ist, zeigt Apple seit Jahren. Ggf. meinte Samsung es einfach nicht ernst genug.
Dampf
2020-04-06, 10:41:57
Machen wir uns nix vor, sollte Samsung mit dem Exynos zukünftig wirklich auf eine RDNA1 oder sogar einer RDNA2 GPU (bitte letzteres) setzen, dann revolutionieren sie die gesamte Smartphone-Branche. Völlig neue Einsatzmöglichkeiten sind dann vorstellbar. Da würde niemanden die 5-10% schwächere CPU-Leistung stören. Qualcomm Adreno mit ihrer steinalten ATI-Architektur wird dagegen gnadenlos abfallen.
Bisher ist nämlich die GPU-Leistung der Flaschenhals bei Smartphones, nicht die CPU!
AffenJack
2020-04-06, 11:49:12
Machen wir uns nix vor, sollte Samsung mit dem Exynos zukünftig wirklich auf eine RDNA1 oder sogar einer RDNA2 GPU (bitte letzteres) setzen, dann revolutionieren sie die gesamte Smartphone-Branche. Völlig neue Einsatzmöglichkeiten sind dann vorstellbar. Da würde niemanden die 5-10% schwächere CPU-Leistung stören. Qualcomm Adreno mit ihrer steinalten ATI-Architektur wird dagegen gnadenlos abfallen.
Bisher ist nämlich die GPU-Leistung der Flaschenhals bei Smartphones, nicht die CPU!
Lol, die Adrenos haben mit der ATI Architektur heutzutage wohl kaum mehr was zutun. Es wird spannend, ob Adreno RDNA in diesen TDP Bereichen nicht sogar schlagen wird. Unmöglich gerade einzuschätzen.
robbitop
2020-04-06, 11:52:55
Lol, die Adrenos haben mit der ATI Architektur heutzutage wohl kaum mehr was zutun. Es wird spannend, ob Adreno RDNA in diesen TDP Bereichen nicht sogar schlagen wird. Unmöglich gerade einzuschätzen.
So sehe ich das auch. Qualcomm hat da massivst GPU IP entwickelt. Da wird sehr wenig aus der ATI Zeit (die ja auch schon ewig her ist) übrig sein.
Und die Kluft bei der CPU ist zwischen einer aktuellen Apple CPU und einer Qualcomm wesentlich mehr als 10%. :)
IMO ist GPU Leistung auf einem Smartphone/Tablet nicht sooo primär. Die Spiele auf den Plattformen sind eh ein Witz. Die CPU hingegen ist immer wichtig für die Fluppdizität auf dem Gerät.
Auffällig ist dennoch, dass auch hier Apples PowerVR-GPU immer noch das beste Ergebnis liefert, trotz Adreno.
Und Apple hat im Gegensatz zu Qualcomm und Konsorten sicher bei Weitem die größte und best-besetzte CPU-Entwicklung. Das wird ein Unterschied wie Tag und Nacht sein von Apple zu Qualcomm und Samsung. Für die war das eher ein Marketinginstrument würd ich fast sagen.
Die Chinesen (beispiel Mediatek und auch Huawei) haben ja nie auf sowas gesetzt sondern immer ARM-Implementationen lizenziert und fertig - und lagen damit einfach richtig.
mboeller
2020-04-06, 15:22:13
Auffällig ist dennoch, dass auch hier Apples PowerVR-GPU immer noch das beste Ergebnis liefert, trotz Adreno.
Und Apple hat im Gegensatz zu Qualcomm und Konsorten sicher bei Weitem die größte und best-besetzte CPU-Entwicklung. Das wird ein Unterschied wie Tag und Nacht sein von Apple zu Qualcomm und Samsung. Für die war das eher ein Marketinginstrument würd ich fast sagen.
Die Chinesen (beispiel Mediatek und auch Huawei) haben ja nie auf sowas gesetzt sondern immer ARM-Implementationen lizenziert und fertig - und lagen damit einfach richtig.
lass das nicht Ailuros hören. ;)
Bzgl. Leistung pro Watt und Leistung pro mm² sind die Adrenos den PowerVR im iPhone ziemlich weit überlegen.
Mediatek nutzt auch PowerVR IP, wie Apple.
War auf CPU-IP-bezogen, aber ja, konnte man so verstehen :D. Apple will doch weiterhin auf PowerVR setzen, mal sehen, ob das so bleibt alles.
Man könnte den Thread mal in "Prozessoren für Mobiltelefone" oder sowas umbennen, wenn das jetzt der letzte Exynos sein soll.
CrazyIvan
2020-04-06, 16:39:21
Nunja, es wird wohl nicht der letzte Exynos sein. Wohl aber der letzte, mit Custom CPU-UP.
Fairerweise muss man auch erwähnen, dass Samsung 7nm anscheinend weit hinter TSMC zurück ist - nicht alles ist allein auf die Architektur zurück zu führen.
mczak
2020-04-07, 21:02:31
lass das nicht Ailuros hören. ;)
Bzgl. Leistung pro Watt und Leistung pro mm² sind die Adrenos den PowerVR im iPhone ziemlich weit überlegen.
Anandtech hat auch Perf/W Tests, und da liegt apple bei der GPU auch gut im Rennen. Leider (für den SD 865) nur die Peak Perf/W Werte, nicht die sustained ones (für den A11 sind auch solche Resultate enthalten), die sustained Werte wären wohl besser für den Vergleich weil da beide Chips näher am optimalen Betriebspunkt operieren. Aber bei den Peak Werten herrscht bezüglich Perf/W ziemlich Gleichstand zwischen dem A11 und SD 865, so schlecht kann die GPU also nicht sein. Bezüglich Perf/Fläche bin ich da gerade überfragt bei den aktuellen Chips, war aber bei den Vergleichen die ich bisher gesehen habe schon so dass da apple immer riesige Fläche investiert und die Adrenos vergleichsweise winzig waren - auch unter Berücksichtigung der höheren absoluten Performance.
KarlKastor
2020-04-08, 09:24:51
Oder man baut bessere uArchs als ARM. Dass das machbar ist, zeigt Apple seit Jahren. Ggf. meinte Samsung es einfach nicht ernst genug.
Wie kann man es nicht ernst genug meinen? Sie versuchen es seit 5 Jahren. Sie akzeptieren sehr große Kerne. Aber es kommt nichts bei rum. Klar ist es machbar, siehe Apple. Aber eben für Samsung nicht.
KarlKastor
2020-04-08, 09:30:49
Fairerweise muss man auch erwähnen, dass Samsung 7nm anscheinend weit hinter TSMC zurück ist - nicht alles ist allein auf die Architektur zurück zu führen.
Sehe ich nicht so. Wenn man den 990 und SD765 mit dem SD855 vergleicht, verbraten die etwa gleich viel. Vielleicht sieht's übler aus bei höheren Taktraten. Aber so liegen die schon in der Nähe von zumindest N7.
Aber die Architektur ist doch komplett Mist. Sie liegen im specInt ja nicht mal bei 50% der Effizienz. Die versagen doch bei jeder Metrik.
Die Kerne sind deutlich größer, benötigen die doppelte elektr. Leistung und sind dann nicht mal schneller. Da stimmt doch rein gar nichts.
robbitop
2020-04-08, 09:57:46
Wie kann man es nicht ernst genug meinen? Sie versuchen es seit 5 Jahren. Sie akzeptieren sehr große Kerne. Aber es kommt nichts bei rum. Klar ist es machbar, siehe Apple. Aber eben für Samsung nicht.
Apple zeigt, dass es geht. Was dazu fehlt - darüber kann man nur spekulieren.
Man muss offenbar sehr viel dafür bereit sein auszugeben.
Der richtige Standort ist nötig, denn an diesen sind idR die größten Talente in dem Bereich.
Firmenkultur, die attraktiv genug ist, diese Talente anzulocken und zu halten
...
smalM
2020-06-10, 16:28:39
Ein Lebenszeichen vom (ehemaligen) CPU-Team in Austin: Vom M1 bis zum M6 (https://www.anandtech.com/show/15826/isca-2020-evolution-of-the-samsung-exynos-cpu-microarchitecture)
Ailuros
2020-06-19, 07:32:26
lass das nicht Ailuros hören. ;)
Bzgl. Leistung pro Watt und Leistung pro mm² sind die Adrenos den PowerVR im iPhone ziemlich weit überlegen.
Mediatek nutzt auch PowerVR IP, wie Apple.]
Mediatek benutzt heutzutage am meisten ARM GPU IP.
Leistung pro Watt: https://www.anandtech.com/show/15207/the-snapdragon-865-performance-preview-setting-the-stage-for-flagship-android-2020/5
Fuer FLOPs/mm2 gab es einen Zeitpunkt wo Adrenos zwischen 2x bis 3x Mal vor der Konkurrenz lagen.
Adrenos ab 5xx haben sehr gute sustained performance. Peak performance liegt nach wie vor in Apple's Ecke.
Sonst mal ingesamt:
Samsung mobile: in absehbarer Zukunft eigene GPU IP
Samsung mobile++: AMD GPU IP (semi custom SoC?)
Apple: bezahlt nur Architektur-Lizenzen an IMG, die heutige GPU IP ist fast total umgeschriebener GPU code von Apple aber da nach aussen ein TBDR zahlen sie weiterhin Gebueren (aber wohl keine royalties) an IMG.
Huawei: in absehbarer Zukunft eigene GPU IP
QCOM mitberechnet wer fehlt sonst noch fuer high end smartphones?
Ailuros
2020-06-19, 07:46:02
Lol, die Adrenos haben mit der ATI Architektur heutzutage wohl kaum mehr was zutun. Es wird spannend, ob Adreno RDNA in diesen TDP Bereichen nicht sogar schlagen wird. Unmöglich gerade einzuschätzen.
Stimmt schon so, nur ist es eben so dass dem Adreno/QCOM GPU auch wirklich nichts fehlt. QCOM war vor der Vorstellung von ihrer DX11 GPU Serie fast am verzweifeln da das Zeug ernsthafte hw-bugs hatte; zuerst wurde im Hintegrund mit IMG fuer die Moeglichkeit einer GPU IP Lizenz als Rettungsplanke verhandelt und spaeter hat QCOM einfach massiv engineering Talente eingekauft und es hat sich seither so manches geaendert. Ab Adreno5xx wurden nicht nur die meisten hw bugs entfernt aus der DX11 Architektur, das Zeug entwickelte sich zu fast vorbildlicher IP welches schnell Apple, Samsung und Huawei zur Entwicklung eigener GPU IP gezwungen hat.
U.v.a verantwortlich fuer die Wendung war Eric Demers, ex ATI lead engineer und davor ex-ArtX der uebrigens fuer die radikale Wendung des R300 zu ATI Zeiten u.a. verantwortlich war.
Adrenos haben uebrigens bis jetzt noch keine waschreine neue Architektur alles heutige sind lediglich refreshes des vorigen und die IP ist entwickelt und angepasst fuer ULP SoC GPU IP in welchem Bereich das Resultat nicht mit einer high end Architektur in dessen Bereich verglichen werden kann, aber auch nicht AMD's GPU IP die eben momentan noch zu viel verbraucht um in einem smartphone Sinn zu machen.
Apple hat wiederrum als Kern ex engineering Talente aus dem vorigen AMD Orlando team. Huawei hat.....oooops :freak:
mboeller
2020-09-18, 18:34:14
ich hätte es auch im Qualcomm Thread posten können, aber beide, Samsung und Qualcomm wollen anscheinend in den nächsten SoC den Cortex X1 mit benutzen, in einer 1-3-4 Konfiguration. Link: https://www.gsmarena.com/exynos_and_snapdragon_flagship_socs_to_adopt_arms_x1_highperformance_core-news-45357.php
Der Cortex X1 ist, laut dem anandtech Artikel ziemlich schnell:
https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/4
Da bin ich gespannt wie gut der Cortex X1 wirklich abschneidet.
KarlKastor
2020-09-18, 18:43:43
Mh, nur ein schneller Kern. Ich bin gespannt ob wer Zwei bringt.
Single thread Performance wird schon stark ansteigen. Multithread eher weniger. Der A78 ist nur ein Minischritt zum A77. Da gibt's höchstens mehr Power wenn die den N5 ausreizen. Aber wahrscheinlich werden die restlichen Kerne eher konservativ getaktet. Für den Alltag wahrscheinlich auch eine optimale Lösung.
smalM
2020-12-17, 15:56:03
Fall beides echt ist:
Exynos 1080 in GB5 (https://browser.geekbench.com/v5/cpu/5363276).
Zum Vergleich der Exynos 2100 (https://browser.geekbench.com/v5/cpu/3877090).
Danach wäre ein X1 um ein Drittel schneller als ein A78 (mit unbekannter Cache-Konfiguration, wahrscheinlich der minimalen).
y33H@
2020-12-17, 16:49:19
+22% Integer war ARMs eigene Aussage zu X1 vs A78.
https://scr3.golem.de/screenshots/2005/Cortex-A78-Cortex-X1/thumb620/Cortex-A78-Cortex-X1-13.png
dildo4u
2021-01-19, 04:33:59
Deutlich weniger trotteling im 3DMark.
xdGltWXM6Xc
Ailuros
2021-01-23, 07:54:17
https://www.anandtech.com/show/16408/samsung-confirms-amd-rdna-gpu-in-next-exynos-flagship?utm_source=twitter&utm_medium=social
mboeller
2021-08-25, 15:17:20
mal was neues zum RDNA2:
gefunden beim Locuza:
https://mobile.twitter.com/FrontTron...92491450363913
Exynos 2200 AMD mRDNA architecture GPU
June sample
6CU based 1.31Ghz clock test
with AMD provided development beta version driver
Manhattan 3.1: 170.7 fps
Aztec normal: 121.4 fps
Aztec high: 51.5 fps
Similar to A14 (reference below)
6CU @ 1,3GHz sind IMHO schon heftig, das sollten wenn ich mich auf die schnelle nicht verrechnet habe 1 TFlops sein.
Zossel
2021-08-25, 21:02:45
mal was neues zum RDNA2:
gefunden beim Locuza:
https://mobile.twitter.com/FrontTron...92491450363913
Viel interessanter ist das es eine Alternative zu diesen schrottigen Treiber Blobs gibt.
Wie Blob-lastig sind eigentlich die Modems von Samsung?
Ailuros
2021-08-30, 07:12:58
mal was neues zum RDNA2:
gefunden beim Locuza:
https://mobile.twitter.com/FrontTron...92491450363913
6CU @ 1,3GHz sind IMHO schon heftig, das sollten wenn ich mich auf die schnelle nicht verrechnet habe 1 TFlops sein.
Wo zum Henker soll es vergleichbare A14 Leistung sein? In 3.1 landet der A14 gerade noch 105.5 fps und wenn es stimmt dann liegt die obrige GPU eher im A12Z Leistungsbereich (171,80fps).
Stimmt die Leistung so und ein solcher RDNA2 ist fuer smartphones bestimmt, wird es wohl fuer A15 ziemlich unbequem auf dem 2. Platz fuer die GPU Leistung. Ist die obrige GPU aber eigentlich Apple M1 Konkurrenz-Material dann wohl eher = schnarch.......
basix
2021-08-30, 16:46:10
Wo zum Henker soll es vergleichbare A14 Leistung sein? In 3.1 landet der A14 gerade noch 105.5 fps und wenn es stimmt dann liegt die obrige GPU eher im A12Z Leistungsbereich (171,80fps).
Stimmt die Leistung so und ein solcher RDNA2 ist fuer smartphones bestimmt, wird es wohl fuer A15 ziemlich unbequem auf dem 2. Platz fuer die GPU Leistung. Ist die obrige GPU aber eigentlich Apple M1 Konkurrenz-Material dann wohl eher = schnarch.......
Ist ca. +50% auf einen A14, was schon sehr stark wäre.
Bezüglich M1: Bei Anandtech habe ich in den Kommentaren gelesen, dass der Deal sich nur auf Produkte bezieht, wo nicht direkt mit AMD konkurrieren. Das wäre bei APUs ja der Fall.
https://www.anandtech.com/show/16408/samsung-confirms-amd-rdna-gpu-in-next-exynos-flagship
That won't happen and this is the reason: "another piece of information we’ve been able to confirm what the press release’s mention of “complementary products” means, and it’s pretty straightforward. In short, the AMD/Samsung deal is structured so that Samsung is only allowed to use AMD GPU IP in segments that AMD doesn’t compete in. In other words, AMD’s GPU tech can only be used in smartphone and tablet SoCs."
https://www.anandtech.com/show/14492/samsung-amds-gpu-licensing-an-interesting-collaboration
Samsung Can’t Compete with AMD: Smartphones & Tablets Only
...And since the deal is structured to ensure Samsung’s products only complement AMD’s products – all the while Samsung is paying AMD – a collaboration would only benefit AMD.
But, even if our assumption is right here, the one question even the crystal ball can’t answer is what kind of role Samsung’s existing IP will play in this new partnership. ...
Edit:
Der Exynos 2100 benötigt 7.7W (https://www.anandtech.com/show/16463/snapdragon-888-vs-exynos-2100-galaxy-s21-ultra/6) und liefert 28fps bei Aztec High. 7.7W bei 1.0 TFlops wäre nicht schlecht, aber auch nicht überragend bei nur 1.3 GHz. Eine 6600XT macht bei 130W Chip Power ~10 TFlops, wären somit 13W/TFlops. Das allerdings bei fast doppelt so hohem Takt. Ich denke, der Exynos 2200 könnte mit dem gezeigten Performance-Level etwas sparsamer sein als der 2100er oder die Leistung Sustained besser halten.
Ailuros
2021-09-13, 12:52:01
Ist ca. +50% auf einen A14, was schon sehr stark wäre.
Nebenbei stimmt die Indizie fuer die Exynos GPU Leistung dann duftet es eher nach einem sehr fruehen beta Treiber; mit etwas Treiber- bzw. Compiler-Liebe liegt sicher noch ein sehenswerter Zusatz versteckt.
smalM
2021-10-12, 17:34:36
Korea IT News (https://english.etnews.com/20211012200002)
Samsung soll planen, den Anteil von Exynos' in seinen Smartphones von 20% auf 50–60% zu steigern.
Sollte das Wirklichkeit werden, bedeutete das für Qualcomm einen Absatzrückgang um ca. 80–100 Mio. SoCs und einen Umsatzrückgang um mehrere Mrd. Dollar.
basix
2021-10-12, 19:22:09
Korea IT News (https://english.etnews.com/20211012200002)
Samsung soll planen, den Anteil von Exynos' in seinen Smartphones von 20% auf 50–60% zu steigern.
Sollte das Wirklichkeit werden, bedeutete das für Qualcomm einen Absatzrückgang um ca. 80–100 Mio. SoCs und einen Umsatzrückgang um mehrere Mrd. Dollar.
Ob da RDNA2 Mitteinfluss hat? Neben Performance sind das auch Lizenzkosten.
Dampf
2021-10-12, 19:22:47
Ob da RDNA2 Mitteinfluss hat? Neben Performance sind das auch Lizenzkosten.
Definitiv.
Das ist schon mal ein gutes Zeichen!
DozerDave
2021-10-12, 19:47:44
AMD ist Partner von Exynos?
basix
2021-10-12, 19:52:57
Bekommt eine RDNA2 basierte GPU mit 6 CUs, ja.
smalM
2021-10-13, 13:03:04
@basix
SoC + 5G-Geraffel von Qualcomm ist sehr teuer.
Dagegen werden sich die Lizenzkosten an AMD sehr in Grenzen halten.
Samsung kann ungefähr 265 Mio. Smartphones im Jahr absetzen.
50–60% davon bedeutet 130–160 Mio. Stück. Das ist wenigstens die doppelte Menge der abgesetzten Flagschiff-Smartphones; Samsung müßte also planen, auch einen guten Teil ihrer Mittelklasse-Smartphones ebenfalls auf Exynos umzustellen.
Dampf
2021-10-13, 13:06:14
Samsung kann ungefähr 265 Mio. Smartphones im Jahr absetzen.
50–60% davon bedeutet 130–160 Mio. Stück. Das ist wenigstens die doppelte Menge der abgesetzten Flagschiff-Smartphones; Samsung müßte also planen, auch einen guten Teil ihrer Mittelklasse-Smartphones ebenfalls auf Exynos umzustellen.
Passend dazu: https://www.techspot.com/news/91160-exynos-chips-amd-rdna-2-graphics-could-power.html
Ailuros
2021-10-13, 14:14:36
@basix
SoC + 5G-Geraffel von Qualcomm ist sehr teuer.
Dagegen werden sich die Lizenzkosten an AMD sehr in Grenzen halten.
Ich bezweifle dass Samsung von AMD nur sture GPU IP lizenziert hat. Die relevante press releases betrafen eher eine gemeinsame Entwicklung, wobei ohne genau Einzelheiten zu wissen man schwer einschaetzen kann wie "billig" genau das Projekt sein koennte. Auf jeden Fall ist die Entwicklung eines eigenen SoCs so oder so alles andere als billig.
Von dem abgesehen Samsung braucht schon seit Jahren einen SoC der klare Vorteile gegenueber QCOM hat; legst Du mir zwei gleiche Samsung flagship smartphones auf den Ladentisch - das eine mit Exynos SoC und das andere mit Snapdragon SoC - denke ich nicht zweimal darueber nach und waehle dass Handy mit QCOM SoC.....
amdfanuwe
2021-10-13, 14:47:29
Ich bezweifle dass Samsung von AMD nur sture GPU IP lizenziert hat. Die relevante press releases betrafen eher eine gemeinsame Entwicklung
AMD wird keine RDNA2 IP angepasst auf den Samsung Prozess mit Anbindung an ARM in der Schublade haben. Ich nehme mal an, daher die gemeinsame Entwicklung.
Wenn dann die IP entwickelt ist, wird es nur noch ein Lizenz Geschäft.
Allerdings könnte ich mir auch vorstellen, dass AMD später noch kleine GPUs oder APUs bei Samsung fertigen läßt, nachdem die AMD Ingenieure nun mit Samsungs Prozess vertraut sind.
pilzsammler2002
2021-10-13, 15:04:36
6cu @ RDNA2 bei 1,3 GHz ist schon ne Hausnummer im Mobile Bereich :)
KarlKastor
2021-10-13, 17:23:49
@basix
Samsung müßte also planen, auch einen guten Teil ihrer Mittelklasse-Smartphones ebenfalls auf Exynos umzustellen.
Wäre ja nicht neu. Vor ein paar Jahren haben viele mainstream Geräte Exynos SoC gehabt. Nur nicht unbedingt zu dessen Vorteil.
Verstehe die Taktik eh nicht. Warum investieren die nicht mehr und bieten dann die volle Palette an von Einsteiger bis High-end? Sie designen immer ein paar SoC und setzen sie dann kaum wo ein.
smalM
2021-10-14, 09:51:07
Verstehe die Taktik eh nicht.
Zum einen wurde schon öfters gemutmaßt, daß Qualcomm als Foundry-Kunden zu gewinnen mit einer gewissen Abnahmezusage einherging.
Zum anderen hatte S.LSI in den letzten Jahren nicht so wirklich ein erfolgreiches Händchen beim SoC-Design. Die Aussage von @Ailuros, welchen SoC er in einem Handy bevorzugen würde, kommt ja nicht von ungefähr.
Ailuros
2021-10-14, 10:19:10
AMD wird keine RDNA2 IP angepasst auf den Samsung Prozess mit Anbindung an ARM in der Schublade haben. Ich nehme mal an, daher die gemeinsame Entwicklung.
Wenn dann die IP entwickelt ist, wird es nur noch ein Lizenz Geschäft.
Allerdings könnte ich mir auch vorstellen, dass AMD später noch kleine GPUs oder APUs bei Samsung fertigen läßt, nachdem die AMD Ingenieure nun mit Samsungs Prozess vertraut sind.
Ich erwarte zwar keine tabula rasa Entwicklung fuer den GPU block, aber es dauert nach wie vor zumindest 1.5 Jahre bis man so ein Tier fertig entwickelt hat. Sonst koennte das "nur" ein Lizenz Geschaeft von solcher Groesse locker in zu einer dreistellingen $ Mio Summe kommen pro Jahr. Die royalties fuer eine high end GPU duerften zumindest bei $1/core sein, fuer kleinere IP Bloecke dann wohl halb so viel oder etwas mehr.
Ailuros
2021-10-14, 10:31:51
Wäre ja nicht neu. Vor ein paar Jahren haben viele mainstream Geräte Exynos SoC gehabt. Nur nicht unbedingt zu dessen Vorteil.
Verstehe die Taktik eh nicht. Warum investieren die nicht mehr und bieten dann die volle Palette an von Einsteiger bis High-end? Sie designen immer ein paar SoC und setzen sie dann kaum wo ein.
Vor einiger Zeit hiess es dass Samsung in zukuenftigen Exynos SoCs fuer die obrige Leistungssparte AMD GPU IP benutzen wird und fuer den Rest eine eigene intern entwickelte GPU.
smalM
2021-10-15, 19:37:41
Sonst koennte das "nur" ein Lizenz Geschaeft von solcher Groesse locker in zu einer dreistellingen $ Mio Summe kommen pro Jahr. Die royalties fuer eine high end GPU duerften zumindest bei $1/core sein, fuer kleinere IP Bloecke dann wohl halb so viel oder etwas mehr.
Was verstehst Du unter 'core' in diesem Zusammenhang?
basix
2021-10-15, 22:48:55
Was verstehst Du unter 'core' in diesem Zusammenhang?
Vermutlich CU.
Ailuros
2021-10-19, 07:27:19
Was verstehst Du unter 'core' in diesem Zusammenhang?
Den gesamten GPU block pro SoC. IMG bekommt womoeglich keine royalties mehr von Apple aber in der Vergangenheit bekamen sie fuer einen high end SoC mit neuester GPU IP von Apple ~$1. Je kleiner oder aelter die IP desto niedriger der Preis. Als IMG damals ihre finanzielle jaehrliche Resultate veroeffintlichte bekamen sie im Schnitt ca. 30 cents pro verkauftem chip mit ihrer GPU IP, wobei auch eine Unmenge an low end GPU IP in dem Durschnitt lag.
Vermutlich CU.
Nein, siehe oben. Bei hypothetischen 6 CUs waeren es dann $6 royalty/chip welches irgendwo um 50% mehr waere als die ~$4/chip die AMD mit den ersten Konsolenchips und deren GPU IP kassierte (neue custom APUs sind eine andere Geschichte). Wir reden hier von smartphone SoCs; mehr als $1/chip wird wohl schwer jemand bezahlen.
Zossel
2021-10-20, 18:23:01
https://www.golem.de/news/pixel-6-pro-googles-tensor-soc-ist-eine-wilde-mischung-2110-160456.html
Bei der Grafikeinheit kommt eine sehr schnelle Mali-G78-MP24 zum Einsatz,
Ich hätte was vom AMD statt von ARM erwartet, da google nicht auf Blobs steht.
KarlKastor
2021-10-20, 20:07:34
Bei der Grafikeinheit kommt eine sehr schnelle Mali-G78-MP24 zum Einsatz, die aufgrund ihrer 20 GPU-Kerne keinen hohen Takt benötigt.
Zitier besser den ganzen Satz. Wofür steht nochmal MP24?:freak:
Zossel
2021-10-20, 21:07:21
Zitier besser den ganzen Satz. Wofür steht nochmal MP24?:freak:
Es ging nicht um Performance.
KarlKastor
2021-10-20, 23:02:17
Ich verstehe nicht ganz was du meinst. Ich habe lediglich auf einen Fehler im Artikel hingewiesen.
Zossel
2021-10-21, 07:08:15
Ich verstehe nicht ganz was du meinst. Ich habe lediglich auf einen Fehler im Artikel hingewiesen.
Mali braucht Treiber Blobs, welche google versucht zu vermeiden.
dildo4u
2021-10-21, 07:16:13
RDNA 2 war offensichtlich nicht Ready für den Massenmarkt AMD selber hat die IGP Upgrades ja ewig nach hinten verschoben und Steam Deck kommt nur in beschränkten Stückzahlen etc.
Man kann Handys nicht mit ein paar Gamer GPUs vergleichen, die Stückzahlen werden massiv größer sein selbst wenn man nur von der Pixel Serie spricht.
Ailuros
2021-10-21, 09:21:06
RDNA 2 war offensichtlich nicht Ready für den Massenmarkt AMD selber hat die IGP Upgrades ja ewig nach hinten verschoben und Steam Deck kommt nur in beschränkten Stückzahlen etc.
Man kann Handys nicht mit ein paar Gamer GPUs vergleichen, die Stückzahlen werden massiv größer sein selbst wenn man nur von der Pixel Serie spricht.
R&D fuer IP hat wohl ueberhaupt nichts mit Herstellung zu tun.
Linmoum
2022-01-18, 09:57:28
Offizielle Ankündigung:
https://news.samsung.com/global/samsung-introduces-game-changing-exynos-2200-processor-with-xclipse-gpu-powered-by-amd-rdna-2-architecture
Samsung Exynos 2200 mit RDNA2 wurde vorgestellt und wird bereits produziert
https://www.golem.de/news/exynos-2200-samsung-chip-mit-xclipse-rdna2-grafik-ist-da-2201-162472.html?utm_medium=social&utm_campaign=twitterfeed&utm_source=twitter.com
Ailuros
2022-01-21, 10:18:19
Nur leider noch keine sehenswerte Indizien was die GPU betrifft.
MSABK
2022-01-21, 10:25:46
Was bringt so eine starke GPU im Handy? In einen Windows on ARM PC würde ich das halbwegs versetehen.
dildo4u
2022-01-21, 10:27:51
Direkte Ports von iOS?Jetzt wo das Iphone 120fps kann macht es sinn für Entwickler High-End Androids mit 120fps Modi zu bedienen.
Dampf
2022-01-21, 10:58:02
Was bringt so eine starke GPU im Handy? In einen Windows on ARM PC würde ich das halbwegs versetehen.
Noch nichts.
Wird aber in Zukunft noch relevant werden.
vinacis_vivids
2022-01-21, 13:17:14
Aktuelle PC Spiele mit UE4/UE5-Engine oder Frostbite-Engine können dann auch auf dem Smartfone gespielt werden. Oder auch andere Spiele auf Vulkan Basis.
Das Teil bildet womöglich die hardwaretechnische Basis dafür.
Unter dem Radar ist das schon ein krasser Meilenstein, weil konkurrenzlos.
AMD will mit RDNA2 somit das Fundament für die Martkherrschaft legen.
Ailuros
2022-01-21, 13:32:43
Was bringt so eine starke GPU im Handy? In einen Windows on ARM PC würde ich das halbwegs versetehen.
Ich kann mir eher vorstellen dass Samsung eher low end notebooks bzw. PCs im Visier hat fuer die absehbare Zukunft als nur Handy SoCs. Vor geraumer Zeit hiess es in der Geruechtekueche dass Samsung low end Handy SoCs mit eigener GPU IP bedienen wollte und dann eben alles high end und ueber Handys dann mit AMD GPU IP.
Hat jetzt Samsung ihre eigene GPU Entwicklung nicht wieder ganz eingestampft, koennte das obrige schon stimmen. Insgesamt sind AMD's designs von Grund auf skalierbarer als ARM Mali cores da ARM sich leider nie mit einem higher end GPU IP design beschaeftigt hat.
Sonst insgesamt kann GPU Leistung an Seite von konstant steigender CPU Leistung nur mitskalieren um konkurrenzfaehig zu sein. Es gibt dann noch zwei wichtige Konstanten die man mitberechnen sollte:
1. Apple hat den Luxus vom hauseigenen OS. Der groesste Vorteil hier ist dass die GPU Treiber dort sich sehr vorsehbar verhalten; ein Android Entwickler muss hingegen verdammt vorsichtig sein dass ihm der GPU Treiber nicht "explodiert".
2. Hat man auf Papier bei einer ULP SoC GPU N% Leistung, hat man dank fehlender aktiver Kuehlung langfristig um einiges weniger Leistung je mehr Zeit vergeht und es kann auch nur noch N/2% Leistung bei Ueberhitzung sein.
basix
2022-01-21, 14:19:42
Ich kann mir eher vorstellen dass Samsung eher low end notebooks bzw. PCs im Visier hat fuer die absehbare Zukunft als nur Handy SoCs. Vor geraumer Zeit hiess es in der Geruechtekueche dass Samsung low end Handy SoCs mit eigener GPU IP bedienen wollte und dann eben alles high end und ueber Handys dann mit AMD GPU IP.
Halt, halt. Der Deal mit Samsung hat anscheinend eine eindeutige Klausel enthalten: Samsungs SoCs mit RDNA-IP dürfen nicht in Geschäftsfeldern eingesetzt werden, wo man mit anderen AMD Chips konkurriert.
Das was du beschreibst, dürfte nur mit expliziter Einwilligung von AMD stattfinden. Mit dann vermutlich zusätzlichen Lizenzierungskosten oder in einem Feld, wo AMD wirklich keine Chips hätte (z.B. <10W). Bei letzterem hat AMD aber wohl Chips (Dali, Van Gogh, ...).
AMDs Chips sind aber fast überall zu finden: Konsolen, Handheld-Konsolen, Embedded, Low End Notebooks, normale/dünne Notebooks,...
Ich sehe da ehrlich gesagt kein Geschäftsfeld ausserhalb Smartphones & Tablets, welche ohne weiteren Verträge für Samsung angreifbar wären.
Ailuros
2022-01-21, 15:16:14
Stimmt; I stand corrected :)
amdfanuwe
2022-01-21, 15:42:17
Halt, halt. Der Deal mit Samsung hat anscheinend eine eindeutige Klausel enthalten: Samsungs SoCs mit RDNA-IP dürfen nicht in Geschäftsfeldern eingesetzt werden, wo man mit anderen AMD Chips konkurriert.
Selbst wenn Samsung mit den Chips in Cromebooks oder Low Cost Laptops wollte, läßt sich sicher ein Deal mit AMD machen. Kostet die Lizens dann etwas mehr.
basix
2022-01-21, 16:05:04
Selbst wenn Samsung mit den Chips in Cromebooks oder Low Cost Laptops wollte, läßt sich sicher ein Deal mit AMD machen. Kostet die Lizens dann etwas mehr.
Genau meine Rede.
Zossel
2022-01-21, 17:03:37
Was bringt so eine starke GPU im Handy? In einen Windows on ARM PC würde ich das halbwegs versetehen.
AMD hat vernünftige Upstream-Treiber.
Ailuros
2022-01-25, 10:44:28
AMD hat vernünftige Upstream-Treiber.
Nicht nur; Samsung LSI bestand durch die Jahre darauf von ARM GPU IP zu lizenzieren, weil ARM keine royalties dafuer kassierte. Deshalb tolerierte Samsung durch die Jahre so manches merkwuerdiges Strom-verbrauchs-Abenteuer mit Malis. Wenn AMD als Gegenbeispiel fuer N setup mit X Frequenz einen Stromverbrauch von bis zu Y Watt angiebt, dann wird dieses auch stimmen. Heutzutage ist wohl ARM um einiges besser geworden mit GPU IP als am Anfang, aber Samsung wollte schon immer eine Alternative haben fuer ihre GPUs und mit Imagination wurde es nie etwas (mit ein paar seltenen Ausnahmen) wegen den royalties.
Es ist zwar nur ein frueher synthetischer test: https://www.notebookcheck.net/Xclipse-920-vs-Adreno-730-Coasting-AMD-RDNA-2-powered-GPU-for-the-Exynos-2200-thrashes-the-Snapdragon-8-Gen-1-s-graphics-processor-in-new-benchmarks.595019.0.html aber wenn sich die Xclipse GPU bei nur 555MHz schon so verhaelt wie im link oben muss sich zumindest QCOM sehr warm anziehen. Natuerlich brauchen wir noch viel mehr Daten fuer eine erste Schlussfolgerung.
davidzo
2022-01-25, 12:47:17
Es ist zwar nur ein frueher synthetischer test: https://www.notebookcheck.net/Xclipse-920-vs-Adreno-730-Coasting-AMD-RDNA-2-powered-GPU-for-the-Exynos-2200-thrashes-the-Snapdragon-8-Gen-1-s-graphics-processor-in-new-benchmarks.595019.0.html aber wenn sich die Xclipse GPU bei nur 555MHz schon so verhaelt wie im link oben muss sich zumindest QCOM sehr warm anziehen. Natuerlich brauchen wir noch viel mehr Daten fuer eine erste Schlussfolgerung.
+20% und +40% sind nette Zugewinne gegenüber Qualcomm, aber das sieht leider nicht so aus als wenn dass den status quo groß verändern würde. Apples A15 GPU ist auf Desktop-niveau, häufig sogar schneller als Vega8 und Icelake G7 und nicht selten doppelt so schnell wie ein Adreno 660 (die 730 ist nur +30%) in 3dmark wildlife sustained. Das deckt sich mit Anandtechs Analyse der M1 8C GPU, die auf GTX1650m niveau liegt.
Da wird sich eine 6CU RDNA2 GPU immer noch schwer gegen tun, zumal es so aussieht als wenn die sustained Taktraten weit unter den anvisierten 1+Ghz liegen.
Zossel
2022-01-25, 17:15:15
Apples A15 GPU ist auf Desktop-niveau, häufig sogar schneller als Vega8 und Icelake G7 und nicht selten doppelt so schnell wie ein Adreno 660 (die 730 ist nur +30%) in 3dmark wildlife sustained. Das deckt sich mit Anandtechs Analyse der M1 8C GPU, die auf GTX1650m niveau liegt.
Da wird sich eine 6CU RDNA2 GPU immer noch schwer gegen tun, zumal es so aussieht als wenn die sustained Taktraten weit unter den anvisierten 1+Ghz liegen.
Ob das Ding das schnellste am Markt ist macht den Businesscase nicht fett, der (LTS) Support dafür wird mit upstream Treibern wesentlich einfacher.
Ailuros
2022-01-28, 08:09:30
+20% und +40% sind nette Zugewinne gegenüber Qualcomm, aber das sieht leider nicht so aus als wenn dass den status quo groß verändern würde. Apples A15 GPU ist auf Desktop-niveau, häufig sogar schneller als Vega8 und Icelake G7 und nicht selten doppelt so schnell wie ein Adreno 660 (die 730 ist nur +30%) in 3dmark wildlife sustained. Das deckt sich mit Anandtechs Analyse der M1 8C GPU, die auf GTX1650m niveau liegt.
Da wird sich eine 6CU RDNA2 GPU immer noch schwer gegen tun, zumal es so aussieht als wenn die sustained Taktraten weit unter den anvisierten 1+Ghz liegen.
Vorlaeufige synthetische Tests koennen im besten Fall nur eine Indizie sein. Kann sein dass die XClipse mit geringerem Takt getestet wurde und/oder mit fruehen Treibern. Kann aber auch sein dass wir hier ein realistisches Vorbild bekommen haben; laeuft jetzt tatsaechlich Xclipse am Ende auf nur 555MHz und liegt im Schnitt sagen wir mal um die 25% vor Adreno730 (800MHz) und verbraucht auch gleichzeitig noch ein gutes Prozentual weniger (die niedrige Taktrate koennte darauf deuten), dann ist Samsung mit der AMD GPU IP um eine ganze SoC Generation voraus, eben weil bei QCOM pro Generation selten mehr als +30% Leistungszusatz kommt.
achja, heute 16 Uhr ist das "Galaxy-Event" bei dem u.a. das S22 mit dem RDNA-Exynos vorgestellt wird
Dampf
2022-02-09, 14:02:56
Bin gespannt. Ich hoffe sie präsentieren mal Software, die die Leistung auch wirklich ausnutzt und nicht nur bessere Kamera, bessere Kamera, bessere Kamera..
vinacis_vivids
2022-02-09, 14:55:55
Samsung
ARM CPU
AMD - RDNA2 GPU
Vulkan
Android
Sieht alles sehr sehr solide aus und auch konkurrenzfähig gegen alle.
Das einzige SoC-Smartphone, wo ich auch über ein Upgrade nachdenke, insbesondere wegen RDNA2 uArch.
Die CPU-Leistung war ja jetzt schon ne Weile da, jetzt kommt endlich eine entsprechen GPU-Leistung hinzu.
Android + Vulkan + RDNA2 wirds richten, dann gibs endlich ansprechende Grafik fürs Smartfone.
DrFreaK666
2022-02-09, 16:26:52
Laut CB ist die GPU 17% schneller als im Vorjahr. Glaube kaum dass man sich da von der Adreno absetzen kann
dildo4u
2022-02-09, 16:59:29
Was klar ist Bandbreite steigt nicht, Valve hat beim Steam Seck extra das Speicher Interface vergrößert damit es halbwegs Nutzbare Peformance gibt.
Außerdem sind die Akkus bei S22 und S22+ kleiner geworden, selbst wenn der Chip schneller laufen könnte hat man wegen Laufzeit drauf verzichtet.
fondness
2022-02-09, 17:21:46
Laut CB ist die GPU 17% schneller als im Vorjahr. Glaube kaum dass man sich da von der Adreno absetzen kann
Ist IMO auch nicht wirklich vergleichbar, RDNA2 ist voll DX12 Ulimate kompatibel, davon sind die anderen mobile Architekturen teils meilenweit entfernt.
Dampf
2022-02-09, 17:30:07
Scheiß Samsung. Wieder nur Kamera, Kamera, Kamera. Die könne mich echt mal am Arsch lecken mit ihren Kamera Features die keine Sau interessiert. Ich hoffe die bekommen bald Umsatzeinbußen, damit die mal wieder gezwungen sind, innovative Technik zu präsentieren und nicht immer nur jedes Jahr den gleichen Scheiß
DrFreaK666
2022-02-09, 17:34:20
Ist IMO auch nicht wirklich vergleichbar, RDNA2 ist voll DX12 Ulimate kompatibel, davon sind die anderen mobile Architekturen teils meilenweit entfernt.
Und was hat DX mit Android zu tun?
vinacis_vivids
2022-02-09, 17:41:29
Exynos 2100
ARM Mali-G78
GPU-CLK: 760Mhz
EU: 14
Shader: 224
Cache: 1MB
fp32: 1,4 Tflop/s
Samsung Xclipse 920 GPU
AMD RDNA2
GPU-CLK: 2000 Mhz?
CU: 6
Shader: 384
Cache: ?MB
fp32: 1,5 Tflop/s ?
VRAM: 4GB
Nehmen wir an, Xclipse 920 taktet mit 2Ghz, so landen wir bei: 384 x 2 x 2 = 1,536 Tflop/s fp32. Das sind allerdings RDNA2 Tflop/s, die zurzeit stärkste uArch unter Vulkan.
Vermutlich etwas stärker als Vega11 (1,75 Tflop/s) vom Ryzen 7 2400g, weil gepaart mit LPDDR5 Speicher und allerlei uArch-Verbesserung.
Für ein Smartfone ist diese Leistung absolut gigantisch, weil damit praktisch alle PC Spiele portiert werden können.
Dampf
2022-02-09, 17:45:00
Exynos 2100
Für ein Smartfone ist diese Leistung absolut gigantisch, weil damit praktisch alle PC Spiele portiert werden können.
Werden sie aber nicht.
Zossel
2022-02-09, 17:52:38
Und was hat DX mit Android zu tun?
Es schadet auch nichts.
robbitop
2022-02-09, 18:57:12
Was klar ist Bandbreite steigt nicht, Valve hat beim Steam Seck extra das Speicher Interface vergrößert damit es halbwegs Nutzbare Peformance gibt.
Außerdem sind die Akkus bei S22 und S22+ kleiner geworden, selbst wenn der Chip schneller laufen könnte hat man wegen Laufzeit drauf verzichtet.
Sind immernoch 128 bit beim Steam Deck
y33H@
2022-02-09, 22:55:36
Exynos 2200 vs Exynos 2100 laut Samsung:
+5% @ CPU
+17% @ GPU
+115% @ NPU
Ailuros
2022-02-10, 05:56:07
+17% GPU? *schnarch*
Nightspider
2022-02-10, 06:53:10
Da haben schon paar "Snapdragon+" mehr Leistung gebracht. :ugly:
Ailuros
2022-02-10, 07:05:20
Da haben schon paar "Snapdragon+" mehr Leistung gebracht. :ugly:
Wenn es stimmt und die GPU taktet auf "nur" 555MHz, dann muessen wir eher die PPAB (power/performance/area/bandwidth) relativen Werte des SoCs sehen.
fondness
2022-02-10, 08:25:05
Was ist NPU?
Ailuros
2022-02-10, 08:40:55
Was ist NPU?
Neural Prossesing Unit oder einfacher AI accelerator.
Adam D.
2022-02-10, 08:53:18
+17% GPU? *schnarch*
Im Smartphone-Setting ist mir das eigentlich ziemlich wurscht. Ich hoffe einfach, dass die niedrigen Zugewinne deutlich höhere Effizienz bedeuten.
deLuxX`
2022-02-10, 09:00:07
Im Smartphone-Setting ist mir das eigentlich ziemlich wurscht. Ich hoffe einfach, dass die niedrigen Zugewinne deutlich höhere Effizienz bedeuten.
So!
fondness
2022-02-10, 09:25:39
Neural Prossesing Unit oder einfacher AI accelerator.
Okay danke, dann geht wohl ein Großteil der TDP für das Ding drauf.
Ailuros
2022-02-10, 09:33:37
Okay danke, dann geht wohl ein Großteil der TDP für das Ding drauf.
Unter normalen Umstaenden sind solche Einheiten bzw. SoC Bloecke spotbillig wenn zum Verbrauch bzw. die area kommt. Deshalb auch eine konstant steigende Rate von TOPs in neuesten mobilen SoCs.
Keine Ahnung ob Samsung die NPUs selber entwickelt oder einfach auch von ARM lizenziert: https://www.arm.com/products/silicon-ip-cpu/ethos/ethos-n78
Im Smartphone-Setting ist mir das eigentlich ziemlich wurscht. Ich hoffe einfach, dass die niedrigen Zugewinne deutlich höhere Effizienz bedeuten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12916104&postcount=666
vinacis_vivids
2022-02-10, 13:22:31
+17% GPU? *schnarch*
Der GPU-Takt dürfte krass gedrosselt sein auf nur 555Mhz?
Samsung hat sich wohl mehr für die Akkulaufzeit als für den größeren Performancesprung entschieden.
Verständlich beim Smartfone.
Mehr CUs hätte mehr Flächenverbrauch bedeutet und den Preis wahrscheinlich zu hoch getrieben.
Ailuros
2022-02-10, 14:25:57
Der GPU-Takt dürfte krass gedrosselt sein auf nur 555Mhz?
Samsung hat sich wohl mehr für die Akkulaufzeit als für den größeren Performancesprung entschieden.
Verständlich beim Smartfone.
Mehr CUs hätte mehr Flächenverbrauch bedeutet und den Preis wahrscheinlich zu hoch getrieben.
Ein paar vorzeitige synthetische Benchmarkresultate vom 2200 deuteten auf eine 555MHz GPU Frequenz. Ob es stimmt und ob diese dann auch final sein wird keine Ahnung. Sonst wenn Samsung NICHT in absehbarer Zeit ihre SoCs fuer groessere Geraete mit ihren SoCs eindringen will, verpasse ich wohl dann schon irgendwo den Grund warum sie nicht bei ARM geblieben sind.
Samsung verkauft je nach Region entweder mit eigenen Exynos SoCs oder mit konkurrierenden high end QCOM SoCs. Neben dem Stromverbrauch wollten sie vielleicht auch keine ausstechende Unterschiede fuer die gleichen smartphones (mit verschiedenen SoCs) haben.
Adam D.
2022-02-11, 09:11:59
https://www.youtube.com/watch?v=D5tTOuiJYKU&t=30s
Diese ersten Ergebnisse stimmen mich vorsichtig positiv (also nicht mit Blick auf Rohperformance, die ist mir egal, aber Effizienz etc).
Adam D.
2022-02-15, 19:16:13
https://www.computerbase.de/2022-02/samsung-exynos-2200-rdna-2-gpu-benchmarks/
Fast schon vernichtend mies. Super, dass ich mir heute ein S22 bestellt hab :ulol: Da müsste man eigentlich aus Prinzip vom Rücktrittsrecht Gebrauch machen.
robbitop
2022-02-15, 19:21:29
Ex ATI gegen ATI. (das Radeon Mobile Design wurde in den 2000ern ja an Qualcomm verkauft und einige gute Leute wie Eric Demers sind mit zu Qualcomm; Adreno ist nicht ohne Grund ein Anagram von Radeon :D)
Wundert mich nicht, dass eine speziell für den mobile Markt entwickelte GPU effizienter in dessen Betriebspunkt ist als eine für den Desktop entwickelte herunter skalierte.
vinacis_vivids
2022-02-15, 19:45:00
https://www.computerbase.de/2022-02/samsung-exynos-2200-rdna-2-gpu-benchmarks/
Fast schon vernichtend mies. Super, dass ich mir heute ein S22 bestellt hab :ulol: Da müsste man eigentlich aus Prinzip vom Rücktrittsrecht Gebrauch machen.
"Weder für Raytracing noch für VRS konnte Samsung zur Präsentation der Smartphones allerdings konkrete Anwendungsbeispiele vorzeigen – die zugehörigen Apps fehlen schlichtweg noch."
Sieht alles nach sehr alpha und beta Status mit Vulkan aus. Sehr viel Luft nach oben also.
Unter dem ausgereiften OpenGL API ist RDNA2 schon spitze.
y33H@
2022-02-15, 19:46:05
Ob effizienter ist nicht ganz klar, aber IHMO ist die Adreno schneller und braucht weniger Watt/fps.
fondness
2022-02-15, 19:52:15
Ob effizienter ist nicht ganz klar, aber IHMO ist die Adreno schneller und braucht weniger Watt/fps.
Welches Feature Set supported adreno? Oder ist das äpfel vs Birne.
y33H@
2022-02-15, 19:57:08
Welche Mobile Spiele nutzen denn Raytracing? ^^
robbitop
2022-02-15, 20:04:26
Was nicht genutzt wird verbraucht keine Energie. :)
y33H@
2022-02-15, 20:09:07
Ich sehe schon dass Argument, dass man Die Fläche für RT prinzipiell auch hätte anderweitig nutzen können, zB für eine weitere CU oder besser taktbare Transistoren ...
fondness
2022-02-15, 20:11:44
Welche Mobile Spiele nutzen denn Raytracing? ^^
Da geht's ja nicht nur um raytracing oder?
y33H@
2022-02-15, 20:15:23
Um was geht's denn dann? Lass dir doch nicht alles aus der Nase ziehen ...
Daredevil
2022-02-15, 23:03:06
Ich finde es schon beachtlich, das man eine Desktop Architektur soweit runter skalieren kann, aber offensichtlich ist es einfacher, von Smartphone/Mobile rauf zu skalieren, auch im Hinblick auf den Desktop Bereich, siehe die Apple Hardware.
Was soll das denn nun sein, als eine reine Techdemo?
Hoffentlich ist das ne Ecke günstiger, sonst hat es doch kaum Daseinsberechtigung.
Der_Korken
2022-02-15, 23:36:54
Ich las bisher etwas von 3 CUs und 550(!) Mhz. Das ist natürlich enttäuschend, wenn eine 15W APU mal eben 12 CUs bekommt und diese sicherlich auch 1500Mhz schaffen werden. Das ist mal eben knapp die 12fache Rohleistung. Wieviel verbraucht ein Smartphone SOC? 5W? Da hätten eigentlich deutlich über 1Ghz für die GPU drin sein müssen. Zumal bei so niedrigen Taktraten keine Effizienz mehr dazukommen dürfte, sondern nur noch Taktsenkung. Oder anders gesagt: Wenn das Teil eh nur mit 550Mhz läuft, hätte man auch 2CUs mit 825Mhz nehmen können.
bbott
2022-02-15, 23:59:50
Waren nicht 1,8 GHz geplant und die präsie verschoben worden, weil man "nur" ~1,5 GHz geschafft hat. Nun lese ich 555Mhz?! Was habe ich verpasst?
Adam D.
2022-02-16, 07:06:36
Waren nicht 1,8 GHz geplant und die präsie verschoben worden, weil man "nur" ~1,5 GHz geschafft hat. Nun lese ich 555Mhz?! Was habe ich verpasst?
Spätestens als Samsung das Exynos-Launch-"Event" kommentarlos abgesagt hat, war allen klar, dass bei der Entwicklung etwas extrem schief gegangen sein muss. Es gab ja sogar kurz das Gerücht, dass Samsung dieses Jahr komplett auf Exynos verzichtet.
Ich hoffe, dass wir bald mal noch ein paar Messungen zur Effizienz bekommen. Es schwirrt ja immer wieder die Nachricht rum, dass noch ein größeres Firmware-Update kommen soll. Vielleicht warten die Reviewer da drauf.
fondness
2022-02-16, 09:44:32
Um was geht's denn dann? Lass dir doch nicht alles aus der Nase ziehen ...
Das war eine Frage, ich kenne die Specs der mobile Architekturen nicht.
Eine weitere Frage: Selber Fertigungsprozess? Oder wird der RDNA2 SoC nicht bei Samsung gefertigt und Adreno bei TSMC? Das könnte nämlich einiges ausmachen.
Loeschzwerg
2022-02-16, 09:56:46
Beide SoCs sind Samsung 4nm EUV -> https://www.golem.de/news/exynos-2200-im-test-die-rdna2-grafik-schneidet-schwach-ab-2202-163191.html
y33H@
2022-02-16, 10:03:55
Das war eine Frage, ich kenne die Specs der mobile Architekturen nicht.Qualcomm ist da arg schweigsam, aber abseits von Raytracing sehe ich da jez keine größeren Unterschiede.
Troyan
2022-02-16, 10:42:47
Ich finde es schon beachtlich, das man eine Desktop Architektur soweit runter skalieren kann, aber offensichtlich ist es einfacher, von Smartphone/Mobile rauf zu skalieren, auch im Hinblick auf den Desktop Bereich, siehe die Apple Hardware.
Was soll das denn nun sein, als eine reine Techdemo?
Hoffentlich ist das ne Ecke günstiger, sonst hat es doch kaum Daseinsberechtigung.
nVidia Tegra K1 und X1 haben auch die Desktop-GPU verwendet. Lustigerweise wären die heute normale Smartphone-SoCs. :eek:
vinacis_vivids
2022-02-16, 11:02:11
Samsung bewertet die interne Kaufkraft der Europäer als eher mittel bis niedrig. Zahlenmäßig ist Europa mittlerweile auch sehr schwach im Vergleich zu China, Indien oder Südostasien.
Die zahlungsfähigen Käufer, also Männer ab 30 Jahren sind bereits mit Apple oder anderen Smartphones ausgestattet. Und kaum einer holt sich mehrere Smartphones. 80% der Jugend von heute in Europa haben doch gar keine Kohle mehr, wenn sie keine reichen Erben sind.
robbitop
2022-02-16, 11:31:25
Wobei die Tegras X1 und K1 keine smartphone SoCs waren sondern eher Tablet SoCs. Entsprechend mehr headroom haben sie. In der Switch sieht man, was mit den Taktraten passiert, wenn man die TDP limitiert und auf konsistente Taktraten bestanden wird.
fondness
2022-02-16, 12:19:18
Wobei die Tegras X1 und K1 keine smartphone SoCs waren sondern eher Tablet SoCs. Entsprechend mehr headroom haben sie. In der Switch sieht man, was mit den Taktraten passiert, wenn man die TDP limitiert und auf konsistente Taktraten bestanden wird.
Läuft die Switch nicht eh mit 15W? Bei einem Smartphone SoC reden wir eher von 5W.
robbitop
2022-02-16, 12:58:33
Nein. Der Akku hat nur 16 Wh und die alte 20 nm Revision hält damit 2,5h in Spielen durch. Inkl RAM, Display und allem. Sind also ~6,5 W für die ganze Konsole im Handheldmode. Entsprechend sollte man für den SoC deutlich drunter liegen. 2-3 W.
Ganon
2022-02-16, 13:26:40
Nein. Der Akku hat nur 16 Wh und die alte 20 nm Revision hält damit 2,5h in Spielen durch. Inkl RAM, Display und allem. Sind also ~6,5 W für die ganze Konsole im Handheldmode. Entsprechend sollte man für den SoC deutlich drunter liegen. 2-3 W.
Die 1st Gen Switch zieht bei mir ~10.5W im Handheld Modus aus der Steckdose, wenn Monster Hunter Rise aktiv ist. Akku voll. Bildschirm volle Helligkeit.
Savay
2022-02-16, 13:49:50
Eine weitere Frage: Selber Fertigungsprozess? Oder wird der RDNA2 SoC nicht bei Samsung gefertigt und Adreno bei TSMC? Das könnte nämlich einiges ausmachen.
Vielleicht liegt das Problem auch in umgekehrter Richtung!?
RDNA2 ist als Architektur bisher ja rein auf 7/6nm TSMC optimiert und hier das erste mal auf nem 4nm Samsung Prozess umgesetzt.
Kann man Designs einfach so auf nen anderen Prozess portieren?
Wenn man sich Van Gogh so ansieht sollte da rein von der Architektur m.E. ja mehr drin sein nach unten.
Dass das Feintuning auf nen Prozess viel ausmacht sieht man ja auch an RDNA vs RDNA2...kann ja sein das RDNA2@Samsung aktuell eher dem entspricht was RDNA1@TSMC dargestellt hat.
Und dann muss man es evtl. auch nochmal in Relation zu den Mali betrachten.
robbitop
2022-02-16, 15:48:32
Die 1st Gen Switch zieht bei mir ~10.5W im Handheld Modus aus der Steckdose, wenn Monster Hunter Rise aktiv ist. Akku voll. Bildschirm volle Helligkeit.
So kann man das nicht messen. Zu ungenau und zu anders.
Da kommt dann aber die Verluste des NTs dazu und dass der Akku zwischen der Stromversorgung des Boards und dem Netzteil liegt.
Displayhelligkeit hat auch einen großen Einfluss.
Frische Switch (Akku) und Laufzeit -> das ist the way to go. Meine hält eigentlich in jedem Spiel mindestens 2,5 h durch und die Reviews bestätigen das. Und das widerspricht obigen 10,5 W beim verbauten Akku eben. ;)
Troyan
2022-02-16, 15:54:23
Wobei die Tegras X1 und K1 keine smartphone SoCs waren sondern eher Tablet SoCs. Entsprechend mehr headroom haben sie. In der Switch sieht man, was mit den Taktraten passiert, wenn man die TDP limitiert und auf konsistente Taktraten bestanden wird.
Naja, X1 ist von 2015 auf 20nm. Wenn man überlegt, dass der Stromverbrauch in Smartphones heute schon bei 5W für die GPU liegt, wäre ein X1 von früher heute schon ein Smartphone-SoC.
Alleine der Shrink auf 16nmFF hat den Verbrauch fast halbiert...
robbitop
2022-02-16, 16:06:30
Naja, X1 ist von 2015 auf 20nm. Wenn man überlegt, dass der Stromverbrauch in Smartphones heute schon bei 5W für die GPU liegt, wäre ein X1 von früher heute schon ein Smartphone-SoC.
Alleine der Shrink auf 16nmFF hat den Verbrauch fast halbiert...
Hätte hätte Fahrradkette. Der Shrink kam nie für Smartphones und war auch erst 2019 auf dem Markt (Switch und ShieldTV).
Die Frage ist, wie er sich in 16 nm einem Smartphone mit sustained clocks gegen Adreno im Snapdrahon 820 und Apples GPU im A10 geschlagen hätte.
Die Shield kann man dafür nicht nehmen, weil der SoC dort laufen gelassen wird.
vinacis_vivids
2022-02-16, 16:37:52
Kann man Designs einfach so auf nen anderen Prozess portieren?
Samsung kauft und bekommt die spezifischen Floorplans von AMD, muss aber das in der eigenen Foundry selber umsetzen und optimieren für das spezifische SoC.
Der SoC allein ist nur die halbe Miete. Die Optimierung und die Software dazu ist die andere Hälfte. Da wird Samsung noch viel zu tun haben um auf ein Level zu kommen wie Sony bei der PS5 auf Konsolenebene (falls überhaupt)
Ich glaube, dass da noch Umsetzungsqualität bzw. Zeit bei Vulkan und Android fehlt. Die Hardwarebasis ist allerdings hervorragend weil das featureset mit VRS, Int8, RT besser ist als bei Apple M15.
Solche Software (Vulkan, Android, RT, VRS) zu entwickeln ist heutzutage schwierig, weil es nicht genügend Leute gibt, die sowas können. Südkorea ist überaltert und da fehlt es an Nachwuchs.
y33H@
2022-02-16, 16:47:23
Samsung kauft Floorplans von AMD? :ugly:
Ganon
2022-02-16, 16:48:28
Frische Switch (Akku) und Laufzeit -> das ist the way to go. Meine hält eigentlich in jedem Spiel mindestens 2,5 h durch und die Reviews bestätigen das. Und das widerspricht obigen 10,5 W beim verbauten Akku eben. ;)
Ist jetzt auch der falsche Thread das zu besprechen, aber gerade bei Monster Hunter Rise ist die Laufzeit der 1st Gen Switch eher unter 2h.
vinacis_vivids
2022-02-16, 17:19:28
Samsung kauft Floorplans von AMD? :ugly:
Ja, von wem den sonst?
AMD kreiert in jeder Strukturgröße die Floorplans, vor allem für RDNA2 uArch.
Der Job nennt sich "GFX Design Engineer" - Kannst dich ja mal dort bewerben.
Für den GFX-Teil des Samsung Exynos-SoCs , die ja offensichtlich mit RDNA2 uArch beworben wird, ist AMD zuständig.
Samsung kann die dann ja fertigen wie man sieht.
robbitop
2022-02-16, 18:03:47
Ist jetzt auch der falsche Thread das zu besprechen, aber gerade bei Monster Hunter Rise ist die Laufzeit der 1st Gen Switch eher unter 2h.
Kann ich nicht gegentesten - aber ob ein Extremfall jetzt repräsentativ sein muss, sehe ich eher nicht.
robbitop
2022-02-16, 18:05:20
Ja, von wem den sonst?
AMD kreiert in jeder Strukturgröße die Floorplans, vor allem für RDNA2 uArch.
Der Job nennt sich "GFX Design Engineer" - Kannst dich ja mal dort bewerben.
Für den GFX-Teil des Samsung Exynos-SoCs , die ja offensichtlich mit RDNA2 uArch beworben wird, ist AMD zuständig.
Samsung kann die dann ja fertigen wie man sieht.
Ich glaube eher, dass es IP Blocks als Verilog Code gibt und Samsung sich um die Implementierung kümmert.
=Floi=
2022-02-16, 19:40:15
Naja, X1 ist von 2015 auf 20nm. Wenn man überlegt, dass der Stromverbrauch in Smartphones heute schon bei 5W für die GPU liegt, wäre ein X1 von früher heute schon ein Smartphone-SoC.
Alleine der Shrink auf 16nmFF hat den Verbrauch fast halbiert...
Du kannst nur leider die cpu nicht mit vergleichen! Da braucht eine moderne CPU einfach mehr und leistet dafür auch ordentlich mehr.
Bin auf weitere fakten zum sansung chip gespannt. Das ganze ist aber schon arg bitter. Auf der anderen seite ist es für quallcomm ein lob. So wusste man ja auch nie, wie gut sie denn sind und man sah alle nur gegen apple abstinken. So zeit QQ aber gute leistung.
robbitop
2022-02-16, 19:57:23
Naja die Leistung in Relation zu ARMs Mali Lösung war auch bekannt.
basix
2022-02-16, 20:49:47
Ich glaube eher, dass es IP Blocks als Verilog Code gibt und Samsung sich um die Implementierung kümmert.
Verilog alleine reicht vermutlich nicht ganz. Man muss prozessabhängig ja noch einige Parameter definieren (Transistortypen, Delays, ...). Und gerade bei diesen Dingen benötigt man viel Domain-Know How, was nur AMD liefern kann. Ich denke eher, dass AMD die IP für Samsungs-Prozess portiert hat und dann entsprechend geliefert hat (als IP-Block). Und als Verilog Code wäre es zudem noch anfällig auf IP-Klau.
Floorplan ist hier aber auch deutlich zu einfach gestrickt ;) Man muss das eher wie andere IP-Blöcke sehen. Siehe z.B. IP von Cadence, welche auf jeweilige Zielprozesse zugeschnitten sind.
Ailuros
2022-02-21, 06:22:21
Verilog alleine reicht vermutlich nicht ganz. Man muss prozessabhängig ja noch einige Parameter definieren (Transistortypen, Delays, ...). Und gerade bei diesen Dingen benötigt man viel Domain-Know How, was nur AMD liefern kann. Ich denke eher, dass AMD die IP für Samsungs-Prozess portiert hat und dann entsprechend geliefert hat (als IP-Block). Und als Verilog Code wäre es zudem noch anfällig auf IP-Klau.
Floorplan ist hier aber auch deutlich zu einfach gestrickt ;) Man muss das eher wie andere IP-Blöcke sehen. Siehe z.B. IP von Cadence, welche auf jeweilige Zielprozesse zugeschnitten sind.
Gehoert zwar in einen anderen thread aber ich bin gerade beim lesen:
https://www.anandtech.com/show/17253/anandtech-interview-with-miguel-nunes-senior-director-for-pcs-qualcomm
It's a good question, because I know everyone thinks ‘Nuvia chip’. It requires a lot more of a chip than what Nuvia had [when we acquired them]. They were mainly the CPU core at the time. There is a fabric around that as usual that glues it together, with our optimized memory IP and stuff around that. So think of it more on the CPU performance subsystem. On the GPU, we've got the GPU assets in Adreno. We're [going to be] making a lot of changes there too. On the GPU side we’ll be making it more PC friendly, and then we are scaling the other stuff such as AI, and other things like that too. Nuvia is part of the solution, but there's other stuff there of course.
Samung's originale Ankuendigung sprach von einer gemeinsamen Entwicklung von AMD & Samsung fuer den GPU block. Es ist eben nicht so dass AMD alles fertig an Samsung liefert und die dann das Resultat regelrecht einfach nur in den SoC wie einen Legostein reinknuepfen.
Hätte hätte Fahrradkette. Der Shrink kam nie für Smartphones und war auch erst 2019 auf dem Markt (Switch und ShieldTV).
Die Frage ist, wie er sich in 16 nm einem Smartphone mit sustained clocks gegen Adreno im Snapdrahon 820 und Apples GPU im A10 geschlagen hätte.
Die Shield kann man dafür nicht nehmen, weil der SoC dort laufen gelassen wird.
X1 wurde nie fuer ein smartphone entwickelt. Haette danach NV fuer einen smartphone SoC geplant dann erstmal mit GPU IP die dafuer angepasst waere und dann zeitlich wohl eher etwas aus der Ampere Familie. Keine GPU spezifischen Anpassungen zeigen eben gerade beim neuesten Exynos mit AMD GPU IP dass man mit stark reduzierter Frequenz zwar sehr wohl konkurrenzfaehig sein kann, aber eben doch keine Bruecken so einfach sprengen kann. Fuer mobile ULP SoCs bleibt das alpha und omega der Stromverbrauch; reduziert man sehr stark die Frequenz fuer einen konkurrenzfaehigen Stromverbrauch, leidet demzufolge dann auch die Leistung. Da QCOM von Grund auf ihre Adreno GPU IP fuer smartphones entwickelt (und diese sind uebrigens heutzutage DX12), haben sie momentan fuer die Android Welt die beste Balance fuer alles PPAB (power-performance-area-bandwidth). Macht man sich die Muehe und liest das oben verlinkte interview durch steht klipp und klar drin dass fuer low end laptop designs ab 2023 auch die GPU IP angepasst wird, was wohl dafuer steht dass QCOM eben NICHT nur einfach mehr clusters oder hoehere Frequenzen bzw. beides verwenden wird. Ein echter M1 Konkurrent kann eben NICHT nur so einfach ein breiterer smartphone SoC sein, sondern eben eine komplette Weiterentwicklung auf der Basis vom A15 auf M1. (***edit: ich wuerde mich ubrigens nie zu einem direkten Vergleich wagen fuer zukuenftige low end laptop SoC GPUs, so lange Apple immer noch auf DX10 Niveau liegt; man koennte zwar Leistung bzw. auch Bandbreite vergleichen aber area und Stromverbrauch dann eben nicht mehr...)
Es wundert mich zwar nicht dass viele glauben dass so manches in der SoC nur so um Handumdrehen geht, schnell, sauber und einfach, aber die Realitaet sieht dann schon anders aus.
Am Ende will ich hoffen dass auch Samsung aehnliche low end laptop Plaene hat wie QCOM, egal wenn sie z.B. um eine Generation spaeter als die letzten damit ankommen. Mir macht die AMD CPU IP Lizenz sonst keinen besonderen Sinn mehr. Der Grund ist einfach: ich bekomm wohl eher einen Lachkrampf bevor das Mali team und auch Imagination ohne sehenswert zusaetzliche resources es je schafft anstaendige windows Treiber zu liefern.
Ailuros
2022-03-10, 13:07:23
https://www.androidauthority.com/snapdragon-8-gen-1-vs-exynos-2200-3122407/?fbclid=IwAR0n0Zn2RI8mCpPX67X7d_iyf915SMpavdVd7znLDRcSwrakqmRfgN5wIyo
Platos
2022-03-10, 14:46:15
Naja, Benchmarkzahlen sind eine Sache und Energieverbrauch die andere.
Thunder99
2022-03-10, 15:23:25
Ich für mein Teil begrüße es die Wahl zu haben volle Geschwindigkeit oder ausbalanciertes System. Wenn also eine App in 0.2sec bei 3GHz öffnet bei 3W oder in 0.2sec bei 2.6Ghz bei 2.5W ist letzteres zu bevorzugen.
Die Argumentation bei voller Geschwindigkeit Garantie zu verlieren kann ich nicht folgen. Ein SoC sollte immer rechtzeitig drosseln bevor er Schaden nimmt
mboeller
2022-04-27, 15:25:45
Locuza hat den Exynos 2200 untersucht. Der X2 ist IMHO ganz schön groß im Vergleich zu den A710.
https://mobile.twitter.com/Locuza_/status/1519145906884554753
https://pbs.twimg.com/media/FRUVQ1UXMAI_cX3?format=jpg
vinacis_vivids
2022-04-27, 16:30:54
Hardwaremäßig ist das Ding schon geil. Nur die Software und Optimierung dauert eine Weile, weil Samsung keine/wenig Erfahrungen mit RDNA2 hat.
Ailuros
2022-04-27, 16:40:47
Locuza hat den Exynos 2200 untersucht. Der X2 ist IMHO ganz schön groß im Vergleich zu den A710.
https://mobile.twitter.com/Locuza_/status/1519145906884554753
https://pbs.twimg.com/media/FRUVQ1UXMAI_cX3?format=jpg
Gross im Vergleich zu was? Apple SoC GPUs? :freak:
Bis zu 1/3 (GPU) des SoC die estates ist stinknormal fuer einen high end ULP SoC. Ausser Du hast vergangene Exynos SoCs mit Mali GPU IP verpasst, die aber auch einige Meilen von DX12 und sogar DX11 in hw liegen.
basix
2022-04-28, 10:23:42
Man hat zumindest die 1.306 GHz Takt noch halten wollen: 1 TFLOPs bei der GPU ;)
Ailuros
2022-04-28, 12:55:47
Man hat zumindest die 1.306 GHz Takt noch halten wollen: 1 TFLOPs bei der GPU ;)
Mit unendlichen FLOPs kann auch QCOM's zeitige GPU herumschmeissen auf Papier; heisst aber trotz nicht dass die AMD GPU deutlich effizienter als die vorige ist und schon gar nicht universal schneller.
smalM
2022-05-24, 15:01:04
Samsung Dream Team: Bis 2025 ein neuer High-End-SoC, vorher kein Exynos mehr (https://www.computerbase.de/2022-05/samsung-dream-team-bis-2025-ein-neuer-high-end-soc-vorher-kein-exynos-mehr/)
Thunder99
2022-05-24, 15:20:55
Verdammt, wollte das Grad Posten :D
Was hat das für Auswirkungen auf die aktuellen supporten Geräte also 990/2100/2200 und auch die kleinen Modellen?
Wird da noch weiter Support geliefert in der gleichen Qualität und Menge?
ChaosTM
2022-05-25, 10:25:19
Klingt auf jeden fall interessant. M1+ Effizienz unter Android oder Windows wäre begrüßenswert.
Den Thread im mobile Forum kann man zu machen - hab den hier übersehen.
add.: das neu Sys ist zwar kein Exynos, passt hier aber trotzdem gut rein. Soll Exynos ja vollständig ersetzten wenn ich das richtig verstanden hab.
mboeller
2022-05-25, 10:51:55
Es gibt ein Thread im Spekulations-Forum.
Ein Neustart, da die m KERNE nicht besser waren und ansonsten die halb Eigenen SoC nicht optimal sind für die Fertigung.
Freue mich darauf, was sie entwickeln und ob es wirklich Mal klappt besser zu werden (in allen Belangen) als Qualcomm/Mediathek und Apple
und wie soll das gehen?
Samsung hat bereits ziemlich viele Ressourcen und Zeit in die M-Cores investiert. Das Resultat ist nicht gerade gut (nett formuliert). Die normalen ARM-Cores von ARM sind bisher immer besser, schneller und sparsamer gewesen.
Und jetzt will Samsung in 2-2,5 Jahren neue Kerne entwickeln, die dann ARM übertreffen.
Nö, ich denke nicht.
Ich denke das ganze ist nur ein 3 jähriges "PR-Monster" um die Massen in Korea zu befriedigen die sich über die gedrosselten Samsung-Handys massiv aufgeregt haben.
robbitop
2022-05-25, 10:58:19
Die Frage ist, was sie diesmal anders machen wollen als das was sie mit den M Cores gemacht haben. Die wurden am Ende zwar super breit aber auch sehr durstig und trotzdem nicht extrem schnell.
smalM
2022-05-25, 12:03:49
Wir haben immer nur die Kombination aus Core-Eigenentwicklung und Samsung-Foundry gesehen.
Man kann nur spekulieren, wie sich ein M6 in N5 statt 5LPE wohl geschlagen hätte.
Ich sehe die Hauptschwierigkeit deshalb auch nicht unbedingt in der Core-Entwicklung, sondern daß höchstwahrscheinlich Samsung-Foundry zwingend die Herstellung übernehmen muß, egal ob und wie weit der aktuelle Mobil-Prozeß dem von TSMC hinterherhinkt.
mboeller
2022-05-25, 12:50:52
ich sehe das Problem schon in der Core-Entwicklung.
Qualcomm hat Nuvia gekauft, um hier besser zu werden, da sie intern auch nicht die richtigen Ideen od. Mitarbeiter gehabt haben.
Wenn Qualcomm/Nuvia die gesteckten Ziele erreichen sollte dann liegt Samsung wieder sehr weit zurück, selbst wenn ihre Cores mit ARM selbst mithalten können.
Ailuros
2022-05-25, 13:58:53
Ich weiss wirklich nicht was ich mir darunter vorstellen soll. Samsung entwickelt genau was? Eine neue custom CPU auf ARM basierend? Eine neue custom GPU zu 100% intern entwickelt?
Kein Wunder fast jeder Leser kratzt sich hier den Kopf wenn man den newsblurb liest denn entwicklungsmaessig hat Samsung in den letzten Jahren fuer SoC nur Mist entwickelt (wenn's schon keiner sagen will bin ich eben so frech....) sowohl fuer CPUs als auch fuer GPUs (jegliche vorige eingestampfte hw GPU Entwicklung).
Zwischendrin wedelten sie kunterbunt mit AMD GPU IP welches auch keinen Baum ausgerissen hat und jetzt wollen sie 2 Jahre eine Pause machen um in 2025 mit Apple direkter zu konkurrieren auf der hw SoC front? :freak: Moment mich juckt der Schaedel auch mal wieder.
Ich weiss zwar nicht was genau im obrigen management von Samsung's unendlichen Abteilungen vorgeht, aber mir klingt das Ganze nach einem miserablen buerokratischen Schlammasel. Anstatt mit resources und hunderten von engineers zwecklos nur so herumzuschmeissen, waere es vielleicht angebrachter die eher massiven Kosten dafuer woanders einzusetzen.
Samsung setzt schon seit Jahren fuer seine high end SoC zu einem grossen Anteil je nach Region auch auf QCOM SoCs neben ihren eigen entwickelten Exynos Tieren und ich kann mich nicht an einen einzigen Fall erinnern wo ein Exynos SoC gegen QCOM's ebenbuertigen SoC einen sehenswerten Vorteil hatte.
Falls es sich hier um eine Antwort fuer QCOM's ersten SoC auch fuer low end laptops ab 2023 handeln sollte, lass ich mich gerne angenehm ueberraschen dass es Samsung selbst nach ganzen 2 Jahren spaeter zu etwas besserem schafft.
vinacis_vivids
2022-05-25, 14:13:54
Samsung soll doch mal ordentlich an den aktuellen Exynos-SOC mit der RDNA2-uArch arbeiten. Die Arbeit mit der neuen GPU-uArch ist da doch erstmal anspruchsvoll genug.
Ailuros
2022-05-25, 14:27:57
Samsung soll doch mal ordentlich an den aktuellen Exynos-SOC mit der RDNA2-uArch arbeiten. Die Arbeit mit der neuen GPU-uArch ist da doch erstmal anspruchsvoll genug.
Arbeiten steht hier fuer was genau? Die GPU IP umkrempeln dass sie um N% effizienter wird? Wenn Samsung das engineering Talent dafuer haette, haetten sie auch gleich schon seit einem Jahrzehnt eine anstaendige eigene GPU entwickelt. Fuer ULP SoC GPUs haben sie bis heute zwei eigene Versuche komplett eingestampft.
vinacis_vivids
2022-05-25, 15:13:41
Arbeiten steht für die RDNA2-uArch in Sinne der Effizienz und Leistung ausschöpfen. Dazu gehört bspw. VRS, FSR 1.0 und Vulkan Treiber etc. + Speichermanagement, Energieverwaltung CPU-GPU Verhältnis. Als Krönung vllt. noch Ray-Tracing.
Man kann doch nicht ne geile GPU-uArch sich zukaufen, alles brach liegen lassen, die alten libary rüberkopieren und denken dass sich alles von alleine bewegt. Auch Apple musste sich lange GPUs uArch von AMD hinzukaufen.
ChaosTM
2022-05-25, 15:15:38
Samsung is investing $356 billion in chips, biotech and AI (https://www.engadget.com/samsung-investment-plan-chips-semiconductors-biotech-ai-155839226.html)
Auf jeden Fall rüstet man bis 2026 massiv auf. Wie viel davon für ARM Entwicklung über bleibt kann natürlich niemand sagen.
Ailuros
2022-05-25, 15:55:25
Arbeiten steht für die RDNA2-uArch in Sinne der Effizienz und Leistung ausschöpfen. Dazu gehört bspw. VRS, FSR 1.0 und Vulkan Treiber etc. + Speichermanagement, Energieverwaltung CPU-GPU Verhältnis. Als Krönung vllt. noch Ray-Tracing.
Und wer sagt dass die zeitige XCLipse 920 noch N% an Effizienz bzw. Leistung flach liegen hat? Ueber RT ist die GPU sowieso faehig.
Man kann doch nicht ne geile GPU-uArch sich zukaufen, alles brach liegen lassen, die alten libary rüberkopieren und denken dass sich alles von alleine bewegt. Auch Apple musste sich lange GPUs uArch von AMD hinzukaufen.
Apple benutzt eine Architektur-Lizenz von Imagination wobei sie die ALUs ihren Noeten fast total umgekrempelt haben. AMD hatte nie etwas mit ULP SoCs zu tun. Sonst leistet die XCLipse 920 GPU im letzten Exynos etwa so viel oder manchmal etwas weniger als eine Adreno650 GPU von QCOM welche zeitlich die schnellste GPU fuer Android SoCs ist. AMD kocht auch nur mit Wasser und es gibt Konstanten im ULP SoC wie der Stromverbrauch der eben nicht alles so leicht macht wie man es sich vorstellen wuerde.
Was Apple mit ihrer eigenen Bude und ihrem eigenen OS anstellt ist eine total andere Geschichte, denn zumindest dort hat ein Entwickler nicht konstant Angst dass ihm der GPU Treiber wie unter Android ins Gesicht knallt.
Insgesamt hat Samsung ihre eigen entwickelte GPU die fuer den Exynos 2200 anfangs projeziert war wohl eingestampft weil sie wohl gegen AMD's GPU IP ziemlich schlecht schlagen konnte. Wenn Samsung vorhat auch weiterhin auf AMD GPU IP zu setzen schoen und gut; falls sie aber wieder vorhaben selber GPUs zu entwickeln....*kopfklatsch*
Zossel
2022-05-25, 16:09:36
Was Apple mit ihrer eigenen Bude und ihrem eigenen OS anstellt ist eine total andere Geschichte, denn zumindest dort hat ein Entwickler nicht konstant Angst dass ihm der GPU Treiber wie unter Android ins Gesicht knallt.
Kannst du die Aussage von diesen Satz noch etwas ausführlicher und nachvollziehbarer erläutern.
smalM
2022-05-25, 20:20:44
Samsung is investing $356 billion in chips, biotech and AI (https://www.engadget.com/samsung-investment-plan-chips-semiconductors-biotech-ai-155839226.html)
Auf jeden Fall rüstet man bis 2026 massiv auf. Wie viel davon für ARM Entwicklung über bleibt kann natürlich niemand sagen.
Du weißt schon, daß sich das auf alles, was sich irgendwie Samsung Nochwas schimpft, bezieht?
Es ist eine dieser typischen Samsung-Propagandameldungen, die den Leuten die Idee vom gigantischen Samsungkonzern in den Köpfen verankern soll.
"The Samsung Electronics division will use the funding to bolster its chip design and manufacturing process, according to The Korea Herald."
Samsung Electronics ist keine Abteilung von irgendwas, sondern ein eigenständiger Konzern; da ist nichts mit "Funding", die müssen ihre Investitionssummen ganz alleine aufbringen...
Ailuros
2022-05-27, 12:12:30
Kannst du die Aussage von diesen Satz noch etwas ausführlicher und nachvollziehbarer erläutern.
Der gravierende Vorteil fuer Apple ihr eigenes OS zu entwickeln ist dass sich die GPU bzw. deren Treiber in der Mehrzahl der Faelle so verhaelt wie man erwarten wuerde.
Hingegeben bei Android gibt es eine Unzahl von OS-Anpassungen und hw Implementierungen wo der sw Entwickler eher beten muss dass sich der GPU Treiber so verhaelt wie man erwarten wuerde.
vinacis_vivids
2022-10-28, 22:08:54
More Exynos SoCs with AMD RDNA GPUs possibly in the works as Samsung confirms continued collaboration with AMD
https://www.notebookcheck.net/More-Exynos-SoCs-with-AMD-RDNA-GPUs-possibly-in-the-works-as-Samsung-confirms-continued-collaboration-with-AMD.643026.0.html
Samsung weiter mit AMD-GPU in Smartphone-Chips - nur welchen?
https://winfuture.de/news,131512.html
Samsung findet langsam Freude an AMD RDNA GPUs :tongue:
MSABK
2022-10-28, 22:38:41
Was bringt es? Sehe da irgendwie keinen Nutzen. Windows ob ARM wäre ja was, aber da bewegt sich auch nichts.
vinacis_vivids
2022-10-28, 23:26:02
Samsung Galaxy S22 Ultra Vergleich: Snapdragon vs. Exynos
https://www.allround-pc.com/artikel/2022/samsung-galaxy-s22-ultra-vergleich-snapdragon-vs-exynos
https://abload.de/img/2022-10-2822_58_11-sahli3k.png
Die europäische Version mit RDNA2 ist zumindest mit den Updates besser geworden. Das ist schonmal ein kleiner Fortschritt im hart umkämpften Smartfone-SoC Markt.
Für mich isses interessant wie die RDNA2 uArch sich im SoC-Bereich so macht. Außerdem liegt Ray-Tracing noch (fast) komplett brach bei Smartfones
fondness
2022-10-29, 09:29:52
Samsung Galaxy S22 Ultra Vergleich: Snapdragon vs. Exynos
https://www.allround-pc.com/artikel/2022/samsung-galaxy-s22-ultra-vergleich-snapdragon-vs-exynos
https://abload.de/img/2022-10-2822_58_11-sahli3k.png
Die europäische Version mit RDNA2 ist zumindest mit den Updates besser geworden. Das ist schonmal ein kleiner Fortschritt im hart umkämpften Smartfone-SoC Markt.
Für mich isses interessant wie die RDNA2 uArch sich im SoC-Bereich so macht. Außerdem liegt Ray-Tracing noch (fast) komplett brach bei Smartfones
Der Vergleich ist ohnehin nicht ganz fair, da der tsmc Prozess mit Sicherheit deutlich besser ist.
basix
2022-10-30, 11:38:57
Ich habe die Hoffnung, dass RDNA3 deutlich besser wegkommt. Wenn N33 wirklich deutlich energieffizienter ist, trotz "nur" N6, wäre das ein entsprechendes Indiz.
Nightspider
2022-10-30, 12:02:18
Plant denn Samsung in Zukunft weiter auf AMD Architektur zu setzen?
vinacis_vivids
2022-10-30, 12:28:35
Meet the GPU · ISP Development Leaders
https://news.samsung.com/global/all-about-exynos-1-meet-the-gpu-isp-development-leaders
“We plan to continue to implement other features in the RDNA series by working closely with AMD going forward.”
Der Wissenstransfer von AMD zu Samsung ist doch komplex, weil das Design für SoC anders ist als auf dem Desktop und Konsole.
Ray-Tracing Exynos GPU
https://abload.de/img/exynos_gpu_isp_main9fi8fjy.jpg
https://abload.de/img/exynos_gpu_isp_main10lcdg3.jpg
Derzeit ist Samsung was die Fertigung angeht, ca. 2-3 Jahre hinter TSMC.
Zossel
2022-10-30, 16:45:15
Plant denn Samsung in Zukunft weiter auf AMD Architektur zu setzen?
Mit dem neuen Gefängnis vom ARM wird das schwieriger.
Lurtz
2022-11-04, 14:41:07
Gerüchte behaupten Samsung würde (bei Flagships) komplett auf Snapdragons umsteigen, weil Exynos gegen Snapdragon 8 Gen 2 kein Land sieht was Leistung und Effizienz angeht.
Was Google mit dem Tensor macht, wenn man nicht mehr auf Exynos aufbauen kann?
vinacis_vivids
2022-11-04, 14:55:19
Samsung Galaxy S23: Smartphones wohl weltweit mit Qualcomm Snapdragon 8 Gen 2
https://www.hartware.de/2022/11/04/samsung-galaxy-s23-smartphones-wohl-weltweit-mit-qualcomm-snapdragon-8-gen-2/
"Es gibt schon eine Weile Gerüchte, laut denen die Samsung Galaxy S23, die Smartphone-Flaggschiffe des Jahres 2023, ausschließlich auf Qualcomm Snapdragon als SoCs setzen sollen. Bisher fuhr Samsung da zweigleisig: In den USA erschienen die Galaxy S stets mit Snapdragon-Chips, in Europa wiederum traditionell mit Samsungs hauseigenen Exynos-SoCs. 2023 könnte diese Strategie ein Ende finden. Darauf deuten nun handfester einige Aussagen von Qualcomm hin."
"Es heißt, dass der eigentlich für die S23 angedachte Exynos 2300 in der Leistung zu stark hinter den Qualcomm Snapdragon 8 Gen 2 zurückfalle. Derzeit hat sich Samsung aber noch nicht zu der Lage geäußert und somit sollte man die neuen Angaben immer noch mit etwas Vorsicht genießen. Denkbar ist immer noch, dass Samsung beispielsweise vielleicht die S23+ und S23 Ultra international mit dem Qualcomm Snapdragon 8 Gen 2 ausstattet, das reguläre Samsung Galaxy S23 aber doch mit einem Exynos bestückt."
Spaltung des Portfolios in Highend Snapdragon 8 Gen 2 und regulärer Exynos RDNA2.
Ich denke Samsung wird bei RDNA2 bleiben. Die haben doch erst die GPU-IP von AMD gekauft und die Verkäufe sind ja in Ordnung in Europa nehme ich mal an.
vinacis_vivids
2023-01-26, 08:56:51
Samsung S22 Ultra / AMD Exynos 2200 im Ray-Tracing Benchmark
https://www.computerbase.de/2023-01/basemark-gpuscore-in-vitro-der-erste-raytracing-benchmark-fuer-android-smartphones/
RDNA2 ist deutlich stärker als Snapdragon 8 gen. 2.
readonly
2023-01-26, 09:26:11
Leider wirklich völlig ohne Relevanz. Auch wenn ich selbst ein S22 Ultra habe.
Aber für alltägliche Aufgaben ist die Performance wirklich gut genug. Letztens noch ein 22gb Video 4k/60fps rumgeschnippelt. Kann man mit arbeiten für ein Mobiltelefon. Ansonsten geht alles im Prinzip sofort.
Auch mein S20 war schnell genug. Performance ist für mich kein Grund mehr zu wechseln.
SentinelBorg
2023-01-26, 15:52:55
Gut vorstellbar, aber das ist ja nicht das Ende von Exynos. In der Vergangenheit hat die Handy Sparte schon einmal eine Generation übersprungen und da nur QC verwendet (Galaxy S5). Genauso aber auch umgekehrt gab es auch eine Generation nur mit Exynos (S6/Note5), in den USA dann mit QC Modem.
vinacis_vivids
2023-01-26, 17:07:20
Wir sehen hier übrigens diese Duell:
AMD Xclipse 920 RDNA 2 vs IMG PowerVR CXT-GPU
Die TSMC 4nm Fertigung spricht für PowerVR CXT-GPU, aber RDNA2 ist in Ray-Tracing vorne selbst mit schlechterer Samsung 4nm Fertigung. Das spricht eher für RDNA2.
Die CXT-GPU wird ja mit 1536 FLOPs/clk fp32 angegeben. Xclipse 920 hat ja 3 RDNA2 CUs bzw. 192SP.
@readonly
bekommst du heraus wie hoch die GPU innerhalb der APU taktet?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.