PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Samsung Exynos-SoCs


Seiten : 1 [2] 3 4

iFanatiker
2014-09-19, 11:32:27
Beide 20nm SoCs sind bisher auch nur für Korea verfügbar oder? Mag sein, dass man noch zu wenig 20nm Kapazitäten hat.

Ne, der 5430 wird auch in der EU Version des Samsung Galaxy Alpha eingesetzt. Der wird auch in 20nm gefertigt. Glaube nur in Nordamerika wird im Alpha der Snapdragon 805 eingesetzt. Das hat aber eher mit der sehr heiklen Patentsituation zwischen Qualcom und Samsung zu tun IMHO. Nach den Reviews des Alphas scheint auch der 20nm Prozess von Samsung auch recht gut zu sein wie es scheint.

Interessant ist eben:

ist die Ausbeute von 20nm so schlecht oder ist eben der 64 Bit Modus nicht lauffähig. Wobei man Ausbeute hier auch relativieren sollte: eher konnte Samsung LSI genügend 5433 für einen weltweiten Einsatz des SoC liefern. Weil in dem Fall könnte ich das Stillschweigen von Samsung verstehen und dann gehe ich davon aus, dass der 5433 auch nie 64 Bit erleben wird -> der Shitstorm der S805 Käufer wäre überwältigend. :biggrin:

In jedem Fall dürfte dann der Exynos 7 für das S6 recht gut werden. Der wird ja eine Revamped Variante des 5433 werden mit paar Optimierungen, höheren Taktraten usw.

Ailuros
2014-09-19, 11:35:47
Ich weiss zwar nicht was mit dem 5430 los ist um ehrlich zu sein, aber es waere wiederrum eher ein Wunder wenn Samsung LSI etwas Neues auf Anhieb richtig integrieren wuerde :freak:

iFanatiker
2014-09-19, 11:39:09
Ich weiss zwar nicht was mit dem 5430 los ist um ehrlich zu sein, aber es waere wiederrum eher ein Wunder wenn Samsung LSI etwas Neues auf Anhieb richtig integrieren wuerde :freak:

Ja, ich bin auch erstaunt und überwältigt. Deswegen bin ich ja so skeptisch wieso Samsung nicht damit hausieren geht. Im Prinzip sind sie der erste mit A-A-57 und Mali 760MP auf den Markt.


Ich hoffe wir finden raus warum sie geizig mit dem Speichertakt sind.

Na...weil ARM das Mali Design wirklich extrem stark optimiert hat und es nun viel viel weniger Bandbreite benötigt und damit auch den größten Kritik Punkt gegenüber den anderen IPs behoben.

Zum Bleistift:

http://www.arm.com/products/multimedia/mali-technologies/transaction-elimination.php

Ich nehme mal einfach, dass es anscheinend gewirkt hat. Daneben wollte vermutlich Samsung die Diskrepanz zwischen den 5433 und S805 Versionen nicht zu groß werden lassen. Beim 7xxx wird es dann wieder bisschen breiter.

Ailuros
2014-09-19, 11:56:55
Ja, ich bin auch erstaunt und überwältigt. Deswegen bin ich ja so skeptisch wieso Samsung nicht damit hausieren geht. Im Prinzip sind sie der erste mit A-A-57 und Mali 760MP auf den Markt.

Rockchip hat den T760 schon seit einer Ewigkeit im RK3288 implementiert; es gibt schon seit Monaten tablets damit. Sonst stimmt der CPU Anteil vom obrigen dann schon.

Na...weil ARM das Mali Design wirklich extrem stark optimiert hat und es nun viel viel weniger Bandbreite benötigt und damit auch den größten Kritik Punkt gegenüber den anderen IPs behoben.

Zum Bleistift:

http://www.arm.com/products/multimedia/mali-technologies/transaction-elimination.php

ROFL den Marketing-Lutschbonbon kannst Du vergessen. Es klingt nach einer "Innovation" aber hinter dem kunterbunten Namen steckt wohl nichts was andere GPUs nicht machen.

Ich nehme mal einfach, dass es anscheinend gewirkt hat. Daneben wollte vermutlich Samsung die Diskrepanz zwischen den 5433 und S805 Versionen nicht zu groß werden lassen. Beim 7xxx wird es dann wieder bisschen breiter.

Muss der Grund sein weil der Exynos 7420 (64bit) dann mit einem LPDDR4 controller wohl ankommt :rolleyes:

Sonst lies mal was Nebu zum Thema 5430 zu sagen hat:

http://forum.beyond3d.com/showpost.php?p=1874420&postcount=859

I'm talking about driver implementation and interoperability. They did the absolute minimum in terms of drivers to make it work; the whole CPUFreq layer is identical and even treats it as a CA15/CA7 part. All the auxilliary IP block drivers are 32-bit, the device tree is exposed as ARMv7. The platform that is being pushed to mainline right now / Exynos 7 is a pure ARM64 implementation. I'll try to investigate more once I have the device, but I really doubt you'll ever see this thing running in AArch64.

Plus Samsung macht keinerlei Wirbel darum; klingt mir eher nach einer weiteren abgevoegelten Implementierung aber ich warte lieber Nebu's weitere Daten darueber ab.

iFanatiker
2014-09-19, 12:09:32
Rockchip hat den T760 schon seit einer Ewigkeit im RK3288 implementiert; es gibt schon seit Monaten tablets damit. Sonst stimmt der CPU Anteil vom obrigen dann schon.

Mir ging ja um das Gesamtpaket aus 4xA-53/4XA-57 und eben T760 in einen SoC. Das ist schon was anderes als eben der RK3288.

Ich bin ja auch total bei dir. War ja auch sehr skeptisch wieso Samsung dies nicht ausschlachtet. Alleine für LSI wäre dies schon ziemlich gute PR.


ROFL den Marketing-Lutschbonbon kannst Du vergessen. Es klingt nach einer "Innovation" aber hinter dem kunterbunten Namen steckt wohl nichts was andere GPUs nicht machen.

Ich behaupte ja nicht anderes. Jetzt braucht aber eben endlich der Mali GPU Block nicht aberwitzig mehr Bandbreiten um mit anderen IPs halbwegs konkurrenzfähig zu sein. ;)


Muss der Grund sein weil der Exynos 7420 (64bit) dann mit einem LPDDR4 controller wohl ankommt :rolleyes:

Siehe oben was ich meinte.


Sonst lies mal was Nebu zum Thema 5430 zu sagen hat:

http://forum.beyond3d.com/showpost.php?p=1874420&postcount=859



Plus Samsung macht keinerlei Wirbel darum; klingt mir eher nach einer weiteren abgevoegelten Implementierung aber ich warte lieber Nebu's weitere Daten darueber ab.

Was Nebu schreibt, bestätigt eben andere Gerüchte. Eigentlich hätte das Note4 schon bisschen später in November kommen sollen dafür aber eben mit A-57 usw. aber anscheinend bekam Samsung LSI es nicht in den Griff und konnte auch die Stückzahlen nicht garantieren somit wurde dieser Plan sehr früh gekippt. Also gingen etliche aus, dass der 5433 eben ein 5430 mit 760 Implementierung ist.
Wäre aber schon Hammer, wenn sie den Fehlschlag ala Frankenstein verwurstet hätten und ich bin mal sehr gespannt wie stabil die Treiber usw. sind. :freak:

Ailuros
2014-09-19, 12:22:13
Malis bzw. alles Midgaard (ergo T6xx/T7xx) brauchen keine uebermaessige Bandbreiten, ueberhaupt weil die Dinger tiling benutzen. Sie verbrauchen eher uebermaessig die area & Strom weil das Mali GPU IP team die Schnappsidee hatte FP64 (mit einer 1:4 Relation) in hw zu giessen, ist aber auch ein ganz anderes Kapitel.

SentinelBorg
2014-10-16, 15:13:10
Um der Verwirrung Einhalt zu gebieten hat Samsung nun den 5433 in Exynos 7 Octa umbenannt: http://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/solution.html#?v=7octa

Und weisst das beim Note 4 auch entsprechend so aus: http://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/showcase.html#?v=smartphones

Ailuros
2015-01-22, 19:17:10
http://www.tomshardware.de/samsung-blackberry-ubernahme-business-smartphones,news-252024.html

mboeller
2015-01-27, 07:37:16
Nebuchadnezzar hat auf Beyond3D die ersten Benchmark-Ergebnisse für den 7420 von Samsung verlinkt:

http://browser.primatelabs.com/geekbench3/compare/1714816?baseline=1780313


Im Vergleich dazu das Nexus9 und Apple iPhone6:
http://www.phonearena.com/news/Nexus-9-storms-through-Geekbench-Tegra-K1-outperforms-Apple-iPhone-6s-A8_id61825


Wenn die Ergebnisse stimmen ist der A57 im Samsung 7420 MHz-für-MHz schneller als der Denver-Core im Nexus9 und sogar nahe dran am A8(!!!???!!!). Das würde dann schon erklären warum Nvidia den Denver-Core in den neuen SoC nicht mehr einsetzt.

Edit:

A57 = 1520 Punkte / 1.5GHz = 1,01 Punkte/MHz
Denver = 1903 Punkte / 2.5GHz = 0,76 Punkte/MHz
A8 = 1630 Punkte/1,4GHz = 1,16 Punkte/MHz

Der A8 wäre damit pro Takt "nur noch" 15% schneller als ein A57... und dabei ist ein A57 Core wesentlich kleiner als ein A8-Core... Beim Vergleich mit einem AMD Jaguar wird es aber erst richtig nett. Die Jaguar kommen im single-core Score nur auf ~850 Punkte bei 1.5GHz

Hängt natürlich alles davon ab, ob die 1.5GHz richtig ausgelesen wurden

Locuza
2015-01-27, 10:47:40
Das würde dann schon erklären warum Nvidia den Denver-Core in den neuen SoC nicht mehr einsetzt.
In welchem Prozess wird Denver hergestellt und in welchem der Exynos 7420?
Und wie sehen eig. die Punkte per Watt aus? :wink:
Für Parker ist spekulativ doch wieder Denver angesetzt.

YfOrU
2015-01-27, 11:05:40
Hängt natürlich alles davon ab, ob die 1.5GHz richtig ausgelesen wurden

Ist wie bei den Geekbench3 Werten zum Snapdragon 810 die Taktfrequenz des A53 Clusters (1,55 Ghz).
http://www.tabtech.de/wp-content/uploads/2014/12/Samsung-Galaxy-Note-4-SM-N916S-mit-Snapdragon-810-Geekbench-3.jpg

Gleiches ist beim Exynos 5433 der Fall (A53: 1,3 Ghz, A57: 1,9 Ghz).
http://browser.primatelabs.com/geekbench3/1786236
http://www.notebookcheck.com/Samsung-Exynos-5433-Octa-SoC.127944.0.html

Beim Exynos 7420 würde ich entsprechend von ~2,2 Ghz (A57) ausgehen.
http://browser.primatelabs.com/geekbench3/1780313

robbitop
2015-01-27, 11:13:06
Naja - Gesetz des sinkenden Grenzertrags haut bei der IPC von CPUs eben mächtig zu. Ab einem gewissen Punkt wird es extrem aufwändig und teuer diese weiter zu steigern.

Ich tippe aber darauf, dass A57 mit mehr als 1,5 GHz lief. 1,5 GHz ist eigentlich sogar eine ganze Ecke von der Zielfrequenz von A57 entfernt. Würde mich nicht wundern, wenn es ein Auslesefehler ist und der A57 eher mit 2,x GHz lief.

Ich bin allerdings von der Maxwell GPU in Tegra X1 überrascht. Wie leichtfertig diese die Monster GPU aus dem A8X schlägt, sollte für IMG schon beängstigend sein. AMD kann davon ja leider auch ein Liedchen singen. Maxwell scheint extrem energieeffizient zu sein.
(wobei man sagen muss, dass es kein nativer 8C Serie6XT ist sondern ein von Apple zusammengeschusterter 2x 4C. Das ist sicher nicht der ideale Weg was Leistung und Leistungsaufnahme angeht. A9X wird mit Serie7 vermutlich einen besseren Weg gehen)

Ailuros
2015-01-27, 11:26:54
Nebuchadnezzar hat auf Beyond3D die ersten Benchmark-Ergebnisse für den 7420 von Samsung verlinkt:

http://browser.primatelabs.com/geekbench3/compare/1714816?baseline=1780313


Im Vergleich dazu das Nexus9 und Apple iPhone6:
http://www.phonearena.com/news/Nexus-9-storms-through-Geekbench-Tegra-K1-outperforms-Apple-iPhone-6s-A8_id61825


Wenn die Ergebnisse stimmen ist der A57 im Samsung 7420 MHz-für-MHz schneller als der Denver-Core im Nexus9 und sogar nahe dran am A8(!!!???!!!). Das würde dann schon erklären warum Nvidia den Denver-Core in den neuen SoC nicht mehr einsetzt.

Edit:

A57 = 1520 Punkte / 1.5GHz = 1,01 Punkte/MHz
Denver = 1903 Punkte / 2.5GHz = 0,76 Punkte/MHz
A8 = 1630 Punkte/1,4GHz = 1,16 Punkte/MHz

Der A8 wäre damit pro Takt "nur noch" 15% schneller als ein A57... und dabei ist ein A57 Core wesentlich kleiner als ein A8-Core... Beim Vergleich mit einem AMD Jaguar wird es aber erst richtig nett. Die Jaguar kommen im single-core Score nur auf ~850 Punkte bei 1.5GHz

Hängt natürlich alles davon ab, ob die 1.5GHz richtig ausgelesen wurden

Bei big.LITTLE hat typisch der LITTLE cluster den Vorsprung, ergo "liesst" Geekbench meistens die A7/A53 Frequenz aus. Sonst interessiert der single core score wenig bei allem >1200. Ich wuerde an Deiner Stelle eher auf den multicore score achten :P


Beim Exynos 7420 würde ich entsprechend von ~2,2 Ghz (A57) ausgehen.
http://browser.primatelabs.com/geekbench3/1780313

Wobei ich mal ernsthaft neugierig waere in welchen Faellen jegliche Peak Frequenz angewendet wird. Sind es nur bis zu 2.2GHz wahlweise z.B. beim bootup, wenn man eine schwere Applikation startet und dergleichen dann koennten sich vendors den Mist irgendwann mal abgewoehnen. In solch einem Fall waere eine z.B. 1.8 GHz (2.2 GHz burst) Angabe um einiges angebrachter.

mboeller
2015-01-27, 12:31:45
Ist wie bei den Geekbench3 Werten zum Snapdragon 810 die Taktfrequenz des A53 Clusters (1,55 Ghz).
http://www.tabtech.de/wp-content/uploads/2014/12/Samsung-Galaxy-Note-4-SM-N916S-mit-Snapdragon-810-Geekbench-3.jpg

Gleiches ist beim Exynos 5433 der Fall (A53: 1,3 Ghz, A57: 1,9 Ghz).
http://browser.primatelabs.com/geekbench3/1786236
http://www.notebookcheck.com/Samsung-Exynos-5433-Octa-SoC.127944.0.html

Beim Exynos 7420 würde ich entsprechend von ~2,2 Ghz (A57) ausgehen.
http://browser.primatelabs.com/geekbench3/1780313


Danke! und Schade ... also bei weitem nicht so gut.

Ailuros
2015-01-27, 14:12:02
Danke! und Schade ... also bei weitem nicht so gut.

Im Vergleich zum S810 sind die Resultate verdammt gut, eben weil der 7420 nicht so throttelt. Maximale Frequenz fuer die A57 beim letzten sollen uebrigens bei 2.1 und nicht 2.2GHz liegen.

Undertaker
2015-01-27, 17:51:15
Sonst interessiert der single core score wenig bei allem >1200. Ich wuerde an Deiner Stelle eher auf den multicore score achten

Wen interessiert die Multithread-Leistung, d.h. wo genau kannst du die derzeit sinnvoll einsetzen?

Auch iPad Air 2 und Nexus 9 sind bei der Browsing-Performance, die an der Singlethread-Leistung hängt, noch weit hinter einem 1,4 GHz Haswell Celeron. Genau hier will ich mehr Performance sehen, und nicht in irgendwelchen vollparallelisierten synthetischen sinnlos-Tests.

http://www.anandtech.com/show/8928/acer-chromebook-13-1080p-with-tegra-k1/3

(Octane und Kraken sind imo die relevanten Tests, in Sunspider wird leider zu sehr gecheatet und WebXPRT ist schon wieder sehr synthetisch/praxisfern)

robbitop
2015-01-27, 18:11:06
Haswell ist auch kein ULP Design. Die Erwartung kann man natürlich trotzdem stellen - aber nicht kurzfristig. Intel hat für ULP mit Silvermont ähnliche IPC.

fondness
2015-01-27, 18:36:52
Ich bin allerdings von der Maxwell GPU in Tegra X1 überrascht. Wie leichtfertig diese die Monster GPU aus dem A8X schlägt, sollte für IMG schon beängstigend sein.

Bis man das Ding kaufen kann ist es vermutlich wieder nichts besonderes mehr. Nur weil NV die SoCs immer extrem früh vorstellt heißt das erstmal gar nichts. Mal sehen wann es die ersten Geräte damit gibt.

mboeller
2015-01-27, 19:01:10
auch wenn es in dem Thread OT ist, aber weil die Diskussion in Richtung Tegra-Benchmarks geht. Ein paar Denver-Scores, incl. Vergleich zu ARM A8, ARM A9; Krait und Haswell:

http://www.realworldtech.com/forum/?threadid=147408&curpostid=147408

gefunden, wie üblich im Beyond3D-Forum; heute von A1xLLcqAgt0qc2RyMz0y gepostet

Ailuros
2015-01-27, 20:11:22
Wen interessiert die Multithread-Leistung, d.h. wo genau kannst du die derzeit sinnvoll einsetzen?

Mich; denn bei mir sind die Faelle wo nur noch single threading eingelegt wird eher eine Seltenheit heutzutage.

Auch iPad Air 2 und Nexus 9 sind bei der Browsing-Performance, die an der Singlethread-Leistung hängt, noch weit hinter einem 1,4 GHz Haswell Celeron. Genau hier will ich mehr Performance sehen, und nicht in irgendwelchen vollparallelisierten synthetischen sinnlos-Tests.

http://www.anandtech.com/show/8928/acer-chromebook-13-1080p-with-tegra-k1/3

(Octane und Kraken sind imo die relevanten Tests, in Sunspider wird leider zu sehr gecheatet und WebXPRT ist schon wieder sehr synthetisch/praxisfern)

Hier spielt zwar noch die milli-Sekunden Verzoegerung mit aber unter Android wird bei beim laden einer schweren Seite ein hoch getakteter A15 eingesetzt fuer die ewige Single threading Laier und bis zu 3 A7 cores gleichzeitig:

http://users.otenet.gr/~ailuros/ingr.jpg

Links der A7 block, rechts der A15; rote Linie Basis Frequenz vom A7@480MHz. Zwischendrin schalten die LITTLE cores nur ein. Man muss eine neue Seite laden damit ein "big" core wieder einschaltet. Sehr kurz eigentlich und nur relativ selten. Was aber fuer niemand hier wohl etwas Neues ist.

Sonst kommen hoffentlich in wenigen Tagen endlich der Nexus9 und Denver Artikel von Anandtech wo man deutlich sehen kann dass sie um einiges besser angelegt sind mit 4*A57 + 4*A53 (egal ob nur mit cluster migration) als den gleichen Denver wieder zu benutzen. Jeder Denver core ist viel zu gross und braucht zu viel Strom fuer das was er anrichten kann.

Cyclone@iOS braucht keinen weiteren Kommentar.

Aber was am Ende ein smartphone mit einem Haswell gemeinsam hat muss ich mir wohl auch noch vorstellen :rolleyes:

Bis man das Ding kaufen kann ist es vermutlich wieder nichts besonderes mehr. Nur weil NV die SoCs immer extrem früh vorstellt heißt das erstmal gar nichts. Mal sehen wann es die ersten Geräte damit gibt.

Das neue X1 shield tablet soll relativ bald kommen afaik. Sie brauchen auch einen benchmark Platzhalter denn "reference device" mit nur einem Resultat ist doch ein bisschen merkwuerdig ;) Spaetestens zur GDC wird Gfxbench3.1 verfuegbar sein mit hoffentlich noch strengeren Batterie-Lauftests.


Ich bin allerdings von der Maxwell GPU in Tegra X1 überrascht. Wie leichtfertig diese die Monster GPU aus dem A8X schlägt, sollte für IMG schon beängstigend sein. AMD kann davon ja leider auch ein Liedchen singen. Maxwell scheint extrem energieeffizient zu sein.
(wobei man sagen muss, dass es kein nativer 8C Serie6XT ist sondern ein von Apple zusammengeschusterter 2x 4C. Das ist sicher nicht der ideale Weg was Leistung und Leistungsaufnahme angeht. A9X wird mit Serie7 vermutlich einen besseren Weg gehen)

Zwar nicht von Dir aber genau das gleiche Lied habe ich auch bei der K1/GK20A Vorstellung immer und immer gelesen. Am Ende ist GK20A nicht schneller geworden als sein direkter Konkurrent (A8X GPU) und schon gar nicht wenn man's throttling bzw. Batterie-Laufzeit mitberechnet.

Undertaker
2015-01-27, 20:50:30
Mich; denn bei mir sind die Faelle wo nur noch single threading eingelegt wird eher eine Seltenheit heutzutage.

Man kann ja noch etwas zwischen Single-Thread und 8-Thread-Monstern differenzieren. :) Beim Browsing hast du spätestens ab 2 Kernen keine wirklichen Zugewinne mehr, darum ist mir hier ein A8 oder Denver lieber als jeder A57.


Hier spielt zwar noch die milli-Sekunden Verzoegerung mit aber unter Android wird bei beim laden einer schweren Seite ein hoch getakteter A15 eingesetzt fuer die ewige Single threading Laier und bis zu 3 A7 cores gleichzeitig:

http://users.otenet.gr/~ailuros/ingr.jpg

Es klebt genau ein Kern bei 100%, dass heißt es limitiert die Single-Thread-Leistung. Die paar Prozent Auslastung durch Nebenaufgaben auf den A7-Kernen bewältigt ein zweiter Big-Core lächelnd.

Haswell ist auch kein ULP Design. Die Erwartung kann man natürlich trotzdem stellen - aber nicht kurzfristig. Intel hat für ULP mit Silvermont ähnliche IPC.

So war das nicht gemeint – sondern eher darauf bezogen, wie niedrig das ULP-Leistungsniveau auch mit Denver und Cyclone noch immer ist. D.h. der Punkt, an dem man "genug" rufen kann, ist für mich noch lange nicht erreicht, was auch Anandtech in obigem Artikel ähnlich sieht (der 1,4 GHz Haswell fühlt sich eben doch spürbar schneller beim Browsing an, und ist selbst auch nicht gerade eine Rakete).

fondness
2015-01-27, 21:03:27
(...)darum ist mir hier ein (...) Denver lieber als jeder A57.


Das sieht Nvidia offenbar anders.

Ailuros
2015-01-27, 21:10:14
Man kann ja noch etwas zwischen Single-Thread und 8-Thread-Monstern differenzieren. :) Beim Browsing hast du spätestens ab 2 Kernen keine wirklichen Zugewinne mehr, darum ist mir hier ein A8 oder Denver lieber als jeder A57.

Der Exynos 7420 ist nach wie vor ein smartphone SoC; Apple lizenziert ihre CPUs nicht und Denver kannst Du gleich ganz ueberhaupt fuer smartphones vergessen wenn nicht auch fuer tablets in seiner heutigen Form.

Es klebt genau ein Kern bei 100%, dass heißt es limitiert die Single-Thread-Leistung. Die paar Prozent Auslastung durch Nebenaufgaben auf den A7-Kernen bewältigt ein zweiter Big-Core lächelnd.

Bei welchem Stromverbrauch genau? Versuch mal ein smartphone mit nur A15 bzw. A57 cores zu bewaeltigen, dann vergeht Dir das laecheln ziemlich schnell.

Ich kann auf dem Geraet umschalten und anstatt dem A7 cluster als Prioritaet dem A15 Prioritaet geben. Beim jeweils ersten core steigt die minimale Frequenz von A7@480MHz im ersten Fall zu A15@650MHz im zweiten. Welches aber nicht heisst dass die beiden clusters nicht benutzt werden; eigentlich ist default LITTLE.big auf allen Geraeten; im hiesigen "speed mode" geht es dann auf "big.LITTLE". In einem Fall wie die beiden GPU benchmarks in gfxbench3.0 wo hauptsaechlich nur ein einzelner maessig ausgelasteter A7 core herumtummelt verlier ich in etwa 10% Laufzeit, in intensiveren Faellen bis zu 30%.

So war das nicht gemeint – sondern eher darauf bezogen, wie niedrig das ULP-Leistungsniveau auch mit Denver und Cyclone noch immer ist. D.h. der Punkt, an dem man "genug" rufen kann, ist für mich noch lange nicht erreicht, was auch Anandtech in obigem Artikel ähnlich sieht (der 1,4 GHz Haswell fühlt sich eben doch spürbar schneller beim Browsing an, und ist selbst auch nicht gerade eine Rakete).

Wen soll in einem Samsung Exynos thread genau die Denver Pita interessieren? Der Samsung Exynos 7420 um den es hier geht ist ein smartphone SoC und mit dem hat wohl weder Denver noch Haswell etwas zu tun. Ja die Leistung ist noch niedrig auf smartphones, aber die Dinger muessen immer noch mit 2500-3000+ mAh Batterien bei schwerem Verbrauch einen ganzen Tag anhalten.

Es ist auch nicht so dass Denver bzw. Haswell dafuer je entwickelt wurden.

Undertaker
2015-01-27, 21:47:09
Ich verzichte darauf, deinen üblichen Themensprüngen zu folgen und wiederhole die Kernthese: Das, was bei einem Mobilgeräte in der Paradeanwendung Nr. 1 (Browsing) für die Performance zählt, ist die Pro-Thread-Leistung. Wenn du wie oben geschrieben lieber auf die Multi-Thread-Scores synthetischer Benches schaust bitteschön, nur praktisch werden sie dir wenig nützen. :) Das zeigt auch dein eigener Screenshot oben, wenn man ihn denn zu interpretieren weiß.

Ailuros
2015-01-27, 23:33:46
Ich verzichte darauf, deinen üblichen Themensprüngen zu folgen und wiederhole die Kernthese: Das, was bei einem Mobilgeräte in der Paradeanwendung Nr. 1 (Browsing) für die Performance zählt, ist die Pro-Thread-Leistung. Wenn du wie oben geschrieben lieber auf die Multi-Thread-Scores synthetischer Benches schaust bitteschön, nur praktisch werden sie dir wenig nützen. :) Das zeigt auch dein eigener Screenshot oben, wenn man ihn denn zu interpretieren weiß.

Ich hab mich ueber die benchmark Resultate eines smartphone SoC geaussert in einem thread darueber. Du warst derjenige der den eher irrelevanten Denver / Haswell Brei ins Gespraech gebracht hat und beide haben nichts mit smartphones zu tun und schon gar nicht der Ueberflop namens Denver, der eben rein zufaellig nur in synthetischem Scheiss gut leistet.

Was mein screenshot zeigt weiss ich sehr wohl. Ich weiss auch dass NV guten Grund hatte eben nicht das ach so tolle Denver Disaster Nr.1 im X1 zu verwenden, sondern ein big.LITTLE config. Falls Dir solche Ernuechterungen virtuelles Sodenbrennen bringen sollten, versuch es einfach mal mit einer anderen Perspektive die einfach realitaetsnaher ist.

Undertaker
2015-01-28, 00:12:11
Vielleicht solltest du noch einmal nachschauen und bemerken, dass nicht ich Denver oder Cyclone in diese Diskussion gebracht habe, sondern diese schon vorher im Zusammenhang mit den Geekbench Scores diskutiert wurden. Auch von dir, vergessen?

Deine anschließende Aussage, dass die Multithread Performance wichtiger als die Singlethread Performance wäre, war bzgl. der typischen Nutzung mobiler Geräte falsch. Beim Browsing bestimmen, genau wie dein Screenshot zeigt, ein bis zwei Kerne die Leistung. Ein Big Core hängt bei 100 Prozent, die restliche Auslastung ist minimalst.

Um das übrigens noch einmal klar zu stellen: Ich rede hier einzig und allein von der Bedeutung der Singlethread Leistung losgelöst von jeglichen Architekturvergleichen. Mit obigem Anandtech-Link habe ich lediglich zwei Dinge aufgezeigt: 1. Bei Browsing-Tests liegen genau die SoCs mit der besten Singlethreadleistung vorne, das sind im ARM Bereich beispielhaft also Denver und A8X auf ähnlichem Level. 2. Das absolute Leistungsniveau bei ARM-SoCs ist noch so niedrig, das man jegliche Steigerungen bei aufwändigen Seiten deutlich spürt. Hier kommt der 1,4 Ghz Haswell ins Spiel, und zwar nur zur Einordnung der Ergebnisse. Wie Anandtech schreibt, ist selbst von Denver und A8X kommend noch ein Unterschied zu merken. Ergo wünsche ich mir von kommenden ARM SoCs auch weiterhin mehr Singlethread Leistung. Mehr Kerne kann ich in der Praxis nicht brauchen.

Ailuros
2015-01-28, 00:49:25
Es ehrt Dich ueberhaupt nicht das Wort eines anderen im Maul umzudrehen. Ich sagte dass im gegebenen Fall alles ab 1200 Punkte single threading ausreicht (im gegebenen Fall fuer ein smartphone) und er soll eher auf den imposanten multicore score achten (Post 263). Wo genau hab ich nach derAussage vor Deinem Post 266 Denver irgendwo erwaehnt?

Es legen eben NICHT nur 2 Kerne in einem big.LITTLE config los beim browsing nur weil Du es besser wissen musst oder weil es gerade Deiner Vorstellung passt. Es gibt genug freie Applikationen fuer Android das Zeug zu untersuchen und es handelt sich wie man erwarten wuerde ueber einfache Stromsparmassnahmen und eben keine Antutu-****_serei fuer multicores oder sonstiger Bloedsinn. Die verwendete Applikation verzoegert auf 1 Sekunde; ich hab lediglich die einfachste gewaehlt weil sie einfacher zu verstehen ist. OT aber das 3DC forum ist unter den leichtesten fora dort draussen; A15 cores legen so wenig ein dass man sie fast nicht braucht. Im Gegensatz zu B3D wo es wirklich radikal zugeht....

*** 4+4 big.LITTLE heisst in Echtzeit dass man eigentlich nur einen komplizierten quad core hat. Und ich will primaer etwas mehr Batterie-Laufzeit sehen. Desktop CPU Leistung heute (selbst annaehernd) auf einem ULP SoC ist viel zu optimistisch dank zu hohem Verbrauch.

Undertaker
2015-01-28, 06:47:26
Das gerade du das mit dem Worte umdrehen bringst... :rolleyes:

Nein, auch mit der Interpretation das 1200 Punkte genug seien gehe ich nicht mit. Egal ob Smartphone, Tablet oder PC, eine Seite ist schließlich immer gleich komplex. Außer man mag hässliche Mobilansichten. ;) Eine Antwort auf die Frage, wofür der Multithread Score nun praktisch sonderlich wichtig sein soll, fehlt mir auch noch.

Ailuros
2015-01-28, 07:47:21
Das gerade du das mit dem Worte umdrehen bringst... :rolleyes:

Ich hab auf jeden Fall nirgends behauptet dass ich single threading als nutzlos ansehe.

Nein, auch mit der Interpretation das 1200 Punkte genug seien gehe ich nicht mit. Egal ob Smartphone, Tablet oder PC, eine Seite ist schließlich immer gleich komplex.

Auf einem tablet kann man aus mehreren Gruenden eventuell jegliche Seite in ihrer normalen Form laden; auf einem smartphone ist es fraglich einfach weil die Ganze herum-zoomerei einfach zu beschissen ist. Und nein es ist eben nicht egal ausser man muss mit dem Schaedel durch die Wand und will schon heute desktop Leistung im Maeusekino.

Außer man mag hässliche Mobilansichten. ;)

Dann zeig uns mal die "schoenen" und realistischeren Mobilansichten. Auf bis zu 5.5" kann man leider nicht so viel anstellen.

Eine Antwort auf die Frage, wofür der Multithread Score nun praktisch sonderlich wichtig sein soll, fehlt mir auch noch.

Single-threading ist schon seit langem nicht mehr die Mehrzahl der Faelle, eher das brutale Gegenteil.

Es gibt eine Moeglichkeit dass der 7420 fuer multicore nur auscchliesslich auf dem A57 laeuft ergo nur als waschreiner quad-core.

Wann war es genau das letzte Mal dass Du Dich persoenlich mit einem big.LITTLE config ausfuehrlich beschaeftigt hast?

Undertaker
2015-01-28, 08:02:31
Zum letzteren: Offensichtlich mehr als du.

Wir sollten übrigens stärker zwischen Single Threading und Pro Thread Performance unterscheiden. Die Pro Thread Performance ist bei kurzen Lastspitzen wie Browsing mit der Single Thread Performance identisch. Und wie dein viel zitierter Screenshot so schön zeigt, ist es immer noch genau ein Thread, der bei 100% hängt. Sagen wir zur Sicherheit zwei. Ob man die restliche Arbeit dann auf einen, fünf oder 10 Kerne verteilt, ist für die reine Performance erst einmal egal.

Zu deiner Vorliebe für Mobilansichten: Machen wir doch mal eine Umfrage. :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560772

Ailuros
2015-01-28, 08:36:25
Zum letzteren: Offensichtlich mehr als du.

Eine andere Antwort haette ich auch nicht erwartet.

Wir sollten übrigens stärker zwischen Single Threading und Pro Thread Performance unterscheiden. Die Pro Thread Performance ist bei kurzen Lastspitzen wie Browsing mit der Single Thread Performance identisch. Und wie dein viel zitierter Screenshot so schön zeigt, ist es immer noch genau ein Thread, der bei 100% hängt.

Fuer einen Bruchteil der Sekunde bis der meiste Inhalt der Seite ladet; die Seite im shot ist nichtmal zu einem drittel fertig zum gegebenen Zeitpunkt. Innerhalb dieser einzelnen Sekunde ladeten bei verschiedenen Prozenten drei A7 und drei A15 cores hoch, was aber selbstverstaendlich nicht heisst dass alle 6 simultan laden.

Sagen wir zur Sicherheit zwei. Ob man die restliche Arbeit dann auf einen, fünf oder 10 Kerne verteilt, ist für die reine Performance erst einmal egal.

Ja wenn man Leistung und Stromverbrauch in parallelen Universen testet sicher. "big" cores leuchten relativiert extrem selten ein.

Zu deiner Vorliebe für Mobilansichten: Machen wir doch mal eine Umfrage. :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560772

Es muessen wohl die meisten Seiten spinnen mobile Versionen dieser zu pflegen. Aber wenn Du schon so verzweifelt bist mir nichts Dir nichts Dich zu beweisen gerne.

***edit: zur Bestaetigung vom vorigen: https://forum.beyond3d.com/posts/1821375/ ergo laeuft Geekbench so oder so nur mit 4 parallelen threads und nicht mehr.

Undertaker
2015-01-28, 08:57:49
Du driftest wieder ab. Es ging nur um die Frage, ob man aktuell eher von mehr ST oder MT Leistung profitiert. Ich widerspreche deiner These, das man eher auf letztere schauen sollte (bzgl deiber 1200 Punkte oben).

robbitop
2015-01-28, 09:24:46
Zwar nicht von Dir aber genau das gleiche Lied habe ich auch bei der K1/GK20A Vorstellung immer und immer gelesen. Am Ende ist GK20A nicht schneller geworden als sein direkter Konkurrent (A8X GPU) und schon gar nicht wenn man's throttling bzw. Batterie-Laufzeit mitberechnet.
K1 war 28 nm genau wie A7. A8/A8X sind 20 nm wie X1. Ich fände es also nicht verwerflich A8X mit X1 zu vergleichen und K1 mit A7. (auch wenn es von den Releasezeiträumen und von der Positionierung im Markt eher so ist, dass K1 vs A8X und X1 vs A9X antreten muss).

Jedenfalls verglichen mit einem A8X auf vergleichbarem Fertigungsprozess, bei schmalerem Interface (und gewiss nicht größerer die size) scheint X1 A8X zu vernichten. Das ist eine Leistung die man anerkennen muss. Zumindest wenn man es auf Punch pro Transistor oder Punch pro Watt bei gleichem Prozess betrachtet.

Wenn X1 natürlich erst im Spätsommer/Herbst kommt, ist es egal wie er gegen A8X performt. Dann muss er sich A9X stellen. (der aber widerum vermutlich einen besseren Fertigungsprozess haben wird als X1).

Ailuros
2015-01-28, 09:25:05
Du driftest wieder ab. Es ging nur um die Frage, ob man aktuell eher von mehr ST oder MT Leistung profitiert. Ich widerspreche deiner These, das man eher auf letztere schauen sollte (bzgl deiber 1200 Punkte oben).

Hier nochmal der originale Abschnitt:

Bei big.LITTLE hat typisch der LITTLE cluster den Vorsprung, ergo "liesst" Geekbench meistens die A7/A53 Frequenz aus. Sonst interessiert der single core score wenig bei allem >1200. Ich wuerde an Deiner Stelle eher auf den multicore score achten

Es liegt weder etwas falsches an all den Aussagen noch irgend etwas absurdes. Mehr single threading als der 7420 schon liefert (wobei es um einiges mehr sind als 1200) geht momentan nicht egal ob man Kopfstaende steht und ja der multicore score ist imposant. In den Leistungsbereichen werden sich so oder so die meisten wenn nicht alle Android high end SoCs dieser Generation bewegen.

K1 war 28 nm genau wie A7. A8/A8X sind 20 nm wie X1. Ich fände es also nicht verwerflich A8X mit X1 zu vergleichen und K1 mit A7. (auch wenn es von den Releasezeiträumen und von der Positionierung im Markt eher so ist, dass K1 vs A8X und X1 vs A9X antreten muss).

Apple hatte schon immer andere Veroeffentlichungs-Zeitraeume und es ist hier tatsaechlich eine Angelegenheit der Perspektive.

Jedenfalls verglichen mit einem A8X auf vergleichbarem Fertigungsprozess, bei schmalerem Interface (und gewiss nicht größerer die size) scheint X1 A8X zu vernichten. Das ist eine Leistung die man anerkennen muss. Zumindest wenn man es auf Punch pro Transistor oder Punch pro Watt bei gleichem Prozess betrachtet.

Nur wurde mal wieder wie beim K1 die Leistung unabhaengig vom Stromverbrauch getestet. NV hat die X1 GPU Leistung auf die der A8X GPU normalisiert und dann den Verbrauch gemessen. Als Wert durchaus imposant, aber es wurde nirgends gezeigt wie die Batterie-laufzeit bzw. Leistung ueber laengere Zeit aussieht bei der maximalen Leistung vom X1. Man sollte so etwas auch nicht von Vorstellungs-hw mit einem heatsink erwarten, aber es macht NV's marketing orientiertes Geblubber nicht wirklich wertvoller. Mit jeder Generation werden meistens (nicht immer) Apple's tablet GPUs um ca. 2x Mal schneller...oh welch Wunder. X1 ist etwas sparsamer als K1 aber um in diesen Denver cores zu quetschen brauchen sie 16 FinFET, wobei natuerlich Apple nirgends ihren Cyclone rausschmeisst temporaer bis zum naechsten Prozess. Ergo ist die per Prozess Perspektive schon ziemlich fragwuerdig.

Wenn X1 natürlich erst im Spätsommer/Herbst kommt, ist es egal wie er gegen A8X performt. Dann muss er sich A9X stellen. (der aber widerum vermutlich einen besseren Fertigungsprozess haben wird als X1).

Im Maerz hoffen sie fuer eine Vorstellung bei der MWC. Ob das neue X1 Shield tablet sofort verfuegbar sein wird keine Ahnung. Da die Sache aber mit Herstellungsprozessen zunehmend problematischer wird und Batterien auch nicht gut skalieren momentan frage ich mich ernsthaft ob man den tablet Markt nicht durch um einiges laengere Laufzeiten etwas beleben koennte. Dieses Jahr wird der tablet Markt ziemlich flach liegen; das einzige was mich zu einer Aufruestung treiben wuerde waere =/< iPad Air1 Leistung mit =/>15h Laufzeit fuer browsing z.B. Machbar sollte es schon sein.

robbitop
2015-01-28, 13:08:17
Natürlich war das ein rein synthetischer Test. Aber er sagt zumindest was über Leistung pro Watt der reinen GPU aus. Eines muss man NVs Engineering Team lassen. Ihr GPU IP ist verdammt gut. IMG muss sich schon ziemlich lang machen, um unter gleichen Voraussetzungen in diesem Punkt mithalten zu können. Ich hoffe, dass entsprechende Verbesserungen zu Serie 7 kommen.

Meinst du, dass Apple mittel/langfristig dort auch eigene Designs bringen wird? (Lizenz ist vermutlich billiger als Eigenentwicklung - andererseits könnte man über eine Eigenentwicklung wieder sich von der Konkurrenz differenzieren. Budget hat Apple genug. Talentierte Leute gibt es dort vermutlich auch und für sie wäre es im Silicon Valley ein leichtes entsprechend mehr GPU Engineers anzulocken - alternativ könnte Apple ja auch überlegen, NV IP einzusetzen)

Ailuros
2015-01-28, 13:32:29
Natürlich war das ein rein synthetischer Test. Aber er sagt zumindest was über Leistung pro Watt der reinen GPU aus. Eines muss man NVs Engineering Team lassen. Ihr GPU IP ist verdammt gut.

Wenn der Stromverbrauch nur nicht so hoch waere.

IMG muss sich schon ziemlich lang machen, um unter gleichen Voraussetzungen in diesem Punkt mithalten zu können. Ich hoffe, dass entsprechende Verbesserungen zu Serie 7 kommen.

IMG verkauft IP und daher bieten sie GPU IP weit unter den Faehigkeiten der X1 GPU und auch weit ueber dieser. Samsung bleibt logischerweise bei ARM Mali und Apple wird wohl nicht am DX11 feature pack von 7XT interessiert sein. Die A8X GPU hat noch ein Stueck Leistungs-reservem im ES3.1 Treiber und nach IMG's Bums-marketing soll 7XT cluster fuer cluster und clock fuer clock um bis zu 60% schneller sein als 6XT.

Meinst du, dass Apple mittel/langfristig dort auch eigene Designs bringen wird? (Lizenz ist vermutlich billiger als Eigenentwicklung - andererseits könnte man über eine Eigenentwicklung wieder sich von der Konkurrenz differenzieren. Budget hat Apple genug. Talentierte Leute gibt es dort vermutlich auch und für sie wäre es im Silicon Valley ein leichtes entsprechend mehr GPU Engineers anzulocken - alternativ könnte Apple ja auch überlegen, NV IP einzusetzen)

Momentan gilt immer noch der multi-year, multiple IP Vertrag mit IMG der noch etliche Jahre vorsieht, was aber auch keine Garantie ist. Damit Apple erstmal ihren Kopf zu NV rueberdreht muessten sie einen deutlichen Vorteil in vielen metrics haben, was aber nirgends der Fall ist. Ausser Du glaubst natuerlich dass Apple je so bloed waere und wuerde eine GPU Frequenz von 1GHz oder NV die Wucherpreise die sie angeblich fuer ihre IP wollen haben je goennen werden.

robbitop
2015-01-28, 14:29:15
Wenn der Stromverbrauch nur nicht so hoch waere.

Aber der GPU Teil des X1 schafft doch bei gleicher Performance bei weniger Leistungsaufnahme als die GPU des A8X. (1,5 W statt 2,5 W). Auf vergleichbarem Fertigungsprozess bei halbiertem SI. IMO ist also gerade der Stromverbrauch offenbar sogar sehr gut.
Wenn man die GPU natürlich voll ausfährt (Frequenzen hoch), erhöht sich natürlich auch der Verbrauch. Aber das würde mit der GPU des A8X auch passieren, wenn man die Frequenzen (und damit die Leistung) höher ausfahren würde.

iFanatiker
2015-01-28, 15:22:24
(Octane und Kraken sind imo die relevanten Tests, in Sunspider wird leider zu sehr gecheatet und WebXPRT ist schon wieder sehr synthetisch/praxisfern)

Octane und Kraken messen wie auch Sunspider nur die Performance der Javascript Engine. Die Aussagekraft für den Alltag ist also eigentlich somit recht bescheiden denn auch heute dürfte das einen größeren Anteil z. B. die Rendering Engine haben als sonst was. Dazu wird in bestimmten Teilen von Octane und Kraken eben z. B. immer noch keine Webworker verwendet obwohl es sich dort anbieten würden da IMHO Webworker nun von allen mobilen Browser korrekt implementiert werden. So wird eben dort ja in der Tat eben nur die Single Core IPC praktisch getestet wenn man SoC vergleicht. Interessanter wäre der Browsermark wo eben nicht nur die JS Engine getestet wird und dort schlägt das Shield Tablet das N9 mit den gleichen Chrome Browser.

Hier mal JS Beispiel wo MT gewinnt: http://jsfiddle.net/MTJ27/15/ :biggrin::biggrin::biggrin: Ja...blödes Beispiel.

Hast du denn ein Nexus 9 oder gehst du rein von den Benchmark Werten? Im praktischen Einsatz hat das Nexus 9 immer wieder mit diversen Rucklern und so weiter zu kämpfen und das ist typisch für Android mit zwei Kernen. Gerade eben im Browser lassen sich Javascript Engine, Renderer, Browser Oberläche usw. recht gut eben parallelisieren. Das rendern der einzelnen Seite oder vor allem eben Javascript kann natürlich auch gut von Single Core IPC profitieren weil diese eben einzelne Thread darstellen....doch trotzdem profitiert eben gerade unter Android die "snappies" von MT Performance.

Ailuros
2015-01-28, 16:59:21
Aber der GPU Teil des X1 schafft doch bei gleicher Performance bei weniger Leistungsaufnahme als die GPU des A8X. (1,5 W statt 2,5 W). Auf vergleichbarem Fertigungsprozess bei halbiertem SI. IMO ist also gerade der Stromverbrauch offenbar sogar sehr gut.

Kann ich es heute in einem Geraet kaufen? Nur weil Apple nicht so albern ist und aehnliche Einzelheiten Monaten vor einem hard launch der Presse mitteilt soll es was genau heissen?

GK20A zeigte sich genauso einige Zeit vor seinem launch gegen Apple's A7 GPU. Am Ende ist die A8X GPU auf jeden Fall nicht langsamer als GK20A, throttelt nichtmal annaehernd so viel und hat auch eine laengere Batterie-laufzeit. Und dann kommt natuerlich wieder die Prozess-Geschichte und wir drehen uns weiter im Kreis.

Wenn man die GPU natürlich voll ausfährt (Frequenzen hoch), erhöht sich natürlich auch der Verbrauch. Aber das würde mit der GPU des A8X auch passieren, wenn man die Frequenzen (und damit die Leistung) höher ausfahren würde.

NV koennte die X1 GPU locker auch auf bis zu 500-600MHz takten und eher mit perf/mW und Batterie-laufzeit werben, welches genau das obrige um 180 Grad gedreht ist. Warum sie es nicht machen? Frag Jensen und seinen Groessenwahn.

Komischerweise hatten wir eine Debatte ueber diese GPUs vor dem A8X launch; wobei ich unterstuetzte dass Apple weiterhin aggressiv mit GPU Entwicklung sein muss eben weil GK20A im K1 zumindest eine Art virtuelle "Halo-Gefahr" darstellen sollte. GK20A war damals genauso beindruckend auf Papier wie die X1 GPU, ergo muss ich mich wirklich wundern was sich so tolles seither geaendert hat :rolleyes:

Zu dem Zeitpunkt war sogar das Xiaomi MiPad fuer etwa 240 Euro erhaeltlich, da es aber ein chinesisches Geraet ist nicht als "verfuegbar" zaehlte. Junge wie sich die Zeiten aendern.... :P

mboeller
2015-01-29, 10:37:34
vielleicht der falsche Thread, aber das hier ist ein nettes PDF das den 16nm Finfet Prozess von TSMC mit dem 14nm Finfet-Prozess von Samsung/GF vergleicht:

http://www.bnppresearch.com/ResearchFiles/31175/Semiconductors-230414.pdf

erklärt vielleicht warum Samsung auf die eigenen SoC setzt.

Ailuros
2015-01-29, 11:41:10
vielleicht der falsche Thread, aber das hier ist ein nettes PDF das den 16nm Finfet Prozess von TSMC mit dem 14nm Finfet-Prozess von Samsung/GF vergleicht:

http://www.bnppresearch.com/ResearchFiles/31175/Semiconductors-230414.pdf

erklärt vielleicht warum Samsung auf die eigenen SoC setzt.

Ein Boersen-Analysten report? Wenn ja dann hab ich mir die Zeit gespart es durchzulesen. Dass Samsung endlich nur ihren eigenen SoCs (bzw. im schlimmsten Fall das groesste Prozentual) waere ja eigentlich das selbstverstaendliche schon seit Jahren.

Es ist ja eigentlich so dass Samsung mobile nichts mehr von Exynos hoeren wollte als vor kurzem ein weiteres eigenes GPU Experiment ins Klo gespuelt wurde und gleich 4 zukuenftige SoC Projekte aus der Samsung LSI roadmap entfernt wurden. Ist aber schon seit vor dem 5422 her.

Dass Samsung/GloFo mit 14nm gut angelegt ist hab ich persoenlich keinen Zweifel aber auch keine Garantie. Wieso jetzt TSMC angeblich darueber zittern muss, bin ich mir nicht so sicher denn Apple war vor 20SoC auch kein Stammkunde fuer sie und wird es wohl auch in Zukunft nicht sein. Eine Frage waere was QCOM vorhat; ich wuerde mir zumindest fuer die absehbare Zukunft dual sourcing zwischen TSMC und Glofo vorstellen. Falls TSMC jetzt noch andere wie Mediatek z.B. an Sammy verliert dann faengt es langsam an weh zu tun natuerlich....

Was Samsung betrifft wuerde mich nach wie vor viel mehr interessieren was sie im Hintergrund genau mit experimentieren. Mich plagt nach wie vor die Frage wieso zuerst eigene GPU und keine custom CPU Experimente auf ARM ISA?

Ailuros
2015-02-05, 16:37:11
http://techreport.com/review/27539/samsung-galaxy-note-4-with-the-exynos-5433-processor/4

Der ganze Artikel ist interessant zum durchlesen, aber 30.9mm2 fuer die MaliT760MP6@700MHz unter Samsung 20nm? Wenn man einschaetzt wieviel die area die GK20A GPU im K1 einnehmen koennte unter 28HPM oder die X1 GPU unter 20SoC und dann auch noch bedenkt dass die 5433 GPU nur um die 17 fps in Manhattan offscreen leistet, schmeisst ARM ziemlich wild mit die area rum fuer ihre GPUs und dazu um einiges mehr als ich je geschaetzt haette.

Ailuros
2015-02-11, 06:19:15
http://www.anandtech.com/show/8718/the-samsung-galaxy-note-4-exynos-review

Sehr guter Exynos 5433 review mit sehr vielen Daten fuer A5x gegen A15/7. MaliT760 verbraucht leider nicht nur viel die area sondern auch verdammt viel Strom fuer die Leistung. Knapp ueber 6W in Manhattan fuer nur 17.5 fps?

Nightspider
2015-02-11, 07:08:46
Hmm. Sehr guter Test.

ARM Kerne machen einen guten Sprung aber der Exynos selbst schwächelt mal wieder und liegt in der Note 4 Variante meist noch hinter der Snapdragon 805 Variante in echten Anwendungen, richtig?

Liegt das an der nur halb so großen Speicherbandbreite? Schlechtes SoC Design?
Da kann ja der Snapdragon 800 noch gut mithalten und der ist schon "uralt".

Dann lieber S810 in den nächsten Galaxy Devices wenn Samsung nicht mal einen Top-SoC bauen kann.w

y33H@
2015-02-11, 08:02:12
Im S6 wird's keinen 810er geben nach aktuellem Stand.

EDIT
Schick, da hat Samsung ja echt viele Daten rausgegeben.

Nightspider
2015-02-11, 08:26:27
Ich sage: abwarten!

Falls der 810 den Exynos zu brei haut wird den Samsung sicherlich nicht überall verbauen.
Oder kommt demnächst noch ein besserer Exynos?

robbitop
2015-02-11, 09:26:30
Woher soll das "zu Brei hauen" denn kommen? Es sind die gleichen CPU Kerne verbaut. Adreno und Mali nehmen sich gegenseitig auch nicht besonders viel. Ich würde sagen, es ist vergleichbar.

Nightspider
2015-02-11, 09:28:34
Laut diversen Benchmarks von oben hängt der neue Exynos mit den neuen Kernen oft noch dem alten S805 mit den alten Kernen hinterher.

Selbst wenn der 810 bei der CPU Leistung nur 20% davor liegt und die deutlich effizoentere GPU und mehr Features hätte würde ich ihn jedem Exynos vorziehen.

robbitop
2015-02-11, 09:51:35
Das ist aber merkwürdig. Das muss ja dann an den (real vorliegenden) Taktraten liegen. Ggf. throttelt der Exynos mehr. Irgendeinen Grund muss es ja haben, dass Samsung beim 810 sich über thermische Belange beschwert.

Avalox
2015-02-11, 10:01:16
Laut diversen Benchmarks von oben hängt der neue Exynos mit den neuen Kernen oft noch dem alten S805 mit den alten Kernen hinterher.


Das ist kein neuer Exynos, der von Anand getestete Exynos ist von Samsung als SoC der Exynos 5 Reihe trotz neuer Architektur platziert und seit einiger Zeit geliefert.

Für das S6 (jetzt) wird ein SoC der Exynos 7 Reihe kolportiert, genau genommen ein Exynos 7420 mit 2,1 GHz und 64 Bit Support.

Das sieht dann so aus im Vergleich zum Snapdragon 810.

https://2.bp.blogspot.com/-cjfhOCfhPVo/VMoiaFFbAJI/AAAAAAAAFYE/FRnk-y3U48w/s1600/benchmark-exynos-7420-vs-snapdragon-810-postslush.jpg

Die GPU, welche im Geekbench ja nicht getestet wird, des Exynos 7420 soll den Exynos 5433 um rund 33% übertreffen.

Nightspider
2015-02-11, 10:32:30
Achso, das erklärt natürlich einiges.

Habe mich die letzten Jahre kaum mit Samsungs SoCs beschäftigt. Ich dachte erst das sollte der neue Spitzen-SoC von Samsung werden.

Ailuros
2015-02-11, 17:16:11
Achso, das erklärt natürlich einiges.

Soll aber nicht heissen dass der 7420 fundamental besser sein wird (wohl eher ein "5433 done better") oder dass die GPU nicht wieder tonnenweise Strom unter 3D verdonnern wird und auch throtteln wird (Anand testet im vorerwaehnten review einen Verlust von knapp 54% - von 25.1 auf 11.65 fps).

http://www.anandtech.com/show/8718/the-samsung-galaxy-note-4-exynos-review/10

The performance degradation metric is exceptionally bad on the Exynos version. While the Snapdragon also has its thermal throttling issues, it seems to degrade much more gracefully than the Exynos. The Mali T760 is here limited to half its frequency during most of the benchmark run, spiking back to full frequency momentarily before throttling again. I'm disappointed to see such throttling behavior; it would've made much more sense to scale down to some of the higher frequencies first rather than dropping immediately to 350MHz.

Der 5433 hat also eine GPU die nur auf Papier und kunterbunten Papierfranzen einen Leistungs-Gleichstand mit der Apple A8 GPU erreicht; bei einem fetten Prozentual mehr die area und Stromverbrauch nach knapp einer Stunde 3D liegt die Leistung bei weniger als 1/3 der A8 GPU Leistung.

Kurz sowohl Qualcomm als auch ARM/Samsung bescheissen hier grandios mit der GPU Leistung. Sonst was die CPU betrifft wird man beim 7420 hauptsaechlich den Unterschied beim multi-threading bzw. -tasking sehen, stets aber in der Mehrzahl der Faelle auf die Echtzeit-Leistung des A53 quads "begrenzt".

Ich will hoffen dass Nebu sich die Zeit nehmen wird auch den 7420 so ausfuehrlich unter die Lupe zu nehmen.

Sunrise
2015-02-11, 17:39:48
Bei den aktuell öffentlichen Benches zum Exynos 7 (7420) SoC wäre ich auch noch vorsichtig, das muss nicht den finalen Daten entsprechen.

Mal vom Vorteil der eigenen 14nm-Fertigung ab, die 20 SoC von TSMC eigentlich in die Tonne treten müsste, wird Samsung die wohl auch brauchen um Nachteile der Architektur ausgleichen zu können.

Solange man aber nichtmehr so stark throtteln muss und auch annähernd die Versprechungen hält, wäre das schon mal einen Schritt weiter.

Ailuros
2015-02-11, 17:52:18
Bei den aktuell öffentlichen Benches zum Exynos 7 (7420) SoC wäre ich auch noch vorsichtig, das muss nicht den finalen Daten entsprechen.

Mal vom Vorteil der eigenen 14nm-Fertigung ab, die 20 SoC von TSMC eigentlich in die Tonne treten müsste, wird Samsung die wohl auch brauchen um Nachteile der Architektur ausgleichen zu können.

Samsung's 20nm ist wie man sehen kann auch nicht besonders besser.

Solange man aber nichtmehr so stark throtteln muss und auch annähernd die Versprechungen hält, wäre das schon mal einen Schritt weiter.

Ich bin zwar zuversichtlich dass Samsung's 14nm ziemlich gut sein wird, aber dass er 33% Mehrleistung + 54% throttling in einem Zug schlucken wird will ich ernsthaft bezweifeln. Das Problem ist Architektur-bedingt; ein guter Prozess kann zwar helfen, aber es ist nichts anderes als ein Pflaster und keine Loesung.

Sunrise
2015-02-11, 18:04:36
Ich bin zwar zuversichtlich dass Samsung's 14nm ziemlich gut sein wird, aber dass er 33% Mehrleistung + 54% throttling in einem Zug schlucken wird will ich ernsthaft bezweifeln.
Etwa 20% Mehrleistung und 35% weniger Strombedarf:
http://www.vrworld.com/wp-content/uploads/2014/04/SamsungGlofo21.jpg

Der Rest muss über Optimierungen in der Architektur kommen.

Allerdings sollte man vom Exynos 7 auch keine Wunder erwarten, denn bei dem ersten 14nm-Design eines SoCs und dem noch relativ unausgereiften Prozess wird man wohl eher konservativ rangehen müssen.

Das wird aber wohl ausreichend sein um einige Zeit wirklich gut dazustehen. Zumindest bis der Rest nachzieht.

Ailuros
2015-02-11, 18:16:54
Da in dem Ding wieder ein Mali T760 steckt sehe ich keinen besonderen Luftraum fuer Verbesserungen auf hw Nivaeu; dafuer haette Samsung dann einen T880 benutzen sollen.

Nebenbei verspricht Samsung's marketing eine Leistungssteigerung fuer die GPU im 7420 von 74%. http://www.phonearena.com/news/Exynos-7-octa-core-chip-from-Samsung-offers-a-57-gain-in-performance-over-previous-generation-chip_id61799

Sunrise
2015-02-11, 18:33:04
Nebenbei verspricht Samsung's marketing eine Leistungssteigerung fuer die GPU im 7420 von 74%. http://www.phonearena.com/news/Exynos-7-octa-core-chip-from-Samsung-offers-a-57-gain-in-performance-over-previous-generation-chip_id61799
War das Ding ursprünglich mal für 20nm geplant? Das steht zumindest so auf dem ersten offiziellen Slide.

Jetzt ist natürlich die Frage, ob diese Leistungssteigerungen überhaupt noch stimmen, wenn er jetzt auf 14nm kommt.

Ailuros
2015-02-11, 18:37:33
War das Ding ursprünglich mal für 20nm geplant? Das steht zumindest so auf dem ersten offiziellen Slide.

Jetzt ist natürlich die Frage, ob diese Leistungssteigerungen überhaupt noch stimmen, wenn er jetzt auf 14nm kommt.

Ich dachte Du meinst T760@14nm fuer die Zukunft.

https://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/solution.html#?v=7octa

Exynos 7 Octa processor is designed to bring advanced features to everyday mobile computing, equipped with four powerful ARM® Cortex®-A57 cores and four efficient Cortex-A53 cores. Exynos 7 Octa uses cutting-edge 20nm HKMG process technology as well as advanced mobile image compression (MIC) technology to deliver the most power efficient performance in the market today.

https://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/mediacenter.html#?v=blog_Technology_trends_of_2015
Hier steht auch 20nm drin (ganz unten).

Ob der 7420 wirklich auf 14nm hergestellt wird? ***edit: ich hab mal nachgefragt; mal sehen was herauskommt.

Sunrise
2015-02-11, 18:47:59
https://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/mediacenter.html#?v=blog_Technology_trends_of_2015
Hier steht auch 20nm drin (ganz unten).

Ob der 7420 wirklich auf 14nm hergestellt wird?
Ja, zumindest hatte ich das so verstanden.

Habe mal zwei aktuelle Links rausgesucht:
http://www.phonearena.com/news/Bloomberg-Samsung-drops-Snapdragon-810-from-the-Galaxy-S6-will-ship-it-with-Exynos-instead_id65045
http://tech.firstpost.com/news-analysis/qualcomms-20nm-snapdragon-810-will-face-samsungs-14nm-exynos-7420-251907.html

Ailuros
2015-02-11, 18:52:56
Ja, zumindest hatte ich das so verstanden.

Habe mal zwei aktuelle Links rausgesucht:
http://www.phonearena.com/news/Bloomberg-Samsung-drops-Snapdragon-810-from-the-Galaxy-S6-will-ship-it-with-Exynos-instead_id65045
http://tech.firstpost.com/news-analysis/qualcomms-20nm-snapdragon-810-will-face-samsungs-14nm-exynos-7420-251907.html

Wobei die slides im bloomberg link unveraendert auf 20nm deuten. Wie gesagt ich hab nachgefragt; wenn Nebu recht hat dann gab es wohl einen tape out im Mai 14' https://forum.beyond3d.com/posts/1790182/

Ailuros
2015-02-11, 21:27:05
Exynos 7420@14nm Samsung.

Sunrise
2015-02-11, 21:39:22
Exynos 7420@14nm Samsung.
OK, dann bin ich auf Ergebnisse gespannt.

BlackBirdSR
2015-02-12, 06:36:44
Etwa 20% Mehrleistung und 35% weniger Strombedarf:
http://www.vrworld.com/wp-content/uploads/2014/04/SamsungGlofo21.jpg

Der Rest muss über Optimierungen in der Architektur kommen.
.

20% performance im Prozess =! 20% mehr Leistung des SoCs. Da wird meist von Schalt Geschwindigkeit oder anderen Werten gesprochen. Die weniger Strombedarf sind dann auch meist nicht zusätzlich, sondern bei identischen Werten zum Vorprozess... Marketing halt.

Ailuros
2015-02-12, 07:27:52
Bei den CPUs wird 14nm den Frequenz-Unterschied zum 5433@20nm locker schlucken koennen da dieser auch relativ klein ist; bei der GPU aber kommt jegliches Prozentual (=/>30%) wohl schwer von der Frequenz selber. Am wahrscheinlichsten waere dass die 7420 GPU mehr clusters hat (MP8) mit etwas hoeherer Frequenz als die 700MHz im Exynos5433.

Exynos5433@20nm:
Manhattan offscreen: 17.5 fps
Verbrauch (insgesamt - system power): 6.078W

Kishonti's Gfxbench GPU tests beschaeftigen nur minimal die CPUs, genau damit die Affaere so GPU bound wie moeglich bleibt. Der groesste Anteil des Durchlaufs wird bei mir mit einem einzigen A7 core bei relativ maessiger Ladung bewaeltigt.

Die Tegra X1 GPU nach NV's eigenen subjektiven Messungen verbraucht bei ~33 fps Manhattan offscreen nur von der GPU 1.5W. :rolleyes:

Unicous
2015-02-12, 15:51:19
Fuad behauptet es auch.

Galaxy 6 Exynos 7420 is 14nm SoC (http://www.fudzilla.com/news/mobile/37005-galaxy-6-exynos-7420-is-14nm-soc)

Also stimmt es nicht.;D;D;D;D


Scherz beiseite. Das wäre schon ein Hammer. Andererseits stellt sich die Frage ob sie es auch wie letztes Jahr zeitnah nach der MWC launchen oder das nur ein Teaser für "later 2015" ist.

Ailuros
2015-02-13, 07:41:29
Fuad behauptet es auch.

Galaxy 6 Exynos 7420 is 14nm SoC (http://www.fudzilla.com/news/mobile/37005-galaxy-6-exynos-7420-is-14nm-soc)

Also stimmt es nicht.;D;D;D;D

Du glaubst wohl nicht wirklich dass Fudo nie abschreibt oder? In diesem Fall wohl nicht, aber wirkliche "Quellen" hatte er auch nie. NV's marketing fuettert ihn lediglich mit dem ueblichen Zeug dass sie an alle sites schleudern.

Da es sich um eine harmlose Einzelheit handelt, ich hab gestern Nebu schnell gefragt.

Scherz beiseite. Das wäre schon ein Hammer. Andererseits stellt sich die Frage ob sie es auch wie letztes Jahr zeitnah nach der MWC launchen oder das nur ein Teaser für "later 2015" ist.

Du muesstest die Zusammenarbeit mit Glofo fuer 14nm besser verfolgt haben als ich. Hat Glofo nur von Sammy lizenziert oder kann Sammy eventuell auch bei Glofo herstellen wenn notwendig?

Damit Samsung ihre eigenen high end smartphone Beduerfnisse und jegliches kommendes Apple Volumen gleichzeitig decken kann (plus noch alles andere kleineres was aufgekommen ist wie z.B. Tegra X1 + Denver...) klingt es mir dass es nur mit der Hilfe einer zweiten foundry machbar waere. Ie Sammy wuerde eventuell ein Prozentual ihrer Exynos SoC bei Glofo herstellen lassen z.B.

y33H@
2015-02-13, 10:53:48
Samsung hat grade bestätigt, den Exynos in 14nm FinFET zu produzieren. So kriegt dann die Mali-T760-MP6 wohl schlicht mehr "sustained" Takt.

Unicous
2015-02-13, 11:29:59
Ein Glück haben sie es nicht ungrade bestätigt. Ihr Rückkrad hätte sonst darunter gelitten.:tongue:

@Ailuros

Samsung behauptet seit Monaten den Prozess zu rampen. Mit irgendeinem Produkt müssen sie ja rampen und da drängt sich ein eigener Chip ja geradezu auf. Und das zeigt auch wie weit Samsung wirklich ist. Wenn sie ab März/April das S6 im hohen Volumen verschiffen können, heißt im Umkehrschluss, dass sie schon ein paar Wochen (bzw. wie sie behaupten Ende letzten Jahres) produzieren. Es ist natürlich fraglich, ob für ein "iPad Pro" oder was auch immer bei Apple in der pipeline ist in den nächsten Monaten kommt, oder man doch bis Ende des Jahres wartet. Bis dahin dürfte auch GF produktionsbereit sein, wenn sie es nicht schon sind.

Ailuros
2015-02-13, 16:33:55
Samsung hat grade bestätigt, den Exynos in 14nm FinFET zu produzieren. So kriegt dann die Mali-T760-MP6 wohl schlicht mehr "sustained" Takt.

Haben sie auch bestaetigt dass es ein MP6 sein wird?

Ein Glück haben sie es nicht ungrade bestätigt. Ihr Rückkrad hätte sonst darunter gelitten.:tongue:

@Ailuros

Samsung behauptet seit Monaten den Prozess zu rampen. Mit irgendeinem Produkt müssen sie ja rampen und da drängt sich ein eigener Chip ja geradezu auf. Und das zeigt auch wie weit Samsung wirklich ist. Wenn sie ab März/April das S6 im hohen Volumen verschiffen können, heißt im Umkehrschluss, dass sie schon ein paar Wochen (bzw. wie sie behaupten Ende letzten Jahres) produzieren. Es ist natürlich fraglich, ob für ein "iPad Pro" oder was auch immer bei Apple in der pipeline ist in den nächsten Monaten kommt, oder man doch bis Ende des Jahres wartet. Bis dahin dürfte auch GF produktionsbereit sein, wenn sie es nicht schon sind.

Mir machen fruitco's tablets nicht im geringsten irgendwelche Sorgen; dafuer sind die Volumen zu gering. Fuer's naechste iPhone fangen sie wohl nicht nur eine Woche vor dem hard launch an zu produzieren sondern um einiges frueher.

y33H@
2015-02-13, 16:42:08
Nein, MP6 nicht bestätigt. War (m)eine Vermutung, da die T760 im 5433 so stark throttelt.

Ailuros
2015-02-13, 16:55:57
Nein, MP6 nicht bestätigt. War (m)eine Vermutung, da die T760 im 5433 so stark throttelt.

Wenn man einen neuen stabilen Prozess in der Hand hat, ist es um zich Male weisser in die Breite zu gehen (maximale design-Latenz fuer Midgaard sind 16 clusters) als sich weiterhin in die gleiche Frequenz-Falle treiben zu lassen. Theoretisch bekommst Du bis zu 30% Mehrleistung von einem 760MP8@700MHz (14nm) vs. 760MP6@700MHz (20nm). Im 5433 Anand review kann man schoen sehen dass Midgaard GPU IP wie zu erwarten fast linear mit der Steigerung der clusters skaliert.

Mal sehen ob es LSI diesmal schaffte ohne Zacken zumindest von A auf B zu kommen :rolleyes:

y33H@
2015-02-13, 17:33:41
Ja, idR wäre die schlauere Lösung, du hast Recht.

Unicous
2015-02-13, 20:27:09
Samsung Blacks Out Retail Employees Vacations For Two Periods Starting On March 22nd And April 19th (http://www.androidpolice.com/2015/02/13/samsung-blacks-retail-employees-vacations-two-periods-starting-march-22nd-april-19th/)


Damit steht einem Release Ende März nichts mehr im Wege.:wink:

14nm scheint also (mittlerweile?) "gesund" zu sein und Samsung kann Chips in hohem Volumen, wie behauptet, fertigen. Samsung will ja sicherlich min. 10 (bzw. lieber 20) Millionen Phones im ersten Quartal verkaufen.

Der zweite Termin könnte ja auf einen Phablet (Note?) Launch hinweisen. Fragt sich ob da auch ein Exynos verbaut wird.

y33H@
2015-02-16, 09:18:36
BÄMM: http://www.samsung.co.kr/about/newsView.do?seq=128900

Ailuros
2015-02-16, 09:25:41
BÄMM: http://www.samsung.co.kr/about/newsView.do?seq=128900

ROFL die maschinelle Uebersetzung fuer den link ist wirklich der Hammer :biggrin:

Gaestle
2015-02-16, 09:41:21
BÄMM: http://www.samsung.co.kr/about/newsView.do?seq=128900

DAS ist doch mal eine effektive Ankündigung eines Hammerprodukts von weltweiter Tragweite ... :D

Nightspider
2015-02-16, 09:49:10
Damit schrumpft Intels Vorsprung in der Prozesstechnologie schon gewaltig.

robbitop
2015-02-16, 10:17:30
Die Frage ist, ob die Performance auch vergleichbar mit Intels 14 nm FinFET ist. Wenn der Prozess mal in der Massenfertigung für mehr als nur Mobile geht, ist Intel schon beim nächsten Node.

Nightspider
2015-02-16, 11:08:37
Computerbase schreibt das Samsungs 14nm Prozess ein 20 mm Prozess mit FinFETs ist.

Sagtet ihr nicht es wäre ein 14nm Prozess mit FinFET ?

y33H@
2015-02-16, 11:12:14
Samsung nennt es 14nm, ist aber 20nm mit FinFET für die FEOL.

Avalox
2015-02-16, 11:34:29
Sagtet ihr nicht es wäre ein 14nm Prozess mit FinFET ?

Es sind nur noch eine Aussage, die eine Technologiegeneration betiteln. Bei allen Herstellern. Die genauen Strukturgrößen des Prozesses werden nicht benannt.

fondness
2015-02-16, 11:45:15
Es sind nur noch eine Aussage, die eine Technologiegeneration betiteln. Bei allen Herstellern. Die genauen Strukturgrößen des Prozesses werden nicht benannt.

Werden Sie meist schon etwas später, Intels 22 nm sind zb wenn mich meine Erinnerung nicht täuscht effektiv 26.5 nm.

fondness
2015-02-16, 11:47:56
Computerbase schreibt das Samsungs 14nm Prozess ein 20 mm Prozess mit FinFETs ist.

Sagtet ihr nicht es wäre ein 14nm Prozess mit FinFET ?

Die packdichte soll ggü 20 nm schon um 20% (stehts afaik kann gerade nicht nachsehen) sinken, von daher ist es schon etwas mehr als nur 20 nm finfet.

Nightspider
2015-02-16, 11:51:53
Samsung nennt es 14nm, ist aber 20nm mit FinFET für die FEOL.

Traf das auch auf den 14nm Prozess von GloFo zu? Vielleicht habe ich die nur verwechselt.
Die Meldung ist ja dann nicht so spektakulär wie Gedacht.

y33H@
2015-02-16, 11:55:32
Ja, bei GloFo 14XM war das AFAIK ähnlich ... müsste aber nachgucken.

Sunrise
2015-02-16, 14:54:13
Computerbase schreibt das Samsungs 14nm Prozess ein 20 mm Prozess mit FinFETs ist.

Sagtet ihr nicht es wäre ein 14nm Prozess mit FinFET ?
Es ist quasi ein Hybrid zwischen 14nm und 20nm, mit neuer FEOL und etwas modifizierter BEOL, ausgehend von 20nm. Das führt zu den auf der letzten Seite genannten Verbesserungen. Zusätzlich steigt die Dichte zwischen 7-15%. Im Endeffekt also quasi ein verbesserter 20nm-Prozess mit FinFET.

Das ist auch der Grund warum man da jetzt schon so schnell bereit ist, zumindest SoCs zu bauen.

Wenn wir hier 14nm schreiben, dann bezieht sich das auf die Marketingangaben.

Und was der SoC leisten kann sehen wir ja dann, da das alles eher das theoretische Maximum darstellt. Zusätzlich wird Chipworks dann auch wieder eine Analyse der genauen Größen liefern.

Unicous
2015-02-16, 15:43:27
Man muss leider aufpassen, welcher Prozess gemeint ist. Ich denke, bin mir aber nicht 100% sicher (weil ich keine offiziellen Angaben finde), dass sich die Flächenverkleinerung lediglich auf LPP bezieht und man bei LPE "nur" die Verbesserungen die FinFET mit sich bringt nutzen kann.

Darüber hinaus beziehen sich die Flächenverkleinerungen auch speziell auf verkleinerten SRAM. Dennoch sollte Samsung einen kleinen aber feinen Vorteil gegenüber 16nmFF(+) haben.

robbitop
2015-02-16, 16:41:22
Die packdichte soll ggü 20 nm schon um 20% (stehts afaik kann gerade nicht nachsehen) sinken, von daher ist es schon etwas mehr als nur 20 nm finfet.
In der GF Präsentation stand was von 15 %.

Avalox
2015-02-19, 06:30:16
S6 Edge mit Exynos 7420 im Geekbench

http://browser.primatelabs.com/geekbench3/1926938

Ailuros
2015-02-19, 06:42:20
S6 Edge mit Exynos 7420 im Geekbench

http://browser.primatelabs.com/geekbench3/1926938

Nach dem 70k Antutu score vom Tegra X1 haette ich hier eher einen von tuten und blasen score zuerste erwartet :P

Sonst etwas interessanter: http://www.anandtech.com/show/8992/samsung-acquires-mobile-payment-company-looppay

Avalox
2015-02-20, 10:56:47
Ach, Antutu wird ja auch besser. Irgendwann vielleicht sogar mal gut.

Das der X1 im "auch Grafikbench" Antutu sich so in den Medien leakt ist ja verständlich, aber eben im Smartphone nicht zu finden.

Ailuros
2015-02-20, 11:15:31
Ach, Antutu wird ja auch besser. Irgendwann vielleicht sogar mal gut.

Aber der X1 im auch Grafikbench Antutu sich so in den Medien leakt ist ja verständlich.

Ich wuesste nicht wie man einen guten bzw. objektiveren CPU benchmark entwickeln koennte; sonst fuer GPUs ist der Weg lang fuer etwas vergleichbares zu Futuremark oder Kishonti's Material.

Avalox
2015-02-20, 11:48:07
Ich wuesste nicht wie man einen guten bzw. objektiveren CPU benchmark entwickeln koennte; sonst fuer GPUs ist der Weg lang fuer etwas vergleichbares zu Futuremark oder Kishonti's Material.

Geekbench ist sicherlich ein guter Plattform übergreifender CPU Benchmark, muss dann halt gelesen werden.
Ansätze wie Gamebench haben ja dagegen keine Bedeutung bisher gewinnen können, obwohl natürlich sehr interessanter Ansatz verfolgt wird.

Was hat X1 im Antutu Bench erlangt? 75k Punkte? Exynos 7420 irgendetwas über 60k Punkte im Vorabtest? Antutu ist halt immer noch Mist.

Ailuros
2015-02-20, 12:05:51
Was hat X1 im Antutu Bench erlangt? 75k Punkte. Exynos 7420 irgendetwas über 60k?

Das erste Resultat vom X1 war irgendwo bei 60k; mit ein paar Optimierungen wird Samsung die 70k locker ueberschreiten.

Man braucht ueberhaupt keine GTS im big.LITTLE fuer so hohe scores; alles was vendors typisch machen um die scores hochzutreiben ist eine sehr hohe minimale Frequenz fuer die big CPU cores. Ich erreiche mit dem V989 auch etwas ueber 64k in dem Ding; mit einer minimalen Frequenz von 1300+MHz fuer die A15 cores kein Wunder ;D

....und hier liegt auch das eigentliche Problem fuer Antutu. Man sollte solchen Scheiss einfach nicht zulassen, eben weil es keinesfalls realistisch ist.

Hacki_P3D
2015-02-20, 18:31:01
Intel hat doch den kleinsten... ;)

http://www.heise.de/newsticker/meldung/Intel-Wir-haben-den-kleinsten-Transistor-2554788.html

y33H@
2015-02-20, 19:25:13
Immerhin nicht "Intel hat den engsten Spalt (zwischen zwei Fins)" :ulol:

Ailuros
2015-03-02, 11:19:22
Wie ich es mir vorgestellt habe; die GPU im 7420 ist ein MP8 und dazu alles andere als bei einer konservativen Frequenz:

https://forum.beyond3d.com/posts/1828246/

14nm 2.1ghz A57, 1.5ghz A53, T760MP8 773/700mhz.

Managed to get the gpu voltage table and the drop is utterly insane. -300mV at top freq and -200mV across the board against the 5433 on the same frequencies.

dildo4u
2015-03-02, 11:45:39
GS6 Antutu Bench

http://i-cdn.phonearena.com/images/articles/171429-image/First-Galaxy-S6-edge-benchmarks.jpg

mboeller
2015-03-02, 12:31:47
GS6 Antutu Bench

http://i-cdn.phonearena.com/images/articles/171429-image/First-Galaxy-S6-edge-benchmarks.jpg

beim ersten Durchlauf... oder beim 10. Durchlauf? :tongue:

fast 70K sind aber schon mal wow!

Ailuros
2015-03-02, 12:49:15
beim ersten Durchlauf... oder beim 10. Durchlauf? :tongue:

fast 70K sind aber schon mal wow!

Nochmal auch fuer Dich: da nur 4 threads parallel laufen koennen laesst man 2 big und 2 LITTLE cores aktiv. Je mehr man bescheissen will desto hoeher legt man die minimalen Frequenzen der cores an. Extremster Fall Allwinner beim A80T wo alle 4 benutzten cores um 50% hoeher getaktet werden fuer die Eingangsfrequenzen bei default. Samsung bescheisst hier offensichtlich hier nicht, aber es ist lediglich eine Indizie wie daemlich Antutu eigentlich ist.

Sunrise
2015-03-02, 14:09:07
Wie ich es mir vorgestellt habe; die GPU im 7420 ist ein MP8 und dazu alles andere als bei einer konservativen Frequenz:

https://forum.beyond3d.com/posts/1828246/
Jup, das passt.

Da hatte man wohl wie vermutet durch 14nm ordentlich Spielraum beim Takt. Fragt sich jetzt nur noch, ob und falls ja, wie stark das Ding throttelt.

iFanatiker
2015-03-02, 14:25:18
Fragt sich jetzt nur noch, ob und falls ja, wie stark das Ding throttelt.

Anscheinend so gut wie gar nicht laut etlichen Leuten von der MWC solange nur die GPU stark belastet wird.

Edit: vor allem unter Messe Bedingungen ist dies schon sehr beachtlich für die Vorführgeräte dort. LSI scheint echt einen riesen Erfolg wieder mal nach der Exynos 4 Familie zu landen. Bin mal gespannt ob sie den SoC auch zum Verkauf an externe anbieten werden.

Und auch bete ich zu Gott, dass der gleiche SoC im Tab S 2 Einzug hält.

Ailuros
2015-03-02, 16:07:27
Anscheinend so gut wie gar nicht laut etlichen Leuten von der MWC solange nur die GPU stark belastet wird.

Edit: vor allem unter Messe Bedingungen ist dies schon sehr beachtlich für die Vorführgeräte dort. LSI scheint echt einen riesen Erfolg wieder mal nach der Exynos 4 Familie zu landen. Bin mal gespannt ob sie den SoC auch zum Verkauf an externe anbieten werden.

Und auch bete ich zu Gott, dass der gleiche SoC im Tab S 2 Einzug hält.

Die Indizien sind tatsaechlich bisher positiv aber ich will doch unabhaengige ernsthafte Tests wie die von Anandtech abwarten fuer die erste gewagte Schlussfolgerung. Ich will nicht nur hoffen dass der 7420 so gut ist wie er klingt sondern dass Samsung endlich auf der Schiene bleibt (ohne Bescheissereien am liebsten) anstatt von dritten SoCs einzukaufen.

Jup, das passt.

Da hatte man wohl wie vermutet durch 14nm ordentlich Spielraum beim Takt. Fragt sich jetzt nur noch, ob und falls ja, wie stark das Ding throttelt.

Wie ich schon sagte vor etlichen Seiten: lieber mit der GPU in die Breite als bloedsinnig an der Taktschraube zu drehen (wenn man schon bei der vorigen Generation bei 700MHz fuer die GPU war).

mboeller
2015-03-02, 17:03:31
ich glaube da macht sich gerade jemand lächerlich:

http://www.computerbase.de/2015-03/exynos-7420-snapdragon-810-benchmark-vergleich/

guckt mal auf die geekbench-scores.... witzig!!!

Zum Vergleich, wenn man nach dem S6 (SM-920F) sucht:

http://browser.primatelabs.com/geekbench3/2009914


... ein netter Artikel, anscheinend mit einer viel zu heißen Nadel gestrickt. :freak:

Ailuros
2015-03-02, 17:24:22
ich glaube da macht sich gerade jemand lächerlich:

http://www.computerbase.de/2015-03/exynos-7420-snapdragon-810-benchmark-vergleich/

guckt mal auf die geekbench-scores.... witzig!!!

Zum Vergleich, wenn man nach dem S6 (SM-920F) sucht:

http://browser.primatelabs.com/geekbench3/2009914


... ein netter Artikel, anscheinend mit einer viel zu heißen Nadel gestrickt. :freak:

Egal ob die Resultate stimmen oder nicht, es ist eine Frechheit einen Vergleich nur auf Geekbench Resultaten zu basieren.

Avalox
2015-03-02, 17:26:45
Wahrscheinlich momentan etwas stark ausgelastet die Geräte in der Auslage.

http://galaxys6.es/wp-content/uploads/2015/03/Galaxy-S6-edge-GeekBench.jpg

dildo4u
2015-03-02, 19:42:15
CB hat die Benches wiederholt.

Ailuros
2015-03-02, 20:04:41
CB hat die Benches wiederholt.

Ach was ist denn tolles passiert dass der 7420 von 800+ ploetzlich auf 1440 Punkte im single core test stieg? Was genau heisst unter "besseren Bedingungen"? Und was genau steht fuer "etwas besser" fuer den S810.

Wenn man zu wenig Zeit ein Geraet zu testen oder auch so strohdumm ist nichtmal einen so einfachen benchmark wie Geekbench laufen zu lassen, dann sollte jemand gefaelligst den Anstand haben und die Finger von writeups lassen. Noch schlimmer wenn man offensichtlich sich zu schwer tut die Wahrheit zu berichten.

mboeller
2015-03-03, 11:43:55
http://www.tomshardware.fr/articles/galaxy-s6-tests,1-55637.html

nicht schlecht!

anscheinend weniger als 4% trotteling (und das kann auch eine Messungenauigkeit sein) nach 6x Geekbench (siehe ganz unten). Gefunden auf Beyond3D, danke xpea. :)

mboeller
2015-03-03, 11:52:52
Wenn man zu wenig Zeit ein Geraet zu testen oder auch so strohdumm ist nichtmal einen so einfachen benchmark wie Geekbench laufen zu lassen, dann sollte jemand gefaelligst den Anstand haben und die Finger von writeups lassen. Noch schlimmer wenn man offensichtlich sich zu schwer tut die Wahrheit zu berichten.

Yep! alles in allem sehr kurios

Avalox
2015-03-08, 10:03:05
Hier noch mal Benches aus der Hand im Video.

Eqez7e5JTcU

mboeller
2015-03-08, 12:24:10
ich glaube Nebuchadnezzar hat im Beyond3D Forum den Grund für die schlechten Benchmark-Ergebnisse von Computerbase genannt (zwar in einem anderen Zusammenhang, aber ich glaube das es auch hier passt):


I highly doubt that 10fps figure is accurate. Currently databases are being filled by trash data by the people at MWC. Power saving mode for one guts the frequency to half.


https://forum.beyond3d.com/posts/1829157/

Ailuros
2015-03-08, 17:14:51
ich glaube Nebuchadnezzar hat im Beyond3D Forum den Grund für die schlechten Benchmark-Ergebnisse von Computerbase genannt (zwar in einem anderen Zusammenhang, aber ich glaube das es auch hier passt):



https://forum.beyond3d.com/posts/1829157/

Moeglich ist es schon aber ueberzeugt darueber bin ich noch nicht; die low level tests sind alle vom Gfxbench3.1, sind neu und um einiges anspruchsvoller.

Exynos 7420:
http://gfxbench.com/device.jsp?benchmark=gfx31&os=Android&api=gl&D=Samsung%20Galaxy%20S6%20Edge%20%28SM-G925x%29

Exynos 5433:
http://gfxbench.com/device.jsp?benchmark=gfx31&os=Android&api=gl&D=Samsung%20Galaxy%20Note%20Edge%20%28Mali-T760%2C%20SM-N915x%29

Da es 8 gegen 6 TMUs sind zwischen den beiden Faellen und die 7420 GPU eine um 10% hoehere burst Frequenz hat, klingen die Unterschiede der Fuellraten erstmal normal, helfen mir aber nirgends fuer eine fruehe Schlussfolgerung. Sind aber die low level tests bei voller 7420 GPU Frequenz dann sie es im 3.1 schlecht aus; der ALU test im 3.1 basiert diesmal auf dem Manhattan test.

Man muss sich halt den benchmark herunterladen und sich jeden test einzeln ansehen.

kunibätt
2015-03-08, 22:34:00
Sehe ich das richtig, das man unter Auslastung aller Threads mit so einem Handy mittlerweile so ca. 1/3 der CPU-Leistung von einem 2600K erreicht? Falls das so stimmt, wow!

dildo4u
2015-03-08, 23:15:05
Die Benches sind zu kurz um vernünftig zu Vergleichen bei deiner Desktop CPU sinkt der Takt nicht selbst wenn du ne Stunde 100% Last hast.

kunibätt
2015-03-09, 00:19:39
Schon klar, dass da der Formfaktor erheblich limitiert. Trotzdem beeindruckend für mich, vielleicht auch weil ich mich eigentlich kaum mit mobile beschäftige.

mboeller
2015-03-18, 12:55:19
komisch, kaum hat ARM gute Cores (A72) schon designed alle Welt Custom-Cores... jetzt auch Samsung:

http://www.phonearena.com/news/Samsung-turns-to-designing-custom-CPU-cores-for-its-Exynos-mobile-chipsets_id67345


7420-Info:
http://www.phonearena.com/news/Technology-explained-inside-the-Exynos-7-Octa-7420-Samsungs-best-chipset-yet_id67278

da steht aber nichts neues, ist aber eine schöne Zusammenfassung.

Ailuros
2015-03-18, 13:08:35
komisch, kaum hat ARM gute Cores (A72) schon designed alle Welt Custom-Cores... jetzt auch Samsung:

http://www.phonearena.com/news/Samsung-turns-to-designing-custom-CPU-cores-for-its-Exynos-mobile-chipsets_id67345

Wenn wir den ueberhaupt am Ende sehen. Wenn ich allen Bumsgeruechten glauben sollte dann muesste Samsung simultan an der Entwicklung einer custom CPU und eigener GPU fuer ihre SoC liegen. Nicht dass Sammy nicht das Geld hat es anzustellen, aber bis zum Punkt wo das Resultat auch wirklich etwas taugt ist es schon ein anderes Kapitel. Chancen dass sie bessere CPU und GPU IP gleichzeitig entwickeln um gar nichts mehr bei ARM einzukaufen sind wie gross? :rolleyes: Ja eben.....

stinki
2015-04-01, 13:15:29
Vielleicht ist die custom CPU ja schon der AMD K12 ;-)

und die custom GPU is GCN ;-) ;-) ;-)

robbitop
2015-04-01, 13:20:37
Ich bin immernoch erstaunt, wie schnell A72 nach A57 vorgestellt - und vor allem implementiert wurde! A57 wurde 2012 vorgestellt und 2014 implementiert. 2015 kommen die A57 so langsam in alle SoCs. 2015 wurde A72 vorgestellt und erste Implementierungen kommen bereits im selben Jahr! :eek:

Dass Samsung mittelfristig Custom Cores bauen will, war eigentlich klar. Sie sind groß genug und verkaufen auch genug Geräte und SoCs. Das ist eine feine Maßnahme, sich von der Masse zu differenzieren. Mal schauen wie gut die Dinger im Vergleich zu A72, Kryo (QC), Denver und Cyclone (enhanced) sein werden. Wobei ich vermute, dass bei Apple dann schon die Nachfolge-µ-Arch zu Cylone kommen wird.

Gab ja auch mal Gerüchte, dass Samsung eigene GPU IP entwickeln will. Bei Apple vermute ich das mittel- bis langfristig auch.

stinki
2015-04-04, 16:38:12
Nur ~78mm^2 für den 7420 in 14LPE ist nicht schlecht...und vielleicht schon von GlobalFoundries...
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-samsung-galaxy-s6/
vorallem wenn der 5433 in 20nm wirklich ~113mm^2 groß sein sollte
http://www.anandtech.com/show/9141/chipworks-publishes-samsung-galaxy-s6-teardown

stinki
2015-04-04, 16:59:10
Erste 10nm Chips von Samsung schon 2016? (A10X)...
https://www.semiwiki.com/forum/content/4422-apple-leaks-chip-sources.html

Ailuros
2015-04-04, 17:27:31
Nur ~78mm^2 für den 7420 in 14LPE ist nicht schlecht...und vielleicht schon von GlobalFoundries...
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-samsung-galaxy-s6/
vorallem wenn der 5433 in 20nm wirklich ~113mm^2 groß sein sollte
http://www.anandtech.com/show/9141/chipworks-publishes-samsung-galaxy-s6-teardown

Ohne eine Transistoren-Anzahl sagt es mir leider nicht viel. Der 5433 war von sich schon riesig fuer das was er leistet. Alle 20SOC Rekorde bricht natuerlich QCOM's S810 der ueber 130mm2 wiegt.

Erste 10nm Chips von Samsung schon 2016? (A10X)...
https://www.semiwiki.com/forum/content/4422-apple-leaks-chip-sources.html

Hatten wir schon im Apple thread; vieles in der Tabelle ist bullshit.

***edit:

http://www.anandtech.com/show/9141/chipworks-publishes-samsung-galaxy-s6-teardown

Probably the most interesting aspect of the teardown thus far is that the die size of the 14nm FinFET Exynos 7420 is about 78 mm^2, which is incredibly small compared to the 113 mm^2 size of the 20nm Exynos 5433. It’s unlikely that this is purely due to process as the metal interconnect pitch improvements are relatively minimal when compared to 20nm HKMG, so it’s likely that we’re looking at a great deal of optimization in layout and possibly some IP blocks removed in order to reduce die size. With a die shot floorplan we should be able to figure out exactly what Samsung did to achieve this, and get a good idea of what Samsung has done for the Exynos 7420 which should help with our full review of the Galaxy S6.

Die Unterschiede zwischen 20HKMG Samung und 14 FinFET sind zwar relativ klein in die area aber nicht relativ "minimal". Dass sie womoeglich mit Packdichten zu schlampig umgegangen sind bis zum 5433 koennte durchaus sein, aber mir faellt es auch schwer zu glauben dass der 7420 nicht ein gutes Stueck ueber 2Mrd. Transistoren packt.

stinki
2015-04-04, 18:02:19
Die Anzahl der Transistoren wäre wirklich interessant gerade im Vergleich zu Broadwell mit 1,3 Mrd auf ~82mm^2 und A8/A8X (A8 = ~2Mrd auf 89mm^2 in 20nm)

Warten wir mal Ende 2016 und A10X ab...bei Samsungs momentanen Track-Record bei Herstellungsprozessen würde ich nichts zu 100% ausschließen wollen...

stinki
2015-04-04, 18:51:46
http://www.gsmarena.com/next_samsung_exynos_to_pack_custom_cores-news-11777.php

Custom CPU Core soll angeblich Mongoose heißen..."nur" 45% schneller als 7420 bei 2,3GHz wäre aber wahrscheinlich auch nicht viel schneller als A72

mboeller
2015-04-04, 19:49:00
"nur"???

Ehrlich gesagt war ich positiv überrascht als ich von den 2240 Punkten im Geekbench @ 2.3GHz gelesen habe. Ich habe erwartet das Samsung wie bei den GPUs nix gescheites zustande bringt.

Jetzt kann man nur hoffen das die Samsung-SPU-Kerne nicht größer sind als die A72 von ARM. Die sind ja ein wenig kleiner als die A57 und benötigen nur ca. 3.3mm² @ 28nm

stinki
2015-04-05, 01:29:33
Warten wir mal den Jahreswechsel ab und schauen was A72, Kryo, Cyclone+ und Mongoose in 14/16FF zeigen werden bezüglich perf/W und perf/mm^2 ...da QC A72 nur in die 6xx Reihe einordnet erwarte ich von Kryo schon einiges mehr, das gleiche gilt für Apple und Cyclone+

PS: Denver lasse ich hier bewusst einfach mal außen vor da nur Tablet und dieser codemorphing Ansatz einfach bezüglich perf/W nicht funktionieren kann bzw. nicht vergleichbar ist

Sunrise
2015-04-05, 17:22:32
Samsungs 7420 ist deshalb im Vergleich so winzig, weil Samsung hier notdürftig einen SoC gebraucht hat, der mit dem noch sehr frischen 14LPE-Prozess die Ausbeute ausgleichen kann.

Es ist kein Geheimnis, dass Samsung auch den Qualcomm 820 bei sich fertigen lassen wird, ebenso viele weitere SoCs, die in Zukunft erscheinen. Samsung hat jedoch wie Apple vor Qualcomm und Co. den entscheidenden Vorteil, dass ihre SoCs komplett auf ihre Bedürfnisse angepasst wurden und keine Features enthalten, die nicht benötigt werden. In den Qualcomm SoCs stecken teilweise Sachen drin, die kein Mensch braucht (siehe auch bald S820). Das bläht natürlich dann die Area unnötig auf.

Es überrascht mich nicht im Geringsten, dass der 7420 kleiner als der A8 ist. Sowohl Cyclone+ als auch ImgTecs-IP werden hier einen Großteil verschlingen, während Samsung hier ja lediglich auf Standard ARM setzt und die Takte einfach noch etwas erhöht hat.

Ailuros
2015-04-05, 17:27:44
"nur"???

Ehrlich gesagt war ich positiv überrascht als ich von den 2240 Punkten im Geekbench @ 2.3GHz gelesen habe. Ich habe erwartet das Samsung wie bei den GPUs nix gescheites zustande bringt.

Jetzt kann man nur hoffen das die Samsung-SPU-Kerne nicht größer sind als die A72 von ARM. Die sind ja ein wenig kleiner als die A57 und benötigen nur ca. 3.3mm² @ 28nm

Wenn sie jetzt auch nicht zustande sind eine anstaendige custom CPU auf die Beine zu stecken koennten sie die LSI Bude langsam dich machen und zich Milliarden in R&D sparen. Ich hab zwar keinen Grund an dem Monsoon Ding zu zweifeln aber bis ich es in finalen Produkten von unabhaengigen Haenden getestet sehe sagt mir eine sterile Zahl noch gar nichts.

stinki
2015-04-06, 23:07:27
https://www.semiwiki.com/forum/f293/gloablfoundries-making-chips-s6-i-think-so-5836.html
5433 war anscheinend 20LPE mit 80nm M1 Metal Pitch.
7420 ist 14LPE mit 64nm M1 Metal Pitch.
Und Samsung hat anscheinend auch einen 20LPM Process mit gleichem 64nm M1 Metal Pitch (dachte nur GF würde ihn 20LPM nennen) also gleichem BEOL.
Der Gate Pitch ist wohl auch geringer bei 14LPE verglichen mit 20LPE und somit ist der Chip deutlich kleiner.

y33H@
2015-04-07, 10:06:46
Es gibt auch einen 14nm LPP mit besserem Gate Pitch bei gleichem Metal Pitch, wenn ich das richtig sehe.

EDIT
https://www.mubadala.com/en/news/mubadala-releases-full-year-2014-financial-and-operational-results

Globalfoundries announced a strategic collaboration with Samsung to deliver capacity at 14 nanometer (nm), one of the industry’s most advanced nodes, as Fab 8 in Malta, New York began ramping production for customers.

stinki
2015-04-08, 13:14:57
Die verschiedenen Gate Pitches der verschiedenen TSMC/Samsung Processe sind mir nicht ganz klar.
Es scheint klar zu sein dass TSMC 16FF 90nm Gate Pitch hat, aber zu 16FF+ habe ich zwei verschiedene Angaben gelesen. Die einen sagen ebenfalls 90nm Gate Pich (wie bei 16FF) und die anderen 78nm Gate Pitch (wie bei Samsung 14LPP).
Bei Samsung scheint der 14LPP wie gesagt 78nm Gate Pitch zu haben. Aber zu 14LPE habe ich erneut zwei verschiedene Angaben gelesen. Die einen sagen ebenfalls 78nm (wie bei 14LPP) und die anderen 84nm Gate Pitch (eher vergleichbar mit 20LPM).
Aber am Ende wird der Sieger zwischen 16FF+ und 14LPP wahrscheinlich eher über den FinFet Transistor entschieden und nicht über die Packdichte.
Bin wirklich mal auf den ersten 16FF+ Chip und dessen Eigenschaften (Vtt, Frequenz, Größe, Packdichte, Stromverbrauch) gespannt. Vielleicht hört man mehr zu 16FF+ beim nächsten Quartalsbericht.

stinki
2015-04-25, 00:04:30
http://www.kitguru.net/components/cpu/anton-shilov/samsungs-own-exynos-m1-processor-core-already-supported-by-software-tools/
Der Custom-Core Chip heißt intern scheinbar M1...sollte für einen S7 Lauch zeitlich passen...
Bin auf den Vergleich von M1 mit 820 nächstes Jahr sehr gespannt!

robbitop
2015-04-25, 00:09:33
Was mich stutzig macht - ich habe im Zusammenhang mit dem 820 von 8x Kernen gelesen. IPC kostet idR immer Fläche und thermal Budget. Siehe Apples Cyclone oder NVs Denver. Die sind so fett, dass man davon nicht all zu viele nutzen kann. Wenn Qualcomm gleich 8 davon ploppen kann, sind diese offenbar nicht all zu groß. Aber vieleicht ist die Info ja auch verkehrt.

Ich tippe darauf, dass Qualcomm einen anderen Ansatz als Apple wählt. Die fuhren schon immer eher mit durchschnittlicher/guter IPC aber höherem Takt.

Für Samsung ist es das erste Design. Da sollte man noch nicht zu viel erwarten.

Ailuros
2015-04-25, 17:24:35
Wenn man nicht zu viel erwarten soll dann ist die auch die ganze Anstregung fuer einen custom core nutzlos. In solch einem Fall entwickelt man so lange daran bis man einen echten Vorteil gegenueber standard ARM CPU IP vorzeigen kann.

Sunrise
2015-05-10, 15:58:24
Ich hatte ja schon des Öfteren auf den geplanten Ausbau von Samsungs Kapazitäten bzgl. einer geplanten neuen Fab hingewiesen. Hier gibts jetzt ein paar neue Details:
http://english.etnews.com/20150508200001

Der neue "Komplex" (wenn man das noch so nennen kann) soll die Größe von 400 Fußballfeldern haben, was kaum vorstellbar ist. Wie schon geschrieben, wird Samsung Intel hier enorme Konkurrenz machen und insgesamt wird sich auch endlich eine ausgeglichenere Fab-Landschaft ergeben, die nicht nur Intel-exclusiv neue State-of-the-Art Fertigungsprozesse für alle, die zu zahlen imstande sind, zur Verfügung stellen werden.

fondness
2015-05-10, 16:03:15
Wenn man nicht zu viel erwarten soll dann ist die auch die ganze Anstregung fuer einen custom core nutzlos. In solch einem Fall entwickelt man so lange daran bis man einen echten Vorteil gegenueber standard ARM CPU IP vorzeigen kann.

Bingo, Samsung entwicklet schon ewig an einem CPU-Design, nur hat es halt keins bisher in fertiges Silizium geschafft. Wenn sie einen custom-Core auch fertigen dann sollte dieser auch Vorteile bieten.

y33H@
2015-05-10, 16:16:42
Hier gibts jetzt ein paar neue Details:
http://english.etnews.com/20150508200001"It is almost equal to the sizes of existing production complexes in Giheung and Hwaseong put together."

BÄMM :biggrin: :eek:

Ailuros
2015-05-10, 19:04:33
Bingo, Samsung entwicklet schon ewig an einem CPU-Design, nur hat es halt keins bisher in fertiges Silizium geschafft. Wenn sie einen custom-Core auch fertigen dann sollte dieser auch Vorteile bieten.

"Ewig" entwickelt Samsung eher GPUs und dabei bei Milliarden-schweren FLOP-Projekten (zumindest 2 verschiedene durch die Jahre); custom CPU Entwicklung ist dazu im Vergleich eher "jung" in relativem Sinn.

Sammy brauchte drei Anlaeufe bis big.LITTLE halbwegs klappte; bei einem custom core mit hoechstwahrscheinlichem AMP koennte es vielleicht noch laenger dauern.

Unicous
2015-05-10, 19:14:05
Milliarden FLOP
:eek:

mboeller
2015-06-18, 13:28:26
http://www.phonearena.com/news/Samsung-will-keep-using-ARM-Mali-GPUs-over-the-next-five-years_id70538

http://www.gsmarena.com/samsung_might_stay_away_from_inhouse_gpu_for_now-news-12684.php

...und IMG/PowerVR ist mal wieder der looser... Schade :(

5 Jahre Exclusive für die Mali-GPUs ist aber schon extrem lange... man muss nur mal zurückdenken was bei Handys vor 5 Jahren state-of-the-art war.

die 2. News von gsmarena ist aber mal wieder ;D

Ailuros
2015-06-18, 13:44:54
http://www.phonearena.com/news/Samsung-will-keep-using-ARM-Mali-GPUs-over-the-next-five-years_id70538

http://www.gsmarena.com/samsung_might_stay_away_from_inhouse_gpu_for_now-news-12684.php

...und IMG/PowerVR ist mal wieder der looser... Schade :(

5 Jahre Exclusive für die Mali-GPUs ist aber schon extrem lange... man muss nur mal zurückdenken was bei Handys vor 5 Jahren state-of-the-art war.

die 2. News von gsmarena ist aber mal wieder ;D

Der zweite link ist fuer den :ass2:

Die GPU Entwicklung wurde vor einiger Zeit bei Sammy auf Eis gelegt, egal ob sie mal wieder Milliarden $ ins Klo gespuelt haben.

Es haette auch nicht anders sein koennen und wird sich auch wohl nach den naechsten 5 Jahren nichts daran aendern. Samsung LSI weigert sich hartnaeckig Lizenzgebueren zu bezahlen und ARM ist der einzige IP provider der es sich durch CPU/GPU bundle deals auch leisten kann ihnen solches zu schenken.

IMG weigert sich die Gebueren zu verschenken und deren multi-year multi-license Vertrag ist groesser und laenger mit Apple, als der fuer Samsung und nein es muss auch nicht alles an einen IP provider gehen. Glaub bloss nicht dass Sammy gar nichts von IMG lizenziert: http://blog.imgtec.com/mips-processors/iot-focused-samsung-artik-1-chip-is-powered-by-two-mips-cpus

Was man hier notieren sollte ist dass Sammy auch keinen Schiss hat von jeglichen Patentklagen sonst wuerden sie auch versuchen von einem solchen deal abzuweichen ;)

Avalox
2015-06-22, 21:12:51
Ganz interessanter Artikel zum Nutzungsprofil des aktuellen 8Kern big.LITTLE SoC.

mal zum anfeuern..

Chrome

http://cdn04.androidauthority.net/wp-content/uploads/2015/05/procstat-chrome-octacore-graphs-active-cores-710x363.jpg
http://cdn02.androidauthority.net/wp-content/uploads/2015/05/procstat-chrome-octacore-graphs-core-usage-710x381.jpg

http://www.androidauthority.com/galaxy-s6-octa-core-processor-usage-617585/

Ailuros
2015-06-23, 10:33:59
Netter Artikel. Wird wohl kein Zufall sein dass sie Epic Citadel fuer einige der gaming Resultate benutzt haben, welches alles andere als "GPU bound" ist welches der Author wohl nicht bemerkt hat :freak:

Sunrise
2015-06-29, 14:50:26
Wiedermal ein verdammt genialer Artikel von anandtech.com, der Samsung Exynos 7420 Deep Dive:
http://www.anandtech.com/show/9330/exynos-7420-deep-dive

Unbedingt lesen, absolut beeindruckend was Samsung da gebaut hat.

Mal gespannt, mit was Apple jetzt antanzt.

AffenJack
2015-06-29, 17:16:05
Hammer Artikel, bisher der beste SoC Test den ich überhaupt gelesen hab. Beleuchtet nen Haufen Sachen. Einzig schade, dass Apple bei den Tests fehlt und Nvidia hätte ich mir aus Interesse auch gewünscht, aber die sind ja in keinem Telefon zu finden.

Zum SoC, naja, nen Haufen hilft auch schlicht und einfach der Prozess, dessen Charakteriska wohl ziemlich gut sind. Aber trotzdem würde der SoC vollausgelastet mehr als 10W fressen. Finde ich immer total krass, wie stark die SoCs beim Handy eingebremst sind, aber kurzzeitig können die mittlerweile ja auch genug liefern.

Sunrise
2015-06-29, 19:02:23
Wenn du bedenkst, dass man bei dem Teil stark auf Fläche geachtet zu haben scheint (Yield) und das Ding satte 76% kleiner als der Vorgänger ist (und zudem bei der GPU und anderer IP auch noch aufgebohrt wurde), dann ist das schon beachtenswert.

Solch ein Design und die Endleistung auf unter 80mm^2 ist schon verdammt beeindruckend. Klar, ist jetzt auch kein Stromsparwunder, das wie bei Apple scheinbar den Takt auf lange Zeit halten kann, aber das sind ja auch ganz andere Designansätze, denn bei Apple machen wenige fette Cores ja alles.

Stell dir mal so ein Ding mit 8 fetten, großen Kernen und PowerVR Rogue 7 XT und 16 Cluster vor, da wäre man wohl noch unter 200mm^2 und ich will den Stromverbrauch auch nicht wissen. Perfekt für Konsolen wie Nintendos NX, da HBM und Co. wohl noch zu teuer werden.

Ravenhearth
2015-06-29, 22:52:47
Das Ding ist nicht 76%, sondern "nur" 44% kleiner als der Vorgänger. ;)

Ich bin echt gespannt was der 14LPP-Prozess bei höheren Frequenzen und größeren Chips im Allgemeinen liefert. *hust* AMD *hust*

maguumo
2015-06-29, 23:01:14
Das Ding ist nicht 76%, sondern "nur" 44% kleiner als der Vorgänger. ;)

Ich bin echt gespannt was der 14LPP-Prozess bei höheren Frequenzen und größeren Chips im Allgemeinen liefert. *hust* AMD *hust*

Ja. Sie schreiben allerdings auch das einzelne IP Blöcke wohl um 76% verkleinert werden konnten. Das ist wohl die wichtigere Angabe wenn man daraus auf den Prozess schließen will.

Sunrise
2015-06-29, 23:01:28
Das Ding ist nicht 76%, sondern "nur" 44% kleiner als der Vorgänger. ;)

Ich bin echt gespannt was der 14LPP-Prozess bei höheren Frequenzen und größeren Chips im Allgemeinen liefert. *hust* AMD *hust*
Ja, war etwas blöd formuliert, insgesamt 44%, jedoch bei einer Menge IP um die 70% und die GPU sogar 76%. 76% wäre ein wenig zu krass für den kompletten SoC. Jedenfalls scheinen sie da schon verdammt weit mit 14nm zu sein, da sollte einem 10nm Samsung SoC für Ende 2016 bzw. Anfang 2017 wie beim 6er Galaxy nichts im Wege stehen.

mboeller
2015-06-30, 07:29:51
Wiedermal ein verdammt genialer Artikel von anandtech.com, der Samsung Exynos 7420 Deep Dive:
http://www.anandtech.com/show/9330/exynos-7420-deep-dive

Unbedingt lesen, absolut beeindruckend was Samsung da gebaut hat.

Mal gespannt, mit was Apple jetzt antanzt.

Besonders interessant ist für mich der Vergleich zw. 14nm und 28nm... daran kann man erkennen wie gut die neuen Nvidia und AMD GPUs werden könnten. Ist schließlich der gleiche Prozess.

Anscheinend konnten sie zB. die GPU vom Platzbedarf halbieren. 30mm² in 28nm und (bei MP6) 14.2mm² bei 14nm. Der 5420 hat zwar eine T628MP6-GPU und der 7420 eine T760-GPU aber so groß dürften sich die nicht unterscheiden soweit ich das mitgekommen habe. Vor allem die Effizienz ist gestiegen, das Feature-set ist soweit ich mich erinnern kann gleich geblieben.

Es ist nur schade, das sie die Perf/W für den 5420 nicht auch noch mit in die Tabelle auf Seite 7 aufgenommen haben. http://www.anandtech.com/show/9330/exynos-7420-deep-dive/7
Anscheinend verdoppelt sich ja die Effizienz zw. 28nm und 14nm. Zumindest bei den geringeren Frequenzen für SoC GPUs. Bei höheren Frequenzen sind es immer noch 40% geringerer Verbrauch bei gleichem Takt bzw. 20% höherer Takt bei gleichem Verbrauch.

Ailuros
2015-06-30, 11:46:29
Besonders interessant ist für mich der Vergleich zw. 14nm und 28nm... daran kann man erkennen wie gut die neuen Nvidia und AMD GPUs werden könnten. Ist schließlich der gleiche Prozess.

Anscheinend konnten sie zB. die GPU vom Platzbedarf halbieren. 30mm² in 28nm und (bei MP6) 14.2mm² bei 14nm. Der 5420 hat zwar eine T628MP6-GPU und der 7420 eine T760-GPU aber so groß dürften sich die nicht unterscheiden soweit ich das mitgekommen habe. Vor allem die Effizienz ist gestiegen, das Feature-set ist soweit ich mich erinnern kann gleich geblieben.


http://www.anandtech.com/show/9330/exynos-7420-deep-dive

The total GPU size also went down by 30% - but keeping in mind that the 7420 has two additional shader cores over the 5433’s MP6 configuration this is also represents a big difference. A single T760 core on the 7420 comes in at 1.75mm², so if we would subtract 3.5mm² from the total area of 17.70mm², we’d end up with a total of 14.2mm for a hypothetical 14nm MP6 GPU – which then again would represent a massive 56% shrink over the Exynos 5433’s GPU if we assume things remained equal on shared common blocks.

This very large ~56%+ shrink of some of the main IP blocks points out that Samsung was not only able to take advantage of the theoretical shrink due to the process, but also further tweaked the physical implementation by either employing more efficient cell libraries or by optimizing the layout for density. When considering the above findings, we can now see how Samsung managed to achieve what is a rather lightweight SoC when looking at the historical die sizes of previous chipsets while still managing to stuff in two additional GPU cores and a LPDDR4 memory controller among other changes.



Es ist nur schade, das sie die Perf/W für den 5420 nicht auch noch mit in die Tabelle auf Seite 7 aufgenommen haben. http://www.anandtech.com/show/9330/exynos-7420-deep-dive/7
Anscheinend verdoppelt sich ja die Effizienz zw. 28nm und 14nm. Zumindest bei den geringeren Frequenzen für SoC GPUs. Bei höheren Frequenzen sind es immer noch 40% geringerer Verbrauch bei gleichem Takt bzw. 20% höherer Takt bei gleichem Verbrauch.

Wobei weder der 5420 als SoC noch Samsung's 28nm ein "Parade-Beispiel" ist wie im Vergleich der 7420 bzw. 14FF Prozess.

Ailuros
2015-09-02, 12:49:06
Ist zwar ein Artikel in dem es generell ueber CPU core count geht, aber es ist mir hier besser aufgehoben ;)

http://www.anandtech.com/show/9518/the-mobile-cpu-corecount-debate

Man braucht zwar Geduld es zu lesen, aber fuer die-hard techno freaks durchaus die Investition wert ;)

Avalox
2015-09-24, 15:15:50
Exynos 8890

http://www.androidheadlines.com/2015/09/alleged-benchmark-tests-show-power-exynos-8890.html

Nightspider
2015-09-24, 15:53:18
60% mehr SingleCore Leistung ist beachtlich und damit sollte man doch etwa auf Apple A9 Niveau liegen oder?

Die GPU Leistung muss auch ordentlich zunehmen, da Samsung nächstes Jahr 4K Displays verbauen will.

Avalox
2015-09-24, 16:29:43
60% mehr SingleCore Leistung ist beachtlich und damit sollte man doch etwa auf Apple A9 Niveau liegen oder?


Es wäre die erste ARM CPU, die die 8000 Punkte bei Geekbench knackt. Das ist schon ein Schuh.
Vielleicht kommt ja der Tegra X1 dann "über 9000"?

Ailuros
2015-10-07, 13:32:06
Wir brauchen oefters Stoff um uns zu amuesieren und Fudos Geschreibsel ist immer das beste dafuer: http://www.fudzilla.com/news/graphics/38952-samsung-own-mobile-gpu-aims-for-2017

Avalox
2015-10-07, 18:50:36
Ich hätte ja eher gedacht, dass Samsung der ist, welcher als erster neue mobile AMD GPU Kerne auf seinen SoC nutzt. Ist ja der Spekulationsthread.

Ailuros
2015-10-16, 10:48:57
Ist zwar fuer Sammy's 14FF Prozess/Foundry, aber wenn deren Prozess wirklich so toll ist, braucht man dann auch wirklich Preiskriege am Ende? http://www.fudzilla.com/news/processors/39021-tsmc-releases-low-power-16nm-finfet

Ailuros
2015-10-30, 21:12:55
http://vr-zone.com/articles/samsung-begin-exynos-8890-mass-production-next-month-claims-korean-report/101010.html

maguumo
2015-10-30, 23:36:38
Wenn sie vom "gleichen Prozess" sprechen meinen sie dann explizit LPE oder kann das auch LPP sein?

Ailuros
2015-10-31, 18:40:00
Wenn sie vom "gleichen Prozess" sprechen meinen sie dann explizit LPE oder kann das auch LPP sein?

Schwer zu beantworten denn ich hab persoenlich keine Ahnung. Wenn jemand die business korea Seite besuchen kann, kann er uns vielleicht sagen ob etwas spezifischeres darueber drinsteht.

Eigenes Bauchgefuehl tendiert auf LPE, muss aber nicht stimmen.

robbitop
2015-11-02, 14:16:39
Der Exynos 8 ist auch der erste Samsung SoC mit eigenen ARM Cores. Ich bin gespannt. Damit haben wir dann doch schon eine recht interessante Vielfalt in 2016:

- Apple mit der nächsten Ausbaustufe der Wirbelsturmkerne (evtl mit SMT)
- Samsung mit ihrem ersten Custom Core
- Qualcomm mit KRYOS
- NV mit Denver (hier bleibt spannend, ob man diesen wieder einbaut oder man zurück auf Standard ARM IP wechselt)
- ARMs A72

A72, KRYOS und Denver liegen nach dem was man so liest auf einem vergleichbaren IPC Niveau (GB3). Die Wirbelstürme sind ganz oben. Mal sehen wie sich Samsungs Kern so macht.

Ich würde aber meinen, wenn Exynos 8 und der Snapdragon 820 im GS7 verbaut sind, dass beide SoCs auf einem vergleichbaren Niveau liegen. War beim 800 vs Exynos 5 auch so.
Die 2300 Punkte im GB3 sollen mit 2,4 GHz erreicht werden. Twister (A9) schafft IIRC 2400 mit 1,8 GHz.

mboeller
2015-11-02, 16:50:53
Der Exynos 8 ist auch der erste Samsung SoC mit eigenen ARM Cores.

wenn die Gerüchte stimmen das Jim Keller jetzt bei Samsung arbeitet bzw. sie ihn angeworben haben dann würde ich nicht zu viel auf den jetzigen Custom-core von Samsung geben. Das Ding wird IMHO sehr wahrscheinlich eine Kröte. Andernfalls hätten sie Keller nicht schon jetzt, bevor ihr Custom-Core auf den Markt kommt an Land gezogen.

Blediator16
2015-11-02, 16:58:06
wenn die Gerüchte stimmen das Jim Keller jetzt bei Samsung arbeitet bzw. sie ihn angeworben haben dann würde ich nicht zu viel auf den jetzigen Custom-core von Samsung geben. Das Ding wird IMHO sehr wahrscheinlich eine Kröte. Andernfalls hätten sie Keller nicht schon jetzt, bevor ihr Custom-Core auf den Markt kommt an Land gezogen.

Er wurde bei AMD durch die Fertigstellung von Zen erst vor kurzem freigeworden schätze ich mal. Bevor er wieder in einem Projekt feststeckt, hat man sich ihn jetzt geschnappt.

Ailuros
2015-11-02, 21:01:29
Der Exynos 8 ist auch der erste Samsung SoC mit eigenen ARM Cores. Ich bin gespannt. Damit haben wir dann doch schon eine recht interessante Vielfalt in 2016:

- Apple mit der nächsten Ausbaustufe der Wirbelsturmkerne (evtl mit SMT)

Ich bin immer noch am A9 verdauen und hab es nicht so eilig.
- Samsung mit ihrem ersten Custom Core

*schnarch*

- Qualcomm mit KRYOS

*gaehn*

Wie waere es wenn beide obrigen zur Abwechslung einen voll balancierten SoC veroeffentlichen der nicht auf der einen oder anderen Seite bis zum kotzen throttelt und am liebsten auch mit etwas besserer sw zur Abwechslung ueberhaupt fuer QCOM?

- NV mit Denver (hier bleibt spannend, ob man diesen wieder einbaut oder man zurück auf Standard ARM IP wechselt)

Technologisch noch randmaessig interessant fuer ein paar geeks. Anwendungsgebiet ausserhalb Luxuskarren gering.

- ARMs A72

A72, KRYOS und Denver liegen nach dem was man so liest auf einem vergleichbaren IPC Niveau (GB3). Die Wirbelstürme sind ganz oben. Mal sehen wie sich Samsungs Kern so macht.

Ich bin eher auf die neuen ARM interconnects bzw. memory controllers gespannt und dann natuerlich ob es QCOM es mal wieder schafft einen anstaendigen MC zu entwickeln.

Ich würde aber meinen, wenn Exynos 8 und der Snapdragon 820 im GS7 verbaut sind, dass beide SoCs auf einem vergleichbaren Niveau liegen. War beim 800 vs Exynos 5 auch so.
Die 2300 Punkte im GB3 sollen mit 2,4 GHz erreicht werden. Twister (A9) schafft IIRC 2400 mit 1,8 GHz.

Ein Wettrennen welcher und wo mehr throttelt oder was? Es wird Zeit dass die moechtegern Android mobile Geraete reviewers endlich mal ihre Arbeit etwas ernster nehmen und zur Ausnahme wirklich durchdachte reviews ueber Produkte schreiben. In etwa so: https://forum.beyond3d.com/threads/so-you-want-to-review-an-android-device.57362/

Dass N Geraet bzw. SoC auf populaerem synthetischen benchmark X sehr gut laeuft ist um Lichtjahre nichtsaussagender als im desktop. Man optimiert dann einfach fuer eine Reihe an Bumsbenchmarks und sonst stottert das Geraet bis zum geht nicht mehr bei der einfachsten Aufgabe..... Eben weil das smartphone z.B. es natuerlich aushalten kann fuer ein paar Sekunden auf N peak Frequenzen zu steigen. Interessiert mich persoenlich aber die Bohne.

CrazyIvan
2015-11-03, 06:47:53
Hallo Ailuros,
ernstgemeinte Frage:
Wie kommt es, dass ich eigentlich ausschließlich von Dir höre, dass Qualcomm MCs so katastrophal sind? Ich meine, bei Anand und Konsorten kann ich mich an keinen Kommentar in diese Richtung erinnern. Wie äussert sich das? Ist es mess- oder gar spürbar?

mboeller
2015-11-03, 08:20:34
Hallo Ailuros,
ernstgemeinte Frage:
Wie kommt es, dass ich eigentlich ausschließlich von Dir höre, dass Qualcomm MCs so katastrophal sind? Ich meine, bei Anand und Konsorten kann ich mich an keinen Kommentar in diese Richtung erinnern. Wie äussert sich das? Ist es mess- oder gar spürbar?

spürbar... keine Ahnung; messbar... definitiv: http://mobilesemi.blogspot.de/ Vergleich mal die Scores von Qualcomm und Mediatek. IMHO ziemlich erschreckend.

Ailuros
2015-11-03, 08:32:00
Hallo Ailuros,
ernstgemeinte Frage:
Wie kommt es, dass ich eigentlich ausschließlich von Dir höre, dass Qualcomm MCs so katastrophal sind? Ich meine, bei Anand und Konsorten kann ich mich an keinen Kommentar in diese Richtung erinnern. Wie äussert sich das? Ist es mess- oder gar spürbar?

Eine grosse und ernsthafte Seite wie Anandtech wird Dir es nicht so leicht konstant unter die Nase binden weil man es eben schwer beweisen kann. Es gibt endlose Geruechte darueber im Hintergrund und genug Indizien aus Resultaten dafuer dass etwas mit dem MC sowohl im 805 als auch im 810 nicht stimmt. GPU Leistung leidet am meisten bei einem verkorksten MC und diese throttelt bis zum geht nicht mehr bei allem Adreno4xx bis jetzt, sogar so stark dass die Dinger oefters keine hoehere sustainable Leistung haben als Adreno330.

Weitere Indizien waeren auch hier: http://www.anandtech.com/show/9388/comparing-snapdragon-810-v2-and-v21

Geruechte dass die A57 cores angeblich zu viel Strom fressen halte ich fuer totalen Schwachsinn weil es nicht mal Indizien dafuer gibt. Ergo damit die obrige (nennen wir sie...) These als "nutzlos" abgestempelt wird, brauchen wir wohl eher eine neue These was genau am 810 und co. am Ende schuld war/ist. Irgend einen Vorschlag?

spürbar... keine Ahnung; messbar... definitiv: http://mobilesemi.blogspot.de/ Vergleich mal die Scores von Qualcomm und Mediatek. IMHO ziemlich erschreckend.

Dabei sollte man sich hauptsaechlich auf die Speicher-relativen Resultate konzentrieren ;)

robbitop
2015-11-03, 16:12:43
Das mit dem Throtteln ist nicht schön - für die CPUs im typischen ULP-Alltag aber OK. Da brauchst du einfach nur viel Peakleistung für kurze Zeit. Eine App starten, eine Webseite laden etc.

Zum 820 und zum Exynos 8 wissen wir noch nichts - insofern können wir diese noch nicht bewerten.

Was Samsung den Samsung Core angeht: Ein sehr guter CPU Core ist nicht von einer Person allein (Keller) abhängig. Samsung sollte genug Geld haben, sich auch andere sehr gute CPU Leute eingekauft zu haben. Wenn das GB3 Ergebnis stimmt, ist die IPC sicher nicht so schlecht. In etwa Cyclone IPC Niveau. Das hat AFAIK bisher noch niemand geschafft.

Ailuros
2015-11-03, 19:07:01
Mir ist lieber ich hab sagen wir mal 80% von N Leistung aber stotterfrei, stabil und durchgehend, als 100% mit allen moeglichen Wehwehchen. Der springende Punkt hier eben ist dass wir endlich aufhoeren sollten uns auf die sterile Leistungsnummern in ein paar benchmarks zu konzentrieren.

y33H@
2015-11-03, 19:34:40
Es wird Zeit dass die moechtegern Android mobile Geraete reviewers endlich mal ihre Arbeit etwas ernster nehmen und zur Ausnahme wirklich durchdachte reviews ueber Produkte schreiben. In etwa so: https://forum.beyond3d.com/threads/so-you-want-to-review-an-android-device.57362/Ich würde ja mal gerne von dir einen Test lesen, der sowohl inhaltlich technisch als auch journalistisch sauber ist. Beides zusammen ist nämlich nichts, was man einfach mal so aus dem Ärmel schüttelt, da es zwei große Bereiche vereint. Daher empfinde ich deine Aufforderung zwar als richtig, aber auch etwas von oben herab.

Ailuros
2015-11-04, 06:02:45
Ich würde ja mal gerne von dir einen Test lesen, der sowohl inhaltlich technisch als auch journalistisch sauber ist. Beides zusammen ist nämlich nichts, was man einfach mal so aus dem Ärmel schüttelt, da es zwei große Bereiche vereint. Daher empfinde ich deine Aufforderung zwar als richtig, aber auch etwas von oben herab.

Ich hab mich nie als "reviewer" praesentiert obwohl die paar Artikel die ich zusammengekritzelt hatte in der Vergangenheit fuer desktop GPUs mehr zu liefern hatten als jeglicher 0815-writeup damals. Nebu's letzter write-up bei Anandtech ist ein Parade-beispiel fuer das was Du wohl lesen willst und ich hab es ihm auch anerkannt.

Sonst muss wohl nach Deiner Logik jemand der Kritik fuer Singer schreibt auch gut singen koennen oder? Ja ich bin ein anspruchsvoller Leser mit einem guten Verstaendnis als Laie fuer die Materie, das hat aber nichts mit Ueberheblichkeit zu tun.

AffenJack
2015-11-04, 09:47:14
Mir ist lieber ich hab sagen wir mal 80% von N Leistung aber stotterfrei, stabil und durchgehend, als 100% mit allen moeglichen Wehwehchen. Der springende Punkt hier eben ist dass wir endlich aufhoeren sollten uns auf die sterile Leistungsnummern in ein paar benchmarks zu konzentrieren.

Nur hast du das bei keinem leider mittlerweile und da musst du nicht explizit auf Android drauf rumhacken, denn Apple ist mittlerweile nicht viel besser. Das Iphone 6 (GPU) throttelt wenigstens nur 28% laut Anandtechs Test, beim 6S sind es mittlerweile auch schon 38%. Der Unterschied zu den 50% bei QC etc. ist langsam leider nicht mehr groß.

Nebus Artikel der in die Tiefe geht ist wirklich gut, aber ist leider sehr aufwendig und interessiert nur eine kleine Leserschaft. Die normalen Artikel wie der I6S dagegen, zeigen auch bei Anandtech nicht viel, wie es um das Verhalten aussieht. Dazu schlussfolgert man auch noch falsch und sagt, dass Iphone throttelt kaum, obwohl die eigenen Messergebnisse gegenteiliges zeigen.

Ailuros
2015-11-04, 10:07:24
Nur hast du das bei keinem leider mittlerweile und da musst du nicht explizit auf Android drauf rumhacken, denn Apple ist mittlerweile nicht viel besser. Das Iphone 6 (GPU) throttelt wenigstens nur 28% laut Anandtechs Test, beim 6S sind es mittlerweile auch schon 38%. Der Unterschied zu den 50% bei QC etc. ist langsam leider nicht mehr groß.

Ich bin schon immer ein Android User und es geht hier eben NIRGENDS um Apple oder iOS. Die angeblichen 28 bzw. 38% fuer die GPU musst Du mir aber erstmal zeigen denn in TRex Onscreen sind es im schlimmsten Fall -13+% beim 6sPlus im letzten Anandtech review und -3+% fuers 6s:

59 fps fuer beide hier:
http://www.anandtech.com/show/9686/the-apple-iphone-6s-and-iphone-6s-plus-review/7

fast 51 fps fuers 6sPlus und 57+ fps fuers 6s nach den anand loops:
http://www.anandtech.com/show/9686/the-apple-iphone-6s-and-iphone-6s-plus-review/8

Es kann jeder Hersteller die jeweilige GPU bis zum erbrechen hochtakten und dafuer ist auch Apple keine Ausnahme. Nur weil sie es nicht machen throtteln sie auch weniger. Dieses macht aber QCOM und Samsung's Bescheisserei in benchmarks nicht unbedingt legitimer. Wer sich ein smartphone mit einem S810/805 gekauft hat, hat eben auf der Dauer unter 3D keine sehenswert schnellere GPU als bei vorigen QCOM SoCs; man kann zwar glauben dass es die Kundschaft nicht bemerkt hat, aber so daemlich sind sie nun auch wieder nicht.

Wuerde Apple die A9 GPU auch auf 772MHz takten wie der 7420 seine GPU waere die erste fast genauso schnell in Manhattan wie die Maxwell GPU im X1. Scheissegal dass sie dann wohl im long term performance test (TRex onscreen) total abkacken wuerde.

Looking at GFXBench, which is an infinite loop of the T-Rex on-screen benchmark to approximate intensive video gaming we see that the iPhone 6s doesn’t last very long either, but the performance throughout the test is incredible. Due to 1334x750 display resolution and strong GPU, the iPhone 6s manages to last the entire test without any notable throttling, and effectively pegged at the refresh rate of the display. The iPhone 6s Plus manages a similar level of performance but over time you can start to see some throttling, likely a function of the longer runtime and higher display resolution.

Dabei sind es um einiges mehr als die 30 loops die Gfxbench normalerweise durchlaufen laesst fuer die -50% in akkuten Faellen.

Nebus Artikel der in die Tiefe geht ist wirklich gut, aber ist leider sehr aufwendig und interessiert nur eine kleine Leserschaft. Die normalen Artikel wie der I6S dagegen, zeigen auch bei Anandtech nicht viel, wie es um das Verhalten aussieht. Dazu schlussfolgert man auch noch falsch und sagt, dass Iphone throttelt kaum, obwohl die eigenen Messergebnisse gegenteiliges zeigen.

Dann zeig uns doch wieso die Resultate angeblich so "deutlich" sind; sag bloss nicht dass Du auch mit die Batterie Resultate mit TRex Offscreen Resultaten verglichen hast......:eek: :freak:

Undertaker
2015-11-04, 10:20:13
Super. :freak: Der tolle Throttling-Test von Anandtech ist ein Witz, weil der Onscreen-Modus bei 60fps gedeckelt ist. Nur schafft das iPhone 6s schon in 1080p gut 80 fps. Klar kann man da 60fps bei 750p ewig loopen lassen ohne das es throttelt, wenn die GPU kaum mit halber Kraft arbeiten muss. Denkt da überhaupt irgendjemand mal mit? :freak:

Edit: Das größere iPhone 6s Plus rendert ja On- und Offscreen in gleicher Auflösung: Offscreen erster Run: 80 fps. Onscreen nach 3h: 50 fps. 38 Prozent Leistungsverlust, die wurden ja hier auch schon erwähnt.

Ailuros
2015-11-04, 10:28:56
Super. :freak: Der tolle Throttling-Test von Anandtech ist ein Witz, weil der Onscreen-Modus bei 60fps gedeckelt ist.

Kishonti entwickelt ihre benchmarks in Zusammenarbeit mit allen IHVs und die Entscheidung bei vsync zu bleiben ist alles andere als absurd. Es verbraucht weniger Strom eben dank vsync.

Nur schafft das iPhone 6s schon in 1080p gut 80 fps. Klar kann man da 60fps bei 750p ewig loopen lassen ohne das es throttelt, wenn die GPU kaum mit halber Kraft arbeiten muss. Denkt da überhaupt irgendjemand mal mit? :freak:

Dann wende Dich an Kishonti wieso sie den test so entwickelt haben. Der Test ist uebrigens GLEICH fuer alle GPUs. Wenn bei vsync eine GPU schon um 50% throttelt dann gute Nacht wenn der Test offscreen waere. Ja wir denken schon aber eben nicht so wie es Dir gerade passen sollte.

Edit: Das größere iPhone 6s Plus rendert ja On- und Offscreen in gleicher Auflösung: Offscreen erster Run: 80 fps. Onscreen nach 3h: 50 fps. 38 Prozent Leistungsverlust, die wurden ja hier auch schon erwähnt.

Den Denkfehler muesst Ihr wohl beide selber entdecken.

***edit: dass das 6s Plus in diesem test um ganze 10% mehr throttelt als das 6s ist alles andere als ein Zufall.
******edit: sonst on topic und ausserhalb von allem Apple: http://www.anandtech.com/show/9330/exynos-7420-deep-dive/7 genauer geht es wohl schwer....

Undertaker
2015-11-04, 10:46:33
Den Denkfehler hast du. Das iPhone 6s rendert im "Throttling-Test" lachhafte 1344 x 750 Pixel und muss folglich – anders als andere High-End-Smartphones mit typischerweise aktuell 2560 x 1440 Pixel – nur rund 1/4 der Pixel berechnen. Dies wird nicht über die Framerate ausgeglichen, da diese bei 60 fps gekappt ist. Ergo: Die GPU dreht Däumchen. Damit disqualifiziert sich dieser Test für einen GPU- bzw. Throttling-Vergleich von vornherein. Denk mal in Ruhe darüber nach. :)

Ailuros
2015-11-04, 11:01:03
Den Denkfehler hast du. Das iPhone 6s rendert im "Throttling-Test" lachhafte 1344 x 750 Pixel und muss folglich – anders als andere High-End-Smartphones mit typischerweise aktuell 2560 x 1440 Pixel – nur rund 1/4 der Pixel berechnen. Dies wird nicht über die Framerate ausgeglichen, da diese bei 60 fps gekappt ist. Ergo: Die GPU dreht Däumchen. Damit disqualifiziert sich dieser Test für einen GPU- bzw. Throttling-Vergleich von vornherein. Denk mal in Ruhe darüber nach. :)

Wenn ich zu lange darueber nachdenke und zu viel darueber poste musst Du auch zu lange im forum bleiben :P

MaliT760MP8/E7420:
https://gfxbench.com/device.jsp?benchmark=gfx31&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=ARM%20Mali-T760%20MP8%20%28octa%20core%29&did=27341261&D=Meizu%20Pro%205

52,7 onscreen, 57,3 offscreen beides bei 1080p, nur gibt es leider dafuer kein eingetragenes long term performance Resultat. Die GPU im 7420 laeuft nicht bei peak 772MHz in TRex (nur in Manhattan) sondern bei 700MHz. Bei 400MHz wo sie wohl steckenbleiben wird nach ein paar loops (liess dafuer Nebus' deep dive link oben durch) werden es irgendwo um die 30 fps in dem Fall sind und nicht mehr.

Es gibt kein einziges Spiel dass ohne vsync laueft und gerade deshalb muss ein solcher test auch so realistisch wie moeglich sein. Am Ende ist in TRex onscreen/long term performance ein 6s Plus auf die Dauer um ueber 60% schneller als ein Meizu Pro 5 obwohl die GPUs von beiden auf die Dauer auf relativ vergleichbaren Frequenzen takten.

***edit: Manhattan onscreen in loops zu schicken als Alternative ist Bloedsinn. Jedes 2-3GB Geraet kackt nach 10 loops raus mit einer "out of memory" Meldung. Koennt Ihr selber nachverfolgen bei Zweifel :P

Undertaker
2015-11-04, 11:09:44
Ich habe nirgends gesagt das andere nicht oder gar weniger throtteln, sondern nur, dass der Test für das iPhone 6s sinnlos ist, da die GPU erheblich throtteln kann, ohne das man es durch das 60 fps Limit bemerken würde. Dass das größere (und damit tendenziell besser gekühlte) iPhone 6s Plus auf 50 fps fällt und damit gegenüber dem Offscreen-Test in gleicher Auflösung rund 38 Prozent Leistung verliert, ist dafür ein sehr eindeutiges Zeichen.

Oder drehen wir es mal um, da du gerade den Exynos angebracht hast: Stecken wir den in ein Smartphone mit 750p Display, wird der auch kaum oder gar nicht mehr unter die 60 fps im "Throttling-Test" fallen, weil selbst gedrosselt noch genug Leistung bereitsteht. Jetzt frage dich, was dieser Test also über den SoC aussagen kann (sofern dieser ein gewissen Leistungslevel übersteigt).

AffenJack
2015-11-04, 11:20:12
Wir sollten gleichmal den Thread zu Apple wechseln.


52,7 onscreen, 57,3 offscreen beides bei 1080p, nur gibt es leider dafuer kein eingetragenes long term performance Resultat. Die GPU im 7420 laeuft nicht bei peak 772MHz in TRex (nur in Manhattan) sondern bei 700MHz. Bei 400MHz wo sie wohl steckenbleiben wird nach ein paar loops (liess dafuer Nebus' deep dive link oben durch) werden es irgendwo um die 30 fps in dem Fall sind und nicht mehr.


Normal sollte Onscreen gleich Offscreen oder nur ein geringer Unterschied sein. Das Iphone 6Plus fällt aber von 80FPS auf 51FPS. Das sind nunmal 38%. Die Frequenzen sind mir egal. Weiß man wieviel das 6s nun etwa taktet? Sagen wir ~ 450mhz bei 80FPS. Dann startet das Iphone, weil es sich bei Vsync bestimmt runtertaktet schon nur bei ~340mhz bei dem Test, den es für 60FPS braucht. Aber selbst diese 340mhz kann es nicht halten und fällt auf ~290mhz. Bessere Tests haben wir im Moment leider nicht, aber dieser Test verspricht auch keine tolle Sustained Performance bei Apple.

Ailuros
2015-11-04, 11:43:16
Ich habe nirgends gesagt das andere nicht oder gar weniger throtteln, sondern nur, dass der Test für das iPhone 6s sinnlos ist, da die GPU erheblich throtteln kann, ohne das man es durch das 60 fps Limit bemerken würde. Dass das größere (und damit tendenziell besser gekühlte) iPhone 6s Plus auf 50 fps fällt und damit gegenüber dem Offscreen-Test in gleicher Auflösung rund 38 Prozent Leistung verliert, ist dafür ein sehr eindeutiges Zeichen.

Die zwei tests sind nach wie vor nicht vergleichbar. Das Plus verfaellt von 59 fps onscreen im long term test auf 50 fps. Vorgaenger bei genau gleicher display Aufloesung, gleicher GPU Frequenz: https://gfxbench.com/device.jsp?benchmark=gfx31&os=iOS&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A8%20GPU&did=22419489&D=Apple%20iPhone%206%20Plus

Eine These waere dass Apple im A9 die GPU fuer den long term performance test absichtlich zu weit heruntertaktet, aber dafuer muesste dann der benchmark auch eine um einiges laengere Batterie-Laufzeit einschaetzen.

Oder drehen wir es mal um, da du gerade den Exynos angebracht hast: Stecken wir den in ein Smartphone mit 750p Display, wird der auch kaum oder gar nicht mehr unter die 60 fps im "Throttling-Test" fallen, weil selbst gedrosselt noch genug Leistung bereitsteht. Jetzt frage dich, was dieser Test also über den SoC aussagen kann (sofern dieser ein gewissen Leistungslevel übersteigt).

Im gegebenen Fall sagen diese tests momentan nur aus, dass ULP GPUs dieser Art so weit hoch zu takten eine totale Schnappsidee ist von den SoC Herstellern weil sie eben auch in Echtzeit so brutal throtteln werden und es auch tun. Denn am Ende throttelt die 7420 GPU doch wohl schon bewiesen nach einiger Zeit auf irgendwo 400+MHz runter, nur ist der Abstand eben um einiges groesser zu peak 772 als zu 533MHz.

Es sind nach wie vor smartphone SoCs und es ist auch nicht so dass es nicht in Anand oder anderen ernsthafteren reviews nicht erwaehnt wird dass QCOM und Samsung zu aggressive mit peak GPU Frequenzen ankommen um konkurrenzfaehiger zu erscheinen, aber dieses spiegelt eben NICHT realistische Echtzeit-Leistung auf die Dauer wieder. Schon gar nicht wenn alles ausserhalb benchmarks nur mit vsync laeuft.

Nein Kishonti und andere benchmark Entwickler sollten solche Tests abschaffen da in diesem Bereich die Leistung offensichtlicher wichtiger ist als die Kombination Leistung/Verbrauch und Hersteller freie Bahn brauchen um zu bescheissen.

Sonst bitteschoen User-Resultate:

https://forum.beyond3d.com/posts/1873227/

Es eben NICHT so dass i-Geraete NICHT throtteln, aber eben NICHT zu 50%. Irgendwo unter 20% throtteln alle i-Geraete bzw. alle smartphone/tablet GPUs wo nicht zu hoch getaktet wird.


Normal sollte Onscreen gleich Offscreen oder nur ein geringer Unterschied sein. Das Iphone 6Plus fällt aber von 80FPS auf 51FPS. Das sind nunmal 38%. Die Frequenzen sind mir egal. Weiß man wieviel das 6s nun etwa taktet? Sagen wir ~ 450mhz bei 80FPS. Dann startet das Iphone, weil es sich bei Vsync bestimmt runtertaktet schon nur bei ~340mhz bei dem Test, den es für 60FPS braucht. Aber selbst diese 340mhz kann es nicht halten und fällt auf ~290mhz. Bessere Tests haben wir im Moment leider nicht, aber dieser Test verspricht auch keine tolle Sustained Performance bei Apple.

Nochmal wenn das 6sPlus so weit runter takten wuerde, muesste der long term performance test im Gfxbench3.x nach 30 loops um einiges hoehere Batterie-Laufzeit einschaetzen als beim iPhone6 Plus/A8. Peak ist sowohl fuer GX6450 und GT7600 bei 533MHz afaik.

AffenJack
2015-11-04, 18:43:03
Nochmal wenn das 6sPlus so weit runter takten wuerde, muesste der long term performance test im Gfxbench3.x nach 30 loops um einiges hoehere Batterie-Laufzeit einschaetzen als beim iPhone6 Plus/A8. Peak ist sowohl fuer GX6450 und GT7600 bei 533MHz afaik.

Nicht wenn der Peakverbrauch einfach höher wäre. Aber ist auch egal, weiß nun woran das liegt. Hab vergessen, dass das Iphone Plus ja immer in 2208x1242 rendert bei Onscreen und nur auf HD runterskaliert. Dementsprechend fällt es von 60,5Fps die es haben sollte auf 51 Fps. Das geht dann wieder klar.

Ailuros
2015-11-04, 20:25:01
Nicht wenn der Peakverbrauch einfach höher wäre. Aber ist auch egal, weiß nun woran das liegt. Hab vergessen, dass das Iphone Plus ja immer in 2208x1242 rendert bei Onscreen und nur auf HD runterskaliert. Dementsprechend fällt es von 60,5Fps die es haben sollte auf 51 Fps. Das geht dann wieder klar.

Wenn der peak-Verbrauch hoeher waere haetten sie eine ziemliche Bohne entwickelt. Die Dinger verhalten sich aehnlich egal ob A7, A8, A8X oder A9 und man kann es auch bis jetzt relativ parallelisieren da es sich bei allen um fast gleiche Frequenzen handelt. Es wird auch wieder dauern bis sich die Treiber voll ausgebuegelt haben. Ich sagte dass die Dinger meistens irgendwo unter 20% throtteln im uebelsten Fall, wobei aber Demi im Apple thread auch wohl leider recht hat dass man trotzdem den Dingern nichts wirklich anspruchsvolles zutrauen kann bei der Hitze die generiert wird mit der Zeit. Bei anderen ist es eben leider nur radikaler. Kein Wunder man muss sich zum Grossteil mit Farm Heroes Saga und co. begnuegen und danach die Sintflut.

Um aber den Bogen zu machen zu dem auf das ich eigentlich hinauswollte: ich will zunehmend mehr tiefere Analysen fuer Android-Geraete lesen, am besten mehr und mehr mainstream und auch low end smartphones ueberhaupt Schnickschnack aus China. Je mehr Schmerz- und Kritik-punkte zur Oeffentlichkeit kommen desto mehr werden sich Hersteller gezwungen sehen sich daruber zu beugen. Wenn reviewer nur Geekbench, 3dmark und dergleichen Resultate in einen review stecken na dann gute Nacht, da geht es natuerlich schoen weiter mit dem unendlichen Teufelskreis. Anand hatte einen review ueber ein Meizu im vorigen Jahr, aber wir brauchen mehr. Der chinesische Kram hat hw-maessig durchaus potential fuer Preis-/Leistung, es stinkt dann leider meistens an der sw. Wieso wohl Hauptsache N Punkte in Geekbench und dem Antutu Scheiss gut genug sind am Ende....

Avalox
2015-11-05, 12:35:36
Kennt noch jemand den alten Passmark Bench,

ich war ganz überrascht, dass die Ergebnisse scheinbar sehr aktuell gepflegt werden.

Ist irgendwo zu lesen, was Passmark eigentlich im Detail wie testet?


https://www.cpubenchmark.net/images/midlow_range_thumbnail.jpg

http://www.androidbenchmark.net/cpumark_chart.html

Ailuros
2015-11-11, 18:21:18
http://semiaccurate.com/2015/11/09/guess-just-shuttered-entire-mobile-gpu-team/

http://semiaccurate.com/2015/11/09/details-gpu-team-layoffs-emerge/

??? oder doch ein anderer IHV? Samsung waere IMHO der moeglichste Kandidat momentan.

AffenJack
2015-11-11, 18:32:43
Hab mich erst bei SA in den Comments verlesen, da meinte ja nur nen nicht Subscriber es wäre AMD. Aber ansonsten macht in der Tat nur Samsung Sinn.

Ailuros
2015-11-11, 19:22:49
Hab mich erst bei SA in den Comments verlesen, da meinte ja nur nen nicht Subscriber es wäre AMD. Aber ansonsten macht in der Tat nur Samsung Sinn.

AMD hat nichtmal ein "mobile GPU team" zumindest wie es wohl Charlie versteht.

Unicous
2015-11-11, 22:32:22
Hab mich erst bei SA in den Comments verlesen, da meinte ja nur nen nicht Subscriber es wäre AMD. Aber ansonsten macht in der Tat nur Samsung Sinn.

Derjenige hat sicherlich nur die tags gesehen, bei denen auch "amd" steht...aber z.B. auch "Austin" und da Samsung da auch das "ein oder andere":wink: Büro hat,könnte es sich durchaus um Samsung handeln. Was Charlie da wieder gehört haben will, möchte ich aber gerne mal wissen.;)

Ailuros
2015-11-12, 07:34:03
Hat er mir schon seit einer Ewigkeit vertraulich erzaehlt. Er konnte es wohl jetzt als insider info sichern? Wenn es wirklich Samsung ist, dann ist der Flop etliche Milliarden schwer und es darf sich QCOM fuer die naechsten Jahre wieder die Haende reiben, da Sammy wohl wieder ihre roadmap total umgekrempelt hat.

Label
2015-11-12, 09:45:39
ganz frisch aus den Anand-news:

Samsung Exynos 8890 mit ARM Mali T880MP12 (http://www.anandtech.com/show/9781/samsung-announces-exynos-8890-with-cat1213-modem-and-custom-cpu)

Ailuros
2015-11-12, 09:52:03
Aus dem obrigen link:

Samsung follows MediaTek's example by dropping the use of ARM's CCI IP in favour of designing their own cache-coherent interconnect fabric aptly named SCI (Samsung Coherent Interconnect). It seems that vendors are keen to try to improve their SoC architectures by designing fully optimized SoC fabric solutions and I guess Samsung saw the need to differentiate in this regard.

Thumbs up Sammy :)

Sunrise
2015-11-12, 11:35:11
Der Mali T880 kommt bei etwa 40% besserer Effizienz bei identischem Workload ggü. dem T760 und mit 14nm LPP kombiniert und 50% höherer ALU-Konfiguration dann wohl etwa auf den identischen Strombedarf (Milchmädchen) bei ordentlich Mehrleistung.

Bei der CPU tut sich jedoch endlich mal was und wenn ich mir den neuen Interconnect so anschaue, das zusätzliche Modem und evtl. noch die Zusatzbeschleuniger für 4K, dann wird das ein ziemlich rundes, brachial schnelles Paket.

Hier gibt es natürlich wie immer einen Haken, denn ich rechne anhand dieser Daten weiterhin nicht damit, dass das Ding weit weniger throtteln wird, da man sich entschieden hat hier wieder voll auf Performance zu gehen, was im Hinblick auf GearVR und Android Leadership aber auch zu erwarten war.

Den Performance-Vorteil von 14nm LPP nutzt man wohl hauptsächlich für die CPU.

Ailuros
2015-11-12, 12:01:16
Ist zwar eher fuer den ARM Mali thread geeignet (sprich Samsung hat nichts damit zu tun), aber ich will hoffen dass Mimir einen ziemlich grossen Abstand zur heutigen Midgaard Generation haben wird ueberhaupt was die ALUs betrifft. Raus mit dem FP64 Mist welches nur unnoetig Strom frisst (dedizierte optionale FP64 Einheiten waeren am besten) und endlich eine stinknormale USC ALU an dessen config der normalsterbliche auch dran erinnern kann.

Sonst ist die gute Nachricht hier der eigene interconnect. Wenn sie ihre Hausaufgaben richtig gemacht haben, koennte es auch um allein durch diesen weniger Strom verbrauchen.

dildo4u
2015-11-29, 11:57:23
Exynos 8890 Antutu Score

http://www.pcgameshardware.de/Galaxy-S7-Smartphone-261174/News/Exynos-8890-extrem-hohe-Leistung-AnTuTu-Benchmark-1179366/

Andrei
2015-11-29, 14:22:04
Exynos 8890 Antutu Score

http://www.pcgameshardware.de/Galaxy-S7-Smartphone-261174/News/Exynos-8890-extrem-hohe-Leistung-AnTuTu-Benchmark-1179366/
lol, das benchmark ist *nicht* Antutu. Scham PCGH, Scham!

Ailuros
2015-12-14, 14:03:47
http://www.fudzilla.com/news/graphics/39458-samsung-s-gpu-doesn-t-do-well

Fudo mal wieder am Werk....ok der Kerl ist wirklich unglaublich. :freak:

y33H@
2015-12-14, 14:58:53
Link ihn halt nimmer ;-)

Unicous
2015-12-14, 16:06:16
Dafür gibt es von mir aber Props für

A laa dee dee, a one two three its Samsung's Larrabee

:biggrin:

Ailuros
2015-12-15, 07:54:41
Link ihn halt nimmer ;-)

Und mit was soll ich mich dann amuesieren? :P

Ailuros
2016-02-22, 06:57:06
http://www.anandtech.com/show/10075/early-exynos-8890-impressions

Noch sehr frueh, aber ich bin besonders neugierig auf einen deep dive von Anandtech ueber die M1 custom CPU.

deekey777
2016-02-23, 09:46:47
Korrigiert mich:
Während das kleine Mediatek P20 2 T880 hat, hat der Eskimo 8890 12?

Ailuros
2016-02-23, 10:56:54
Korrigiert mich:
Während das kleine Mediatek P20 2 T880 hat, hat der Eskimo 8890 12?

P steht fuer "performance" bei MTK welches eher mainstream bei anderen entspricht. Ja der P20 hat eine 2 cluster T880 GPU bei 900MHz und der Exynos 8890 hat eine 12 cluster T880 GPU die bei 650MHz taktet.

12 cluster klingen bei Malis nur "viel" weil ihre clusters zu daemlich ausgelegt sind und sie pro cluster nur eine TMU haben. Im Endeffekt hat die 8890 GPU genauso viele TMUs wie die Apple A9 GPU.

Ailuros
2016-02-29, 10:39:58
http://www.fudzilla.com/news/mobile/40071-heat-pipes-in-smartphones-could-be-the-next-big-thing

Oh wie schoen....:freak:

y33H@
2016-03-08, 19:03:55
Exynos 8890 im Galaxy S7 (non-Edge) =)

--------------

20 Minuten Browsing, Geekbench, 3DMark und Riptide GP2

55143

20 Minuten Geekbench Thermal Test

55144

20 Minuten T-Rex im Loop

55145

Nightspider
2016-03-08, 19:35:52
Sehr schöne Performance imo.

Ich finds immer nur extrem schade das die schönen SoCs nicht auch ins Tablet wandern bei Samsung.

Galaxy Tab S3 mit Exynos 8890 wäre mal eine Wohltat.

Ailuros
2016-03-11, 19:45:22
Zur Verteidigung von QCOM's Adreno530 scheint dieser nicht mehr als ~10% zu throtteln bei den ersten tests. Der Mali T880MP12 scheint im Gegensatz mal wieder ziemlich beschissen dazustehen:

https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=ARM%20Mali-T880&did=29889191&D=Samsung%20Galaxy%20S7%20edge%20(Mali-T880%2C%20SM-G935x)

TRex onscreen: 53.7 fps
Long term performance: 26.0 fps

https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=ARM%20Mali-T880&did=30541579&D=Samsung%20Galaxy%20S7%20(Mali-T880%2C%20SM-G930x)

TRex onscreen: 53.5 fps
Long term performance: 37.2 fps

Mal sehen was sie in der Zwischenzeit wieder weg-optimieren werden im spezifischen test.

Das gute ist dass Kishonti dabei ist einen long term performance test auf Manhattan3.1 Basis einzufuehren.

y33H@
2016-03-11, 19:54:06
Hui, das ist ein krasser Unterschied. Weil die CPU-Cores des Exynos drosseln nicht so krass - blöd nur, wenn es stattdessen die GPU macht :usad:

Ailuros
2016-03-11, 20:05:52
Hui, das ist ein krasser Unterschied. Weil die CPU-Cores des Exynos drosseln nicht so krass - blöd nur, wenn es stattdessen die GPU macht :usad:

Wobei der MP12 im S7 sehenwert niedriger taktet als der MP8 im S6.

mczak
2016-03-11, 20:28:43
Also die Adreno 530 Resultate beim S7 edge sind auch nicht besser:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20%28TM%29%20530&did=30540880&D=Samsung%20Galaxy%20S7%20edge%20%28SM-G935x%29

Das Long-time Resultat ist praktisch identisch mit dem S7 edge Exynos (bei etwas kürzerer Laufzeit, der Unterschied ist aber so sicher nicht statistsch relevant).
Interessanterweise ist der "normale" Onscreen-Test beim SD 820 15% tiefer bei T-Rex als beim Exynos 8890, obwohl der Offscreen-Test gleichauf liegt. Das macht so keinen Sinn (edit: es sei denn das tiefere Resultat ist throttling-bedingt).

Ich hatte ja so meine Zweifel geäussert ob diese 12 Cluster der Mali 880 beim Exynos 8890 wirklich Sinn machen als das erstmals bekannt wurde (aufgrund von Skalierungsüberlegungen gegenüber dem Vorgängermodell). Scheinbar lag ich da nicht falsch, 8 hätten's auch getan. Etwas ähnliches scheint aber auch für den SD 820 zu gelten... Na gut vielleicht finden die Chips ja auch mal ein Plätzchen in einem Tablet...

Ailuros
2016-03-11, 20:35:53
Also die Adreno 530 Resultate beim S7 edge sind auch nicht besser:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20%28TM%29%20530&did=30540880&D=Samsung%20Galaxy%20S7%20edge%20%28SM-G935x%29

Ich hatte das hier im Hinterkopf: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20(TM)%20530&did=29391975&D=Xiaomi%20MI%205

....wobei Xiaomi total andere Treiber zu benutzen scheint.

Das Long-time Resultat ist praktisch identisch mit dem S7 edge Exynos (bei etwas kürzerer Laufzeit, der Unterschied ist aber so sicher nicht statistsch relevant).
Interessanterweise ist der "normale" Onscreen-Test beim SD 820 15% tiefer bei T-Rex als beim Exynos 8890, obwohl der Offscreen-Test gleichauf liegt. Das macht so keinen Sinn.

Ich hatte ja so meine Zweifel geäussert ob diese 12 Cluster der Mali 880 beim Exynos 8890 wirklich Sinn machen als das erstmals bekannt wurde (aufgrund von Skalierungsüberlegungen gegenüber dem Vorgängermodell). Scheinbar lag ich da nicht falsch, 8 hätten's auch getan. Etwas ähnliches scheint aber auch für den SD 820 zu gelten... Na gut vielleicht finden die Chips ja auch mal ein Plätzchen in einem Tablet...

Wir werden in naechster Zeit sowieso weisser was long term performance tests betrifft; ueberhaupt wenn wie schon erwaehnt die ersten Manhattan3.1 Resultate fuer long term tests erscheinen.

Dass generell die 530 und MaliT880MP12 ueberdimensoniert sind fuer smartphone GPUs sollte klar sein.

mczak
2016-03-11, 20:42:53
Ich hatte das hier im Hinterkopf: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Qualcomm%20Adreno%20(TM)%20530&did=29391975&D=Xiaomi%20MI%205

Das taugt aber nicht für Throttling-Vergleich, denn das hat "nur" (so als Nebenbemerkung ich halte das für einen Vorteil) ein Full-HD Display, das Onscreen-Resultat klebt demzufolge am Vsync-Limit, deswegen das scheinbar geringe Throttling.

Ailuros
2016-03-11, 20:58:03
Das taugt aber nicht für Throttling-Vergleich, denn das hat "nur" (so als Nebenbemerkung ich halte das für einen Vorteil) ein Full-HD Display, das Onscreen-Resultat klebt demzufolge am Vsync-Limit, deswegen das scheinbar geringe Throttling.

Tja dann ist wohl Samsung selber schuld dass sie >1080p im S7 benutzt haben :P

mczak
2016-03-12, 03:27:36
Hui, das ist ein krasser Unterschied. Weil die CPU-Cores des Exynos drosseln nicht so krass - blöd nur, wenn es stattdessen die GPU macht :usad:
Ist im Uebrigen uberhaupt nichts neues, das S6 edge erreicht in dem Test Langzeit bloss 45% der Peakleistung, beim S7 edge sind es schon 48% - eine klare Verbesserung also ;-).
(Spass beiseite die absoluten Zahlen sind immerhin sehr deutlich höher also eine ganz klare Verbesserung bei Perf/W - ist ja immerhin ein ähnlicher Herstellungsprozess. Das war aber auch wirklich dringend nötig denn selbst der vielgescholtene SD 810 hatte da eine effizientere GPU und das bei schlechterem Fertigungsprozess. Mein neues Lieblingsforenobjekt, der SD 650 mit der Adreno 510 erreicht im Langzeittest etwa dieselbe Performance wie der Exynos 7420 und das bei ziemlich sicher massiv geringerem Stromverbrauch (auch wenn die Akkus sowohl des Galaxy A9 wie auch des Redmi Note 3 (India Edition) gross sind) anhand der Laufzeiten, denn der Chip zeigt zumindest in den bis jetzt gelisteten Geräten überhaupt keine Anzeichen von GPU-Throttling, und das alles ebenfalls mit einem deutlichen Fertigungsnachteil.)

Andrei
2016-03-12, 16:32:58
Der Mi5 throttlet die GPU nicht. Dafür kannst du was auf dem Gerät braten.

mczak
2016-03-12, 17:01:50
Der Mi5 throttlet die GPU nicht. Dafür kannst du was auf dem Gerät braten.
Wie schon gesagt, das ist einfach nicht wahr. Throttelt praktisch genau so stark, nur aufgrund des FullHD Displays sieht es aus als wäre da fast kein Throttling vorhanden - im Vergleich zum Offscreen-Test (ist ja auch FullHD) hat man aber trotzdem nur 60% der Performance. Und da der Wert immer noch nahe beim vsync-Limit ist sieht man da womöglich noch nicht ganz das maximal mögliche Throttling (wobei es natürlich schon sein kann dass dieses Modell auf Kosten höherer Temperaturen etwas weniger throttelt - wir reden hier aber nicht von einem komplett anderen Verhalten).

Andrei
2016-03-12, 17:13:28
Wie schon gesagt, das ist einfach nicht wahr. Throttelt praktisch genau so stark, nur aufgrund des FullHD Displays sieht es aus als wäre da fast kein Throttling vorhanden - im Vergleich zum Offscreen-Test (ist ja auch FullHD) hat man aber trotzdem nur 60% der Performance. Und da der Wert immer noch nahe beim vsync-Limit ist sieht man da womöglich noch nicht ganz das maximal mögliche Throttling (wobei es natürlich schon sein kann dass dieses Modell auf Kosten höherer Temperaturen etwas weniger throttelt - wir reden hier aber nicht von einem komplett anderen Verhalten).
Na dann, wenn du es besser weißt, was labere ich hier denn noch rum.

mczak
2016-03-12, 19:38:36
Na dann, wenn du es besser weißt, was labere ich hier denn noch rum.
Wenn du die Fakten nicht überprüfst, kann ich dir auch nicht helfen. Es ist nun mal schwierig gegen Tatsachen zu argumentieren, auch wenn das manche tatsächlich relativ erfolgreich praktizieren.

Andrei
2016-03-13, 00:16:53
Wenn du die Fakten nicht überprüfst, kann ich dir auch nicht helfen. Es ist nun mal schwierig gegen Tatsachen zu argumentieren, auch wenn das manche tatsächlich relativ erfolgreich praktizieren.
Das ist ja nur deine Ahnnahme dass ich nichts überprüft habe, ich habe das Gerät, hast du eins und hast du es überprüft? Bin ich gespannt. Tip: Ich habe nicht TRex benutzt und dein Vsync argument ist irrelevant.

mczak
2016-03-13, 01:23:58
Das ist ja nur deine Ahnnahme dass ich nichts überprüft habe, ich habe das Gerät, hast du eins und hast du es überprüft? Bin ich gespannt.

Nein habe ich nicht, das beruht rein auf publizierten Daten wie eben denen bei gfxbench - und die sagen nun mal der SoC throttelt auch im Mi 5 wahrscheinlich mindestens 40% (genaue Angaben sind mit den Daten nicht möglich dass er aber throttelt ist glasklar). Ich gehe nun mal davon aus dass diese Daten einigermassen stimmen (wie gross die Produktstreuung ist weiss ich zugegebenermassen auch nicht, aber _so_ gross kann die auch nicht sein).

Tip: Ich habe nicht TRex benutzt und dein Vsync argument ist irrelevant.
Ich erkläre es gerne nochmal: VSync bei T-Rex OnScreen heisst eben beim Mi 5 wird der Chip beim On-Screen TRex-Test nur etwa zu ~70% belastet. Deswegen ist das Dauerresultat dann eben kaum tiefer auch wenn der Chip da auf 60% runtergedrosselt wird.
Ich weiss ja nicht was du verwendest hast zum Testen wenn das nicht TRex war, meine Vermutung wäre schlicht das hat den Chip eben auch ungedrosselt aus was für Gründen auch immer nicht zu 100% belastet - wenn's bloss 60% waren wirst du eben dann auch kein Throttling sehen (kommt auch immer darauf an was das für eine Grafiklast ist natürlich, es ist längst nicht alles so fordernd wie Furmark wobei ich nicht weiss ob TRex hier besonders fordernd ist...).
Aber was immer du verwendet hast, wird beim S7 auch kein wirklich anderes Verhalten zeigen. Also sicher ist das natürlich nur wenn dieses WasAuchImmer auflösungsunabhängig ist, denn ansonsten kann es natürlich gut sein dass es eben beim S7 fast die doppelte GPU-Last generiert und dann dementsprechend auch wieder throtteln muss. Das hat aber nichts damit zu tun dass das Mi 5 höhere Temperaturen zulässt und daher nicht throtteln würde (auch wenn es wie gesagt schon möglich ist dass es in gleichen Situationen vielleicht deswegen etwas weniger throttelt, also eben z.B. nur 40% statt 50%).

Ailuros
2016-03-14, 17:02:43
Mal zur Seite hat jemand hier schon den Manhattan3.1 long term performance test ausprobiert?

mczak
2016-03-24, 05:02:34
Habe gerade gesehen in der gfxbench Datenbank gibt's mittlerweile ein S7-Resultat mit einem SD820 der tatsächlich nicht throttelt:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&D=Samsung+Galaxy+S7+%28SM-G930x%29&testgroup=overall

Weiss aber nicht was ich davon halten soll, macht so eigentlich keinen Sinn auch gegenüber dem S7 Edge. Wenn da nicht jemand mit flüssigem Stickstoff nachgeholfen hat ist das eigentlich kaum erklärbar, ich denke jedenfalls nicht dass das normale Produktstreuung sein kann, und bei den Temperaturen dürfte auch nicht derart viel Spielraum vorhanden sein (zudem ist die Laufzeit zwar runtergegangen, aber so viel auch wieder nicht). Bin mal gespannt auf weitere Analysen - nicht throttelnde Exynos 8890 Mali T880 sind jedenfalls noch nicht aufgetaucht :biggrin:.

Ailuros
2016-03-24, 07:20:49
Habe gerade gesehen in der gfxbench Datenbank gibt's mittlerweile ein S7-Resultat mit einem SD820 der tatsächlich nicht throttelt:
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&D=Samsung+Galaxy+S7+%28SM-G930x%29&testgroup=overall

Weiss aber nicht was ich davon halten soll, macht so eigentlich keinen Sinn auch gegenüber dem S7 Edge. Wenn da nicht jemand mit flüssigem Stickstoff nachgeholfen hat ist das eigentlich kaum erklärbar, ich denke jedenfalls nicht dass das normale Produktstreuung sein kann, und bei den Temperaturen dürfte auch nicht derart viel Spielraum vorhanden sein (zudem ist die Laufzeit zwar runtergegangen, aber so viel auch wieder nicht). Bin mal gespannt auf weitere Analysen - nicht throttelnde Exynos 8890 Mali T880 sind jedenfalls noch nicht aufgetaucht :biggrin:.

Es hilft alles nichts bei GPUs die in TRex-offscreen weit ueber 60 fps erreichen. Der long term performance test laeuft zwar onscreen aber dafuer vsynced bei 60Hz. Wenn jetzt jegliches Geraet offscreen 90, 100, 120 oder sogar 170 fps in diesem erreicht, kann man sich so manches dafuer vorstellen.

Eben genau deshalb hat Kishonti wohl den Manhattan 3.1 long term performance test eingefuehrt von dem es leider noch keine Resultate gibt. Deshalb erwaehne ich es auch so oft in letzter Zeit. Ein S7 landet im TRex onscreen 53,50 fps und offscreen 93,00 fps (laut Deinem link), waehrend es bei Manhattan bei 15.70 fps onscreen und offscreen 32,10 fps liegt. Erstens ist es anspruchsvoller als test und wird die Temperaturen bei GPUs schneller erhoehen und zweitens gibt es noch kein ULP mobile (<10" display) Geraet dass die 60 fps Schwelle in diesem ueberschreitet.

Undertaker
2016-03-24, 08:38:26
Schön das du das Problem mit dem 60fps-Limit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10835924#post10835924) jetzt auch siehst, das war noch vor wenigen Monaten ja etwas anders. ;) Man kann nur hoffen, dass sich der 3.1er long term Test jetzt schnell bei allen Reviews als Standard etabliert.

Ailuros
2016-03-24, 08:53:38
Schön das du das Problem mit dem 60fps-Limit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10835924#post10835924) jetzt auch siehst, das war noch vor wenigen Monaten ja etwas anders. ;) Man kann nur hoffen, dass sich der 3.1er long term Test jetzt schnell bei allen Reviews als Standard etabliert.

Nein ich sehe es jetzt nicht nur ein. Nur weil Du damals nicht gleich darauf kamst ("Denkfehler" ahoi....) dass die A9 GPU erstmal hoch- und dann wieder runtersampled heisst es gar nichts: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10836505&postcount=433

Ich hatte jemand von Kishonti im B3D Forum schon vor dem Tegra X1 launch gefragt ob sie endlich etwas besseres als TRex fuer die Batterie-tests haben und er sagte nur trocken dass sie an 3.1 arbeiten. Ich wusste nicht was er meinte aber da Manhattan3.0 ein Speicherproblem hatte und 3.1 noch anspruchsvoller sind, dauerte es wohl laenger 3.1 auf die Strasse zu bekommen.

Meine Geraete sind alle ES3.1 faehig, aber die Manhattan Batterie-tests erscheinen bei mir dummerweise nicht in Gfxbench.

Undertaker
2016-03-24, 09:07:39
Im GFXBench onscreen wird vom iPhone gar nichts hoch- und runtergesampled. :rolleyes: Bei OpenGL oder Metal renderst du direkt in nativer Displayauflösung (edit: Du kannst es zumindest). Deinen Denkfehler kannst du schon gerne selbst behalten. :)

Einige dich doch einfach mit darauf, dass es höchste Zeit für einen solch anspruchsvollen long term Test ist, der auch die iPhones von der 60fps-Problematik löst. Das war seit Ewigkeiten überfällig, auch wenn du den Bedarf zuletzt noch nicht gesehen hast.

Ailuros
2016-03-24, 09:20:38
Im GFXBench onscreen wird vom iPhone gar nichts hoch- und runtergesampled. :rolleyes:

http://toucharcade.com/2014/09/19/gaming-on-the-iphone-6-plus-first-impressions/

There's also a few technical hurdles that make showing off these games a little weird. First off, there's the scaling "issue" (massive air quotes there as I'm not sure how much of an issue it even is). The iPhone 6/6S renders everything 3x internally, then downsamples for display. This means screenshots are 2208x1242 instead of 1920x1080, which only serves to further obscure how these games actually look on the device.

Glaubst Du AffenJack hat keine Ahnung von was er redet?

Undertaker
2016-03-24, 09:27:06
http://stackoverflow.com/questions/25755443/iphone-6-plus-resolution-confusion-xcode-or-apples-website-for-development
In other words... Videos, OpenGL, and other things based on CALayers that deal with pixels will deal with the real 1920x1080 frame buffer on device

http://forum.unity3d.com/threads/iphone-6-plus-screen-width.269264/
In a graphics app that uses Metal or OpenGL ES, content can be easily rendered at the precise dimensions of the display without requiring an additional sampling stage.

https://forums.coronalabs.com/topic/51465-iphone-6-plus-pixel-perfect-rendering/
OpenGL uses 1080x1920, UIKit uses the larger size.

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=gl&D=Apple+iPhone+6S+Plus&testgroup=overall

Onscreen: 38.1 Fps
Offscreen: 38.6 Fps

Sieh es ein oder nicht.

Ailuros
2016-03-24, 09:42:22
Eben nicht. Ich hab besseres zu tun als den thread hier weiterhin mit dem Zeug vollzumuellen weil Du gerade mal wieder eine "told you so" Not hattest.

Undertaker
2016-03-24, 09:49:49
Dann lassen wir das gerne. Wenn der Groschen nicht einmal bei identischen fps on-/offscreen fällt, ist die Diskussionsgrundlage eh erschöpft. Ich freu mich jedenfalls auf spannende Throttling-Vergleiche mit Manhattan 3.1, die dann endlich auch für Apple-SoCs taugen. :)

Avalox
2016-07-06, 18:42:45
Ein paar ganz interessante Tests des Exynos 8890 zum Energieverbrauch in Standardsituationen, im Vergleich zum Snapdragon 820.

http://www.phonearena.com/news/Galaxy-S7-battery-life-with-Exynos-CPU-vastly-superior-to-Snapdragon-flavor-heres-the-proof_id82900

http://i-cdn.phonearena.com/images/articles/246490-thumb/Power-draw-video-streaming2.png

über alles
http://i-cdn.phonearena.com/images/articles/246488-thumb/PhoneArena-battery-test2.png

Ravenhearth
2016-07-06, 20:08:00
Im endlich veröffentlichten zweiten Teil des Galaxy S7-Tests von anandtech ist der Exynos auch schneller und hat eine bessere Akkulaufzeit.

CrazyIvan
2016-07-06, 23:02:45
Ist schon erstaunlich,wie sehr QC mit ihrem custom Design hier gegen das annähernd unveränderte ARM Design abstinkt. Damit bekommen auch die Gerüchte, dass QC in Zukunft bei der CPU näher an ARM bleiben will, mehr Gewicht.

Rooter
2016-07-07, 00:02:56
Sind die Mongoose-Kerne "annähernd unverändert"? Quelle dafür?

MfG
Rooter

Sunrise
2016-07-07, 00:12:53
Dieser Unterschied ist eigentlich nichtmehr schön. Das ist anhand der Werte ja fast ein Generationssprung wert. Als Snapdragon-Käufer käme ich mir leicht veräppelt vor, um es mal noch möglichst freundlich auszudrücken.

Ravenhearth
2016-07-07, 01:45:23
Da hat man doch afaik eh keine Wahl. Europa bekommt Exynos und die USA den Snapdragon. Die Exynos-Variante kann man da gar nicht im Mobilfunk nutzen, soweit ich weiß.

mczak
2016-07-07, 03:01:28
Sind die Mongoose-Kerne "annähernd unverändert"? Quelle dafür?

Wäre mir auch nicht bekannt. Eine detaillierte Analyse habe ich aber auch noch nirgends gesehen.
Aber im Vergleich zu tatsächlich unveränderten Cortex-A72 (z.B. im Kirin 950 / Huawei P9) hauen mich auch weder Kryo noch Mongoose vom Hocker.

Dieser Unterschied ist eigentlich nichtmehr schön. Das ist anhand der Werte ja fast ein Generationssprung wert. Als Snapdragon-Käufer käme ich mir leicht veräppelt vor, um es mal noch möglichst freundlich auszudrücken.
Naja also bei anandtech ist's bei weitem nicht so schlimm (schon fast im Bereich was ich einfach für unterschiedliche Samples erwarten würde).
Der Snapdragon hat dafür ein UKW-Radio (jedenfalls seit neustem per Firmware-Update bei manchen Modellen des S7, bei den Exynos geht das wohl nicht :mad:)

Da hat man doch afaik eh keine Wahl. Europa bekommt Exynos und die USA den Snapdragon. Die Exynos-Variante kann man da gar nicht im Mobilfunk nutzen, soweit ich weiß.
So schlimm sollte das eigentlich nicht sein. gsmarena listet 5 USA-Varianten - so auf den ersten Blick würde sich z.B. die AT&T Variante in Europa ziemlich gut machen (sind alle nötigen LTE-Bänder dabei, auch 2G/3G sollte kein Problem sein), bei der US Cellular Variante aber würde es null Overlap mit den unterstützten LTE-Bändern geben (es sei denn man könnte die noch freischalten bei manchen Snapdragon-Chips geht ja sowas). Die US-Varianten (jedenfalls einige davon...) können dafür noch CDMA.
(Als technische Betrachtung, ausgenommen allfällige pseudo-region-locks bei denen du das Gerät zuerst mit einer SIM-Karte aus der richtigen Region freischalten musst... Und es dürfte natürlich keinen Provider-Lock haben...)

CrazyIvan
2016-07-07, 05:34:26
Sind die Mongoose-Kerne "annähernd unverändert"? Quelle dafür?

MfG
Rooter
Eine hundertprozentige Quelle habe ich dafür nicht - nur Hinweise, die das vermuten lassen. Die little cores sind halt standard A53 und laut anandtech sind die big cores architektonisch sehr nah an A72. Daraus schließe ich für mich, dass der Eigenanteil wohl eher in der Peripherie zu finden ist.

Siehe http://www.anandtech.com/show/9781/samsung-announces-exynos-8890-with-cat1213-modem-and-custom-cpu

Rooter
2016-07-07, 13:28:34
The new core, officially called the Exynos M1, is the first fruit of years-long efforts by Samsung's Austin R&D Center to try to create an in-house CPU architecture. What we do know of the M1 is that it's still very similar to ARM's big core architectures (And thus might be a derivative) such as the A72: It's still a 3-wide OoO design with the same amount of execution pipelines and similar, although not quite identical pipeline stages on the execution units.
Nur weil das Design grundsätzlich das selbe ist (3-fach superskalar Out-of-Order Design) muss das ja nicht bedeuten, dass die nicht die einzelnen Stages massiv geändert haben. Sonst hätten sie ja nicht jahrelang daran gearbeitet.

MfG
Rooter

CrazyIvan
2016-07-07, 18:25:35
Ich will jetzt keine Endlosdiskussion entfachen. Ich habe den von Dir zitierten Abschnitt so interpretiert, wie von mir geschrieben. Soll sich jeder seine eigene Meinung bilden. Die Quelle hätte ich vielleicht lieber direkt mit angeben sollen.

Nightspider
2016-07-07, 18:30:13
Gut finde ich es ja auch das der angeblich Exynos 8893 im kommenden Galaxy Note 7 nochmal gute 20% (400-500Mhz) höher takten soll als der Exynos 8890 im Galaxy S7.
Bin ja mal gespannt ob das Note 7 eine noch größere Heatpipe bekommen wird.

Damit dürfte man ja eigentlich vor Apples aktuellen Smartphone Chips liegen.

Wobei Apple ja in wenigen Monaten sowieso wieder viel schnellere Chips verbauen wird im neuen iPhone. Es bleibt spannend. ^^
(Insbesondere da Jim Keller ja jetzt keinen Einfluss mehr auf aktuell erscheinende Apple SoCs hatte)

robbitop
2016-07-07, 18:42:35
Ich denke nicht, dass Samsung den A72 lizensiert hat und ihn einfach M1 oder Mongoose genannt hat. Dann wäre die IPC auch vergleichbar. Soweit ich das grob überblickt habe, ist das nicht der Fall.

Kirin 950 mit A72@2,3 GHz:
Kraken: 3.667 ms (normiert auf 2,6 GHz: 3.245 ms)
Octane V2: 11768 (normiert auf 2,6 GHz: 13297)
http://www.anandtech.com/show/9878/the-huawei-mate-8-review/4

Exynos 8890 mit M1 @2,6 GHz
Kraken: 2.569 ms
Octane V2: 12487
http://www.anandtech.com/show/10075/early-exynos-8890-impressions

Nur weil ein Design auch 3x Superskalar und OoO ist, muss es nicht die gleiche µ-Arch sein. Das sind nur grobe Randbedingungen.

Zumal es auch sehr sehr schnell an's Licht kommen würde, wenn M1 A72 entsprechen würde - damit würde Samsung sich selbst diskreditieren.

Ich halte es für unwahrscheinlich, dass M1 = A72 ist.

Nightspider
2016-07-07, 18:54:17
Ach der 8890 hatte auch schon 2,6Ghz bei 1-2 Kernen, dann sind meine Zahlen oben total falsch. Auf einer Website hatte ich vorhin 2,3Ghz gefunden, was ja scheinbar für alle 4 Kerne gilt.

Wenn der 8893 dann 2,7Ghz bekommt wären das ja nur 100Mhz mehr und damit total zu vernachlässigen, das wären nur 3,8% mehr Leistung. -> Wayne.

Ravenhearth
2016-07-07, 19:45:48
Gut finde ich es ja auch das der angeblich Exynos 8893 im kommenden Galaxy Note 7 nochmal gute 20% (400-500Mhz) höher takten soll als der Exynos 8890 im Galaxy S7.
Bin ja mal gespannt ob das Note 7 eine noch größere Heatpipe bekommen wird.


Käme nicht erstmal das Note 6 :confused:

Label
2016-07-07, 19:53:47
Käme nicht erstmal das Note 6 :confused:

...vermutlich fällt die 6 flach...

http://www.gsmarena.com/samsungs_next_phablet_will_be_called_galaxy_note_7_instead_of_note_6_new_report_ claims-news-18408.php

Rooter
2016-07-08, 03:22:12
Gut finde ich es ja auch das der angeblich Exynos 8893 im kommenden Galaxy Note 7 nochmal gute 20% (400-500Mhz) höher takten soll als der Exynos 8890 im Galaxy S7.
Bin ja mal gespannt ob das Note 7 eine noch größere Heatpipe bekommen wird.Soll es doch! Ich habe rein gar nichts gegen Heatpipes in Handys, so lange sie das Gehäuse nicht deutlich dicker machen. Ist mir doch nur recht, wenn die Wärme über das ganze Gehäuse gleichmäßig verteilt wird. :up:

MfG
Rooter

mboeller
2016-07-13, 07:29:09
vielleicht erfährt man ja Ende August auf der nächsten Hotchips-Konferenz mehr zum Mongose:

http://www.hotchips.org/program/

Samsung’s Exynos-M1 CPU Brad Burgess Samsung

Triskaine
2016-07-13, 08:03:42
Brad Brugess war übrigens der Chef-Architekt des Bobcat-Kerns bei AMD. 2011 ist er zusammen mit einer Menge anderer Designer zu Samsung gewechselt.

Avalox
2016-08-11, 01:00:50
Samsung selbst berichtet davon, gerade den Exynos 8895 mit 4 GHz Takt zu testen.

http://www.sammobile.com/2016/08/09/samsung-reportedly-testing-10nm-exynos-8895-processor-with-4ghz-peak-speed/

mboeller
2016-08-11, 08:24:41
Samsung selbst berichtet davon, gerade den Exynos 8895 mit 4 GHz Takt zu testen.

http://www.sammobile.com/2016/08/09/samsung-reportedly-testing-10nm-exynos-8895-processor-with-4ghz-peak-speed/


und ist nach anderen Gerüchten damit um einiges schneller als ein S830 @ 3.6GHz.