PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Samsung Exynos-SoCs


Seiten : [1] 2 3 4

AnarchX
2012-11-19, 10:04:03
Vorstellung eines 4+4 big.LITTLE-SoC im Februar auf der ISSCC:
Samsung will detail a 28-nm SoC with two quad-core clusters. One cluster runs at 1. 8 GHz, has a 2 MByte L2 cache and is geared for high performance apps; the other runs at 1.2 GHz and is tuned for energy efficiency.

The chip clearly parallel’s ARM’s description of a big.little architecture using its 32-bit A15 and A7 cores. In October, ARM said the approach is delivering greater than expected benefits and expects it will become widely used in smartphones.
http://cdn.eetimes.com/electronics-news/4401645/Samsung-big-little--no-Haswell--Project-Denver-at-ISSCC?pageNumber=0

YfOrU
2012-11-19, 11:56:49
Bei big.LITTLE mit A15 habe ich die Befürchtung das wir im Bereich der Smartphones ziemlich viel Murks zu sehen bekommen.

Aufgrund des harten Wettbewerbes wird es zwangsläufig zur vermehrten Implementierung von SoCs kommen welche eigentlich nicht mehr in das TDP Limit eines Smartphones passen. Gibt tolles Material für das Marketing (n*Kerne) und unter Last mit A15 + GPU die Notbremse.

Dural
2012-11-19, 13:24:39
für was braucht man vier spar kerne?!? einer oder zwei würde ich ja noch verstehen, aber ein 4 + 4 :confused:

eventuell auch eine fehl info :rolleyes:

Hugo78
2012-11-19, 13:42:55
Die vier A7 werden (wenns dann stimmt) nicht nur reine Stromsparer sein, sondern auch den Mittellast Bereich bedienen.
Also das alltägliche Brot eines Handys.
Die vier A15 sind dann nur für hohe Last, die bei Handys wohl nur in Form von Spielen auftritt,
aber bei Tablets und Tablet Netbooks auch für Office oder Bildbearbeitung gebraucht wird.

YfOrU
2012-11-19, 13:51:58
Richtig und deshalb macht das Konzept nur Sinn wenn für jeden A15 auch ein A7 vorhanden ist.

Zuerst wird die Leistung des A7 Kerns skaliert (Frequenz und Spannung steigt). Ist dieser am festgelegten Maximum angekommen wird alles auf den A15 Kern verschoben und dieser bei Bedarf weiter nach oben skaliert bis die Limitierung durch die TDP einsetzt. In der Theorie hört sich das schön simpel an - allerdings wird das spätestens im Zusammenspiel mit der Verlustleistung der GPU ziemlich komplex. Erst recht wenn der (Smartphone)Hersteller in den üblichen Benchmarks vorne mitspielen will, ein großes Spektrum bei der Umgebungstemperatur abgedeckt werden muss und gleichzeitig eine akzeptable Akkulaufzeit rauskommen soll ;)

mboeller
2012-11-19, 14:49:47
Dann sollte MTK mit ihrem A7 Quadcore MT6588 doch eigentlich richtig liegen. Die A15 scheinen sich ja nicht wirklich für Smartphones zu eignen.

YfOrU
2012-11-19, 15:00:10
Bezogen auf Smartphones dürfte der von Qualcomm und Apple gewählte Ansatz mittelfristig das Optimum darstellen. ISA kompatibel und in die recht große Lücke zwischen A7 und A15.
big.LITTLE sehe ich als einen Kompromiss welcher aus dem Bedarf an einen Low-Cost/Low-Power Kern (A7) und dem Zwang zu massiv höherer IPC (A15) um in weitere Märkte expandieren zu können entstanden ist.

Dural
2012-11-20, 11:18:00
Das macht doch auch nicht wirklich Sinn.

Die A15 Kerne kann man ja sicher einzeln deaktivieren und natürlich hinunter Takten.

Wenn zb. vier A7 Kerne mit 400MHz so schnell sind wie ein A15 mit 800MHz kann ich mir überhaupt nicht vorstellen das die vier A7 Kerne spürbar weniger Energie benötigen als eben der eine A15.

Oder ist der A15 Kern wirklich so ein Schluckspecht??? Wen ja scheint ein A15 Quad in 28nm im Smartphone bereich nichts verlohren zu haben.

Nightspider
2012-11-20, 12:42:30
Ja, der A7 dürfte einiges effizienter sein aber eben auch nur ein geringen Teil der Leistung eines A15, zumal der A7 nur geringe Taktraten erreichen sollte.

Für einfach OS Aufgaben wäre das dann schon deutlich effizienter.

Die Frage ist, wieviel das bringt wenn eh das Meiste von der GPU berechnet wird.

PS: "verloren" kommt von "verlieren" daher nicht "verlohren". ;)

Dural
2012-11-20, 13:29:35
für einfach OS sachen würde aber auch ein spezieller spar Kern wie es NV im T3 hat reichen. zb. ein A9 Spar Core mit max. 600MHz und die einzelne A15 Kerne laufen mit 200-1800MHz oder was auch immmer...

Es scheint so als ob der A15 wirklich mehr für Tablet gemacht ist, eventuell später mit 20nm für Smartphone sinnvoll nutzbar. Den es nützt keinem Anwender etwas wenn er einen sparsame SoC im Smartphone hat der bei wenig oder teil Last wenig Strom verbraucht, aber dafür bei voller Last der Akku in 30Min leer ist... da kann man ja gleich wieder zurück auf den A9 Kern gehen, da hält wenigstens der Akku länger :rolleyes:

YfOrU
2012-11-20, 14:54:12
Das macht doch auch nicht wirklich Sinn.

Die A15 Kerne kann man ja sicher einzeln deaktivieren und natürlich hinunter Takten.

Wenn zb. vier A7 Kerne mit 400MHz so schnell sind wie ein A15 mit 800MHz kann ich mir überhaupt nicht vorstellen das die vier A7 Kerne spürbar weniger Energie benötigen als eben der eine A15.

Oder ist der A15 Kern wirklich so ein Schluckspecht??? Wen ja scheint ein A15 Quad in 28nm im Smartphone bereich nichts verlohren zu haben.

Siehe ARM White Paper Seite 3:
http://www.arm.com/files/downloads/big_LITTLE_Final_Final.pdf
Im Verhältnis zu A7 welcher entgegen der Bezeichnung leicht oberhalb der Performance eines A8 anzusiedeln ist geht die Leistungsaufnahme bei A15 überproportional nach oben. Etwas anderes war hier aber auch nicht zu erwarten denn IPC Steigerungen in diesem Umfang sind bezogen auf die bisherigen Low-Power Lösungen nur möglich wenn an allen Ecken massiv investiert wird.

Seite 5 illustriert die grundsätzliche Funktion. Schlussendlich verhalten sich A7 und A15 vereinfacht dargestellt wie eine CPU welche entsprechend dem Bedarf über den Takt skaliert wird. Nur das es eben einen Schnittpunkt gibt an dem von A7 auf A15 umgeschalten wird (wobei die anfängliche Taktrate des A15 aufgrund der höheren IPC natürlich unter dem maximalen Takt des A7 liegt).

TheGoD
2012-11-20, 15:47:32
Gibt es vielleicht sogar irgendwo konkrete Zahlen wieviel Energie A7 und A15 jeweils benötigen um die Performance eines A9 bei jeweils 500, 1000 und 1500 mhz zu erreichen? Die letzten beiden Taktstufen dann natürlich wohl nur für den A15.

YfOrU
2012-11-20, 16:06:57
Da es bisher nur seit kurzen den 32nm A15 (ohne A7) von Samsung am Markt gibt sind direkte Vergleiche praktisch nicht möglich. Richtig gutes Material (Dokumentationen) gab es in der Vergangenheit immer bei TI - allerdings ist Omap5 (28nm) noch nicht verfügbar und kommt ebenfalls ohne A7.

dildo4u
2012-11-30, 02:39:56
Benchmarks show Samsung's Exynos 5 processor is a beast with Linux

http://www.engadget.com/2012/11/29/samsung-exynos-5-linux-benchmarks/

Schon erstaunlich der Sprung,da muss Intel mit Atom scheinbar zwei Sprünge machen vermutlich werden sie erst mit 22nm Konkurrenzfähig.(Im unter 3 Watt Bereich)

Ailuros
2012-11-30, 06:24:01
http://forum.beyond3d.com/showpost.php?p=1682497&postcount=238

Ich verstehe ehrlich gesagt nicht besonders viel aus den links aber dass A15 cores keine asynchrone Frequenzen erlauben lese ich zum ersten Mal.

Samsung's whitepaper ist auch ziemlich interessant, obwohl ich Exophase zustimme dass es mehrere "aber" gibt beim big.LITTLE vs. asynchronous Argument geben koennte.

Bleibt abzusehen was NVIDIA in Wayne genau angestellt hat; es wuerde mich kein bisschen ueberraschen wenn in diesem eher eine custom CPU anstatt A15 cores am Ende steckt.

mboeller
2012-11-30, 07:57:53
Benchmarks show Samsung's Exynos 5 processor is a beast with Linux

http://www.engadget.com/2012/11/29/samsung-exynos-5-linux-benchmarks/

Schon erstaunlich der Sprung,da muss Intel mit Atom scheinbar zwei Sprünge machen vermutlich werden sie erst mit 22nm Konkurrenzfähig.(Im unter 3 Watt Bereich)


ähh...und ein QuadCore A15 mit 2-2,5 GHz ist dann so schnell wie ein i3, oder wie????

Ailuros
2012-11-30, 08:10:49
ähh...und ein QuadCore A15 mit 2GHz ist dann so schnell wie ein i3, oder wie????

Nicht wirklich wenn man sich die Muehe macht und den vollen review bei Phoronix durchliest:

http://www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&num=3
http://www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&num=4
http://www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&num=5
http://www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&num=6
http://www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&num=7

It was surprising to see the wide performance margin the dual-core 1.7GHz A15 had over the quad-core 1.4GHz A9 in the Tegra 3. In a majority of the cases, the Samsung Exynos 5 Dual also easily beat out all of the tested Intel Atom processors. And then there was the Intel Core i3 330M, which was faster, but on the performance-per-Watt this would be a very different story. The Core i3 330M has a 35 Watt TDP while the Exynos 5 Dual operates within a few Watt envelope. Unfortunately due to the varying displays and other hardware differences, an easy power consumption / performance-per-Watt comparison couldn't be done for this article.

So einfach ist ein solcher Vergleich momentan nun auch wieder nicht. Wie dem auch sei Aepfel gegen Aepfel steht dual A15 verdammt gut da im Vergleich zu zeitigen Intel Atom Implementierungen. Desktop bzw. notebook CPUs sind dank Stromverbrauch ein ganz anderes Kapitel.

Was man sonst an solchen benchmarks behalten kann ist der alte ewige Bloedsinn bei quad vs. dual core Vergleichen ohne architekturelle Differenzen mitzuberechnen, wie eben der Vergleich zwischen Exynos5250 und Tegra3 zeigt und nein der Unterschied kommt eben NICHT von den schaebigen 300MHz Frequenz-Unterschied.

iFanatiker
2012-11-30, 09:49:25
So einfach ist ein solcher Vergleich momentan nun auch wieder nicht. Wie dem auch sei Aepfel gegen Aepfel steht dual A15 verdammt gut da im Vergleich zu zeitigen Intel Atom Implementierungen. Desktop bzw. notebook CPUs sind dank Stromverbrauch ein ganz anderes Kapitel.

Also ich finde die ganze Seite: :freak:

Da wird ein i3-330 M für irgendwelche Energieeffizienz Geschichten dran gezogen und dann nocht mit der Max TDP argumentiert. :biggrin: Dazu ist IMHO noch nicht bekannt welche Target TDP der Exynos 5 hat.

Der Atom Intel 2600 hat ein Max TDP von 3,5 Watt und dürfte pi mal Daumen auf der Eben des Exynos 5 liegen und wir sprechen hier über ein x86 Abfall Produkt von Intel welches mehrere Jahre nicht aktualisiert worden ist.

Jetzt geht wieder die Geschichte von der ARM Weltdominanz los im Shitstorm 2.0 aka Web 2.0. :biggrin:

Ailuros
2012-11-30, 10:02:17
Also ich finde die ganze Seite: :freak:

Total nutzlos ist der Vergleich nicht wenn man die i3 Resultate erstmal ueberfliegt.

Da wird ein i3-330 M für irgendwelche Energieeffizienz Geschichten dran gezogen und dann nocht mit der Max TDP argumentiert. :biggrin: Dazu ist IMHO noch nicht bekannt welche Target TDP der Exynos 5 hat.

Steht doch genau im Satz den Du oben zitiert hast.

Der Atom Intel 2600 hat ein Max TDP von 3,5 Watt und dürfte pi mal Daumen auf der Eben des Exynos 5 liegen und wir sprechen hier über ein x86 Abfall Produkt von Intel welches mehrere Jahre nicht aktualisiert worden ist.

Jetzt geht wieder die Geschichte von der ARM Weltdominanz los im Shitstorm 2.0 aka Web 2.0. :biggrin:

Mir ist wie ich oben sagte der quad A9 - dual A15 wichtiger in diesem Fall. ARM CPU IP dominiert so oder so momentan den small form factor Markt in Verkaufszahlen und dafuer sind jegliche Benchmark-Resultate irrelevant. Einfacher im gegebenen Fall kann Intel nur traeumen so viele smartphone SoCs mit Medfield verkaufen zu koennen wie Samsung mit dem Exynos4 (nichtmal 5 der gerade beim ausrollen ist).

Ailuros
2012-12-03, 15:56:07
http://www.fudzilla.com/home/item/29685-more-exynos-5440-leaks-emerge

Rumour has it that it will run at up to 2GHz, and that it will feature Mali T658 graphics, with eight cores versus the T604’s four cores.

Den Stromverbrauch moechte ich mal von dem Ding in einem smartphone in absehbarer Zeit sehen :rolleyes:

Nightspider
2012-12-03, 17:21:35
Das Teil wird doch mit Sicherheit erst mal nur im Tablet landen.
Vielleicht kommt dann Ende 2013 ein 22nm Derivat ins Smartphone.

Wobei wir beim A15 Quad den selben Effekt wie beim A9 Quad hätten, das meist nur 1-2 Kerne ausgelastet sind oder eben nur kurz alle 4 Cores und damit der Stromverbrauch nicht groß steigt.

Ailuros
2012-12-03, 17:46:54
Das Teil wird doch mit Sicherheit erst mal nur im Tablet landen.
Vielleicht kommt dann Ende 2013 ein 22nm Derivat ins Smartphone.

Wobei wir beim A15 Quad den selben Effekt wie beim A9 Quad hätten, das meist nur 1-2 Kerne ausgelastet sind oder eben nur kurz alle 4 Cores und damit der Stromverbrauch nicht groß steigt.

Falls es sich um eine quad A15 mit T658 Kombination handelt ist der CPU block nicht gerade der stromfressenste Anteil des SoCs im Vergleich zur GPU.

Was jetzt die A15 CPU cores betrifft wenn folgendes stimmt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9564406&postcount=15 ist es eben NICHT mit der asynchronen Taktung je nach Bedarf in quad A9 CPU Bloecken zu vergleichen. Anders wenn ich den Wirrwarr richtig verstanden habe, erlauben A15 cores per se keine asynchronen Frequenzen und genau deshalb soll big.LITTLE zur Rettung kommen. Anders Du kannst eben NICHT selbst im Exynos5250 dual core den einen core bei sagen wir mal 500MHz und den anderen bei 1GHz als Beispiel (wie im Tegra3) takten.

Das Samsung whitepaper auf das Exophase bei B3D verlinkt ist darueber auch ziemlich deutlich.

Ailuros
2012-12-14, 09:33:44
http://www.xbitlabs.com/news/other/display/20121213235022_Samsung_on_Track_to_Produce_28nm_Chips_at_Austin_Facility_in_2013 .html

$11Mrd? :eek:

Gaestle
2012-12-14, 10:10:31
Was jetzt die A15 CPU cores betrifft wenn folgendes stimmt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9564406&postcount=15 ist es eben NICHT mit der asynchronen Taktung je nach Bedarf in quad A9 CPU Bloecken zu vergleichen. Anders wenn ich den Wirrwarr richtig verstanden habe, erlauben A15 cores per se keine asynchronen Frequenzen und genau deshalb soll big.LITTLE zur Rettung kommen. Anders Du kannst eben NICHT selbst im Exynos5250 dual core den einen core bei sagen wir mal 500MHz und den anderen bei 1GHz als Beispiel (wie im Tegra3) takten.



Geht es um die unterschiedliche Taktung von verschiedenen Blöcken innerhalb eines Cores oder um die Taktung von kompletten Cores in einem Multicore-SoC?
Wenn letzteres, warum hat man sowas für mobile Geräte entwickelt? Und wie lange dauert es bis zum Nachfolger?

Ailuros
2012-12-14, 14:26:39
Geht es um die unterschiedliche Taktung von verschiedenen Blöcken innerhalb eines Cores oder um die Taktung von kompletten Cores in einem Multicore-SoC?
Wenn letzteres, warum hat man sowas für mobile Geräte entwickelt? Und wie lange dauert es bis zum Nachfolger?

Ueber die richtige sw sollte asynchrone Taktung selbst auf per core Basis schon moeglich sein; ob es dafuer aber irgendwelche tradeoffs bzw. pitfalls geben koennte kann wohl nur ein waschreiner engineer beantworten.

dildo4u
2013-01-09, 18:56:45
Samsung announces 8-core Exynos 5 Octa mobile processor

But that's only half the story. Samsung says that it can cut power consumption by up to 70 percent compared to the Exynos 5 Dual by being able to tackle common jobs with the lower-voltage A7 cores

http://www.theverge.com/2013/1/9/3855478/samsung-announces-8-core-exynos-5-octa-mobile-processor

4 A15 + 4A7,damit könnte es imo sogar im GS4 landen.Für Daus natürlich das perfekte Marketing Tool da man die Kernanzahl schon wieder verdoppelt

Ailuros
2013-01-10, 20:23:26
http://forum.beyond3d.com/showpost.php?p=1692531&postcount=268

:wink:

Nightspider
2013-01-10, 20:26:39
Wichtiger wäre wo sich die GPU einordnet.
Ob zwischen T4 und A6X oder über A6X.

Ailuros
2013-01-10, 20:29:42
Wichtiger wäre wo sich die GPU einordnet.
Ob zwischen T4 und A6X oder über A6X.

iPhone5 + 60% oder iPad4 - 5%

alkorithmus
2013-01-10, 23:50:14
Wichtiger wäre wo sich die GPU einordnet.
Ob zwischen T4 und A6X oder über A6X.

Wo ist der CD-Koffer?

Ailuros
2013-01-14, 06:17:41
http://www.anandtech.com/show/6654/samsungs-exynos-5-octa-powered-by-powervr-sgx-544mp3-not-arms-mali

Based on multiple sources, we're now fairly confident in reporting that the with the Exynos 5 Octa Samsung included a PowerVR SGX 544MP3 GPU running at up to 533MHz.

=Floi=
2013-01-14, 06:43:08
wie kommen die beim A6X auf 4 teilebare einheiten, wenn nur 3 blöcke verbaut sind?!

Gandharva
2013-01-14, 10:39:16
Mal ne generelle Frage, sind die ARM Kerne zu "blöd" um ordentlich im Bezug auf Frequenz/Verbrauch zu skalieren, oder warum braucht man da für jeden Mist einen separaten Kern?

Ailuros
2013-01-14, 11:05:06
wie kommen die beim A6X auf 4 teilebare einheiten, wenn nur 3 blöcke verbaut sind?!

Apple A6X hat einen SGX554MP4 ergo 4 GPU cores (bei 280MHz) und nicht 3. Samsung octacore soll einen SGX544MP3 ergo 3 GPU cores (bei 533MHz) haben.

YfOrU
2013-01-14, 11:09:34
Mal ne generelle Frage, sind die ARM Kerne zu "blöd" um ordentlich im Bezug auf Frequenz/Verbrauch zu skalieren, oder warum braucht man da für jeden Mist einen separaten Kern?

Der A15 ist in 32/28nm am oberen Limit des machbaren angesiedelt um weiter nach oben skalieren zu können (Performance, zusätzliche Produktfelder). Gleichzeitig war separat eine Lowcost/Lowpower Implementierung notwendig (A7) um die bestehenden Basis komplett bedienen zu können.

Die Kombination daraus ist Big Little. Dürfte vor allen bei primärer Last auf der GPU (wie Spiele) Vorteile haben da die Verlustleistung der A7 Kerne sicher deutlichst unterhalb von Teillast auf A15 ist -> mehr Spielraum für die GPU innerhalb der TDP des gesamten SoCs. Auf der anderen Seite ist dafür die unabhängige Skalierung von Frequenz und Spannung einzelner Kerne auch bei A15 wohl wieder auf der Strecke geblieben und das könnte unter Last selbst im Vergleich zu den kommenden x86 SoCs recht hässlich werden.

Ailuros
2013-01-14, 11:22:13
Mal ne generelle Frage, sind die ARM Kerne zu "blöd" um ordentlich im Bezug auf Frequenz/Verbrauch zu skalieren, oder warum braucht man da für jeden Mist einen separaten Kern?

IP Entwickler (CPU oder GPU) geben fuer jeglichen core Vorschlaege fuer jeglichen Prozess bis zur welcher Frequenz ein SoC Hersteller diese takten sollte. Mag sein dass ARM fuer Kern X bis zu 2GHz vorschlaegt und von da ab liegt es am Hersteller selber und dessen angezielten perf/W ob er diesen jetzt beispielsweise bei 1.6GHz taktet oder mehr.

Die big.LITTLE Philosophie in Exynos (und auch quasi in NV T3/T4) ist dafuer gedacht dass wenn man bescheidenere Aufgaben hat man wohl eher die kleineren und niedriger getakteten Kerne dafuer einsetzen sollte um Strom zu sparen.

Beispiel in Tegra3 taktet der fuenfte A9 companion core lediglich bis zu 500MHz waehrend die restlichen "normalen" 4 A9 cores auf bis zu 1.5GHz (oder hoeher) takten. Auf Tegra3 kannst Du zwar 1 oder 2 CPU cores total abschalten, aber die aktiven cores muessen stets auf der gleichen Frequenz laufen.

Qualcomm als Gegen-Beispiel lizenziert nur die instruction sets von ARM und entwickelt darauf basierend ihre eigenen cores. Krait CPUs haben keine kleineren/bescheidenen cores sondern man kann jeglichen core asynchron takten. Bei einem quad core koennte man 1 core mit 500MHz laufen lassen, 1 abschalten, 1 bei 700MHz und den letzten bei 1.2GHz. Asynchrone Taktung in hw wie sie Qualcomm implementiert kostet zwar etwas zusaetzliche Logik, aber da Kraits insgesamt um einiges bescheidener sind, liegen sie immer noch im Gewinn wenn es zu die area bzw. Stromverbrauch kommt.

Samsung geht jetzt so weit und implementiert 4*A15 cores fuer anspruchsvolle Aufgaben und 4*A7 cores fuer einfachere Aufgaben. Und ja natuerlich liegt ein gewisser Grad von Ueberfluss in dem config und die Debatte koennte lang werden ob man wirklich 4*A15 oder 4*A7 insgesamt braucht. Eben der Grund wieso ich sagen wuerde dass es hoechste Zeit wird dass Samsung an custom cores denken sollte wenn sie nicht schon zu spaet dran sind.

Wenn jetzt NVIDIA ab 20nm und Project Denver diese custom CPU auch fuer small form factor SoCs benutzen sollte, sind sie neben Apple und Qualcomm der dritte SoC Hersteller mit custom cores.

Gandharva
2013-01-14, 11:30:51
Danke für die recht ausführlichen Erklärungen. Unterm Strich kann man also sagen:

Ja, den ARM Kernen mangelt es an Skalierbarkeit und Flexibilität, weshalb es dann zu solch sonderbaren Eigenkonstruktionen seitens der Lizenznehmer kommt.

|MatMan|
2013-01-14, 11:32:20
Dürfte vor allen bei primärer Last auf der GPU (wie Spiele) Vorteile haben da die Verlustleistung der A7 Kerne sicher deutlichst unterhalb von Teillast auf A15 ist -> mehr Spielraum für die GPU innerhalb der TDP des gesamten SoCs.
Glaubst du im Ernst dass ein Spiel auf einem A7 läuft?? Kann ich mir kaum vorstellen. Dann wäre es ja noch sinnfreier mehr als einen A15 zu verbauen - bei welcher Anwendung, wenn nicht Spielen, sollten die sonst verwendet werden?

Ailuros
2013-01-14, 11:48:41
Danke für die recht ausführlichen Erklärungen. Unterm Strich kann man also sagen:

Ja, den ARM Kernen mangelt es an Skalierbarkeit und Flexibilität, weshalb es dann zu solch sonderbaren Eigenkonstruktionen seitens der Lizenznehmer kommt.

Man koennte auch sagen dass es ziemlich leicht ist CPU IP fuer die Ansprueche jegliches SoCs Herstellers direkt anzupassen. Solch eine Freiheit ist eben fuer GPU IP nicht moeglich. Natuerlich kostet die Entwicklung von custom CPUs um einiges mehr, aber im guten Ganzen ist der Hersteller dann schon im Gewinn.

YfOrU
2013-01-14, 11:51:14
Glaubst du im Ernst dass ein Spiel auf einem A7 läuft?? Kann ich mir kaum vorstellen. Dann wäre es ja noch sinnfreier mehr als einen A15 zu verbauen - bei welcher Anwendung, wenn nicht Spielen, sollten die sonst verwendet werden?

Sehr häufig denn ansonsten würden Spiele auch nicht auf A9 laufen und das ist die verbreitete Basis. Es gibt im übrigen nicht einen A7 sondern vier und gewechselt wird wohl erst ein ganzes Eck über 1Ghz ;)

Die Anzahl an A15 Kernen muss identisch zu A7 sein: Also in der Praxis 2/2 oder 4/4. Hinzu kommt das einige SoCs mit recht potenter GPU und vier A7 komplett ohne A15 kommen.

Gandharva
2013-01-14, 11:51:29
Wenn ich 5 oder mehr Kerne + ein komplexes Eigendesign brauche um etwas zu bauen für das z.B. auch 2 flexiblere Kerne reichen würden, dann ist das für mich ehrlich gesagt kein Vorteil, sondern durch die unnötige Komplexität ein herber Nachteil.

Ailuros
2013-01-14, 11:53:18
Glaubst du im Ernst dass ein Spiel auf einem A7 läuft?? Kann ich mir kaum vorstellen. Dann wäre es ja noch sinnfreier mehr als einen A15 zu verbauen - bei welcher Anwendung, wenn nicht Spielen, sollten die sonst verwendet werden?

Muss nicht kann aber durchaus so lange die A7 Kerne auf zumindest 1GHz laufen. Im Zweifelfall schau Dir Qualcomm's bzw. Mediatek's neueste mainstream SoCs an die NUR eine quad A7 CPU haben.

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&data-source=1&D1=Onda%20V812%20Core4&D2=Asus%20Transformer%20Pad%20TF700T%20Infinity

Links ein quad A7@1GHz, rechts ein Tegra3 mit einem quad A9@1.4GHz. Wo stockt hier die erste CPU fuer 3D genau?

YfOrU
2013-01-14, 12:04:03
Ist auch hier ganz deutlich zu sehen:
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13

Primär belastet Modern Combat 3 die GPU. Da die beiden A15 Kerne somit nur ~1 Watt der TDP bekommen (entspricht ungefähr CPU Volllast bei 800Mhz) würden dafür A7 Kerne wohl vollkommen ausreichen.

Ailuros
2013-01-14, 12:42:10
Wenn ich 5 oder mehr Kerne + ein komplexes Eigendesign brauche um etwas zu bauen für das z.B. auch 2 flexiblere Kerne reichen würden, dann ist das für mich ehrlich gesagt kein Vorteil, sondern durch die unnötige Komplexität ein herber Nachteil.

Alle SoC Hersteller stellen bei jeglicher neuen CPU Generation zuerst dual core configs und spaeter quad core configs vor. Exynos 5250 dual A15 kam mit einer Frequenz von 1.7GHz an und der quad A15 im Exynos octacore wird wohl bis zu (oder mehr) 1.9GHz takten. Sie haetten auch bei dual A15 bleiben koennen nur um die Leistung einer quad CPU@1.9GHz zu erreichen muessten sie auch die Frequenz ziemlich hoch anlegen welches dann zu einem hoeherem Stromverbrauch resultiert als beim quad CPU config.

Bei CPUs mag mit der Anzahl der CPU cores die Leistung zwar nicht linear skalieren (wie teilweise bei SFF GPUs), aber da Stromverbrauch das A und O im mobilen Markt sind lieber mehr cores als gleiche Anzahl mit brutalen Frequenzen welches dann zu zu hohem Stromverbrauch resultiert.

Man wird wohl einsehen koennen dass auch bei smartphones bzw. tablets Leistung zunehmend skalieren muss und ein Pentium4@10GHz wie es ihn Intel versprechen wollte wohl doch eine komplette Schnappsidee war. Und nein dual core fuer jegliche CPU Generation reicht eben NICHT aus um Leistung weiter zu skalieren eben weil hohe Frequenzen zwar am leichtesten die Leistung steigern aber dazu auch noch ueberproportional den Stromverbrauch. Wenn's einem wurscht waere mit einem Batterie-Rucksack fuer sein Handy herumzulaufen ist es schon moeglich eine SFF CPU auf 3 oder sogar 4 GHz heute zu takten.

Lieber die hw in die Breite als hoch mit der Frequenz.

mboeller
2013-01-14, 12:57:05
Sehr häufig denn ansonsten würden Spiele auch nicht auf A9 laufen und das ist die verbreitete Basis. Es gibt im übrigen nicht einen A7 sondern vier und gewechselt wird wohl erst ein ganzes Eck über 1Ghz ;)

Die Anzahl an A15 Kernen muss identisch zu A7 sein: Also in der Praxis 2/2 oder 4/4. Hinzu kommt das einige SoCs mit recht potenter GPU und vier A7 komplett ohne A15 kommen.


Nö, beim Exynos wird genau bei 1GHz gewechselt:

http://forum.beyond3d.com/showpost.php?p=1693565&postcount=300

Hugo78
2013-01-14, 13:10:42
Samsung angeblich vor Abkehr von Mali-GPU
http://www.computerbase.de/news/2013-01/exynos-5-octa-bald-wieder-mit-powervr-grafik/

YfOrU
2013-01-14, 13:14:31
Nö, beim Exynos wird genau bei 1GHz gewechselt:

http://forum.beyond3d.com/showpost.php?p=1693565&postcount=300

ARM hatte sich das noch etwas anders vorgestellt. Das Ziel für A7 war bei big.Little ein paar 100Mhz höher aber anscheinend geht die Leistungsaufnahme mit steigender Frequenz selbst mit A7 im Verhältnis recht früh durch die Decke. Bei 1,2V für 1Ghz ist das allerdings auch kein Wunder wenn das denn wirklich stimmen sollte.

Bild zwei zeigt worauf ich hinaus wollte (Game). Viel Raum für Benchmarkoptimierungen ;)

Gandharva
2013-01-14, 13:48:42
Man wird wohl einsehen koennen dass auch bei smartphones bzw. tablets Leistung zunehmend skalieren muss und ein Pentium4@10GHz wie es ihn Intel versprechen wollte wohl doch eine komplette Schnappsidee war. Und nein dual core fuer jegliche CPU Generation reicht eben NICHT aus um Leistung weiter zu skalieren eben weil hohe Frequenzen zwar am leichtesten die Leistung steigern aber dazu auch noch ueberproportional den Stromverbrauch. Wenn's einem wurscht waere mit einem Batterie-Rucksack fuer sein Handy herumzulaufen ist es schon moeglich eine SFF CPU auf 3 oder sogar 4 GHz heute zu takten.

Lieber die hw in die Breite als hoch mit der Frequenz.
Seit wann bekommt man Leistung nur über Frequenz? Das ist nur ein Weg von mehreren. Wenn die ARM SoCs bereits jetzt schon solche komplexen Designs auffahren müssen um die Verbrauchswerte nicht durch die Decke gehen zu lassen, was passiert dann erst in 2-3 Jahren wenn Intel so weit ist die Core Architektur in diesen Verbrauchsbereichen arbeiten zu lassen? Sehen wir dann ARM 24 + x Kern SOCs bei denen je 4 + x Kerne eine Performance/Watt-Stufe abdecken?

YfOrU
2013-01-14, 13:57:42
Seit wann bekommt man Leistung nur über Frequenz? Das ist nur ein Weg von mehreren. Wenn die ARM SoCs bereits jetzt schon solche komplexen Designs auffahren mössen um die Verbrauchswerte nicht durch die Decke gehen zu lassen, was passiert dann erst in 2-3 Jahren wenn Intel so weit ist die Core Architektur in diesen Verbrauchsbereichen arbeiten zu lassen? Sehen wir dann ARM 24 + x Kern SOCs bei denen je 4 Kerne eine Performance/Watt-Stufe abdecken?

Genau das ist doch der Haken. Die IPC von A15 ist wesentlich höher als bei A9 und dementsprechend auch die Komplexität -> höhere Verlustleistung bei gleicher Frequenz.
A7 geht im Vergleich zu A9 den umgekehrten Weg. Geringere Komplexität, niedrigere IPC und damit reduzierte Verlustleistung.

An dem Punkt an dem sich beide Designs treffen (Effizienz) wird umgeschalten. Intel würde das natürlich anders machen und A15 ein potenteres Powermanagement verpassen sowie den SoC in einem State of the Art Prozess fertigen lassen. Der steht ARM Kunden allerdings nicht zur Verfügung. Die haben wie alle anderen und auch AMD bei der Fertigung mindestens -1.

Gandharva
2013-01-14, 14:02:21
Ja und genau deswegen auch mein obiges Fazit bzgl. schlechter Skalierung und mangelnder Flexibilität. Ich denke das in dieser Beziehung auf jeden Fall etwas passieren muss in den nächsten Jahren.

Die Frage muss doch eher lauten, warum der A15 nicht in der Lage ist die Skala auch nach unten abzudecken?

YfOrU
2013-01-14, 14:15:51
Ja und genau deswegen auch mein obiges Fazit bzgl. schlechter Skalierung und mangelnder Flexibilität. Ich denke das in dieser Beziehung auf jeden Fall etwas passieren muss in den nächsten Jahren.

Die Skalierung kommt dann über die Fertigung und Optimierungen am Design. Bei 20nm sieht das wieder ganz anders aus aber das dauert halt seine Zeit.

Die Frage muss doch eher lauten, warum der A15 nicht in der Lage ist die Skala auch nach unten abzudecken?

Im Tablet funktioniert A15 alleine. Nur für Smartphones wird es eben kritisch aber das war auch abzusehen und in letzter Konsequenz ist es bei der Auslegung auch beabsichtigt gewesen. A15 ist eigentlich nicht als direkter Nachfolger von A9 zu sehen. In diese Kategorie passen eher Krait und Swift denn beide treffen die goldene Mitte (zwischen Smartphone und Tablet). ARM wollte mehr und deshalb gibt es A7 und A15. Ein einzelnes Design lässt sich zumindest für ARM welche IP Cores liefern nicht so weit skalieren. Die IP Cores müssen für die Kunden mit einem vertretbaren Aufwand integrierbar sein.

mboeller
2013-01-14, 14:16:17
A7 geht im Vergleich zu A9 den umgekehrten Weg. Geringere Komplexität, niedrigere IPC und damit reduzierte Verlustleistung.


Interessant wäre es mal 2 A7-Kerne mittels Federation zu einem OOOE-Kern zusammenzuschalten. Auf die Leistung wäre ich wirklich gespannt. Vor allem auf die Leistung pro Watt und die Leistung pro mm²

Ach ja: Federation:
http://www.cs.virginia.edu/~dtarjan/
http://www.cs.virginia.edu/~mwb7w/

YfOrU
2013-01-14, 14:48:06
Interessant wäre es mal 2 A7-Kerne mittels Federation zu einem OOOE-Kern zusammenzuschalten. Auf die Leistung wäre ich wirklich gespannt. Vor allem auf die Leistung pro Watt und die Leistung pro mm²

Ach ja: Federation:
http://www.cs.virginia.edu/~dtarjan/
http://www.cs.virginia.edu/~mwb7w/

Der Ansatz ist wirklich interessant und etwas wie A7 wäre dafür wohl genau die richtige Ausgangsbasis denn Sinn dürfte Federation vor allen bei kleinen Cores machen welche zwangsläufig immer ein latentes IPC Problem haben. Über die reine Skalierung der Frequenz kommt man in der Praxis auf keinen Fall zum Ziel. Gutes PDF, Danke :)

mboeller
2013-01-14, 15:50:54
Keine Ursache. :)

Ich hab schon länger darauf gewartet das ganze mal zu erwähnen.
Ich fand es auch ziemlich "faszinierend".

|MatMan|
2013-01-14, 16:26:47
Ist auch hier ganz deutlich zu sehen:
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13

Primär belastet Modern Combat 3 die GPU. Da die beiden A15 Kerne somit nur ~1 Watt der TDP bekommen (entspricht ungefähr CPU Volllast bei 800Mhz) würden dafür A7 Kerne wohl vollkommen ausreichen.
Naja der IPC Unterschied von A15 zu A7 scheint nach Wikipedia (http://en.wikipedia.org/wiki/List_of_ARM_microprocessor_cores) bis zu Faktor 2 zu sein. 800 MHz@A15 wären dann schon 1,6 GHz@A7... Selbst ein A9 hat noch ~25% mehr IPC.
Bei den meisten aktuellen PC Spielen ist CPU Leistung immernoch wichtig, also würde ich das bei den mobilen Spielen auch erwarten. Klar gibt es immer Ausnahmen. Schade dass Anandtech nicht mehr Spiele vermessen hat.
Ich hab ja nichts dagegen, wenn wenig CPU Leistung reicht, im Gegenteil. Es für mich halt schwer vorstellbar, dass ein modernes Spiel mit z.B. guter Physik und KI mit so wenig CPU Ressourcen auskommt, die ein A7 bietet.

Muss nicht kann aber durchaus so lange die A7 Kerne auf zumindest 1GHz laufen. Im Zweifelfall schau Dir Qualcomm's bzw. Mediatek's neueste mainstream SoCs an die NUR eine quad A7 CPU haben.
Da wäre ich wirklich mal gespannt wie es sich damit surft und spielt.

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&data-source=1&D1=Onda%20V812%20Core4&D2=Asus%20Transformer%20Pad%20TF700T%20Infinity

Links ein quad A7@1GHz, rechts ein Tegra3 mit einem quad A9@1.4GHz. Wo stockt hier die erste CPU fuer 3D genau?
Tja das ist wieder die übliche Frage wie weit ein Benchmark auf reale Anwendungen mit interaktivem Gameplay übertragbar ist. Dazu hier noch ein GPU-Benchmark in Bezug auf CPU Leistung. Es gibt leider so wenig belastbares Material... ;(

Zergra
2013-01-14, 16:46:10
Samsung möchte ja mit dem 8 Chip Design nur Kunden ziehen. Einen wirklichen Sinn hat es nicht. Wofür brauche ich 4 A7 Kerne für den IDLE ? bzw. für den Standby ? Da ist das NV Design wesentlich sinnvoller.

YfOrU
2013-01-14, 17:09:46
Samsung möchte ja mit dem 8 Chip Design nur Kunden ziehen. Einen wirklichen Sinn hat es nicht. Wofür brauche ich 4 A7 Kerne für den IDLE ? bzw. für den Standby ? Da ist das NV Design wesentlich sinnvoller.

Was du gerade beschreibst ist eigentlich das Nvidia Konzept. Im Leerlauf sind die vier A15 Kerne praktisch abgeschaltet und nur der fünfte A15 LP Kern ist aktiv. Hört sich toll an, ist es aber nicht wirklich denn sobald etwas Last kommt müssen reguläre A15 Kerne aufgeweckt werden. Die spielen was die Verlustleistung betrifft sofort in einer anderen Liga denn die aktiven A15 Kerne müssen alle mit der gleichen Taktfrequenz laufen.

Bei Big.Litte macht das ein A7 Kern welcher im Leerlauf garantiert weniger verbrät als der LP A15. Kommt etwas Last werden nach Bedarf weitere A7 Kerne aufgeweckt und wenn richtig was geboten wird migriert zum Beispiel ein A7 zu A15.

->http://forum.beyond3d.com/showpost.php?p=1693565&postcount=300

Naja der IPC Unterschied von A15 zu A7 scheint nach Wikipedia (http://en.wikipedia.org/wiki/List_of_ARM_microprocessor_cores) bis zu Faktor 2 zu sein. 800 MHz@A15 wären dann schon 1,6 GHz@A7... Selbst ein A9 hat noch ~25% mehr IPC.
Bei den meisten aktuellen PC Spielen ist CPU Leistung immernoch wichtig, also würde ich das bei den mobilen Spielen auch erwarten. Klar gibt es immer Ausnahmen. Schade dass Anandtech nicht mehr Spiele vermessen hat.
Ich hab ja nichts dagegen, wenn wenig CPU Leistung reicht, im Gegenteil. Es für mich halt schwer vorstellbar, dass ein modernes Spiel mit z.B. guter Physik und KI mit so wenig CPU Ressourcen auskommt, die ein A7 bietet.


Der ganz große Teil der Smartphone und Tablet Spiele ist sowas von durchgescriptet das selbst die alten Konsolen dagegen Dynamik pur sind. Wirklich mehr als Dual A9 bei 800Mhz bis 1Ghz kann ein Entwickler auf der Seite der CPU heute bezogen auf die Gerätebasis nicht voraussetzen. Dafür sollte A7 auch bei 1Ghz meistens ausreichen und wenn nicht dann muss eben ein (bzw. zwei) A15 Kern(e) herhalten. Für alle vier A15 genügt die TDP des SoCs bei aktiver GPU wohl sowieso nicht.

Gaestle
2013-01-14, 17:17:25
Aber die Anteile der Laufzeiten der A15-Kerne an den Gesamtlaufzeiten wären bestimmt interessant. 10%?

YfOrU
2013-01-14, 17:22:14
Aber die Anteile der Laufzeiten der A15-Kerne an den Gesamtlaufzeiten wären bestimmt interessant. 10%?

Schlussendlich natürlich sehr ähnlich zu den Turbo Modi bei typischen Notebook CPUs. Aufgabe abarbeiten (wie Website laden/rendern) und dann zurück zu A7.

robbitop
2013-01-14, 17:22:16
Außerdem lassen sich die A15 Kerne nicht nur einzeln abschalten sondern auch noch auf verschiedenen Powerstates betreiben. Die laufen sicher nur super selten auf vollem Takt und voller Spannung. Ich kann mir sogar vorstellen, dass die sogar nur für Lastspitzen angeworfen werden. Das geht ja heute im Bereich von Mikrosekunden. Zum Scrollen in Webseiten und Anwendungen (oder Video und Musik konsumieren) reichen bei 3D beschleunigter Oberfläche ja die A7. Sobald mal eine Seite geladen oder eine App geladen werden muss, werden die A15 kurz aufgeweckt.
Ich finde das big.LITTLE Konzept deutlich schlüssiger - und es ist auch transpartent für den Scheduler.
Das Gerät ist selbst bei Betrieb (außer Spielen) zum Großteil der Zeit im idle oder unteren Teillastbereich und gerade da ziehen A7 Kerne deutlich weniger Leistung, weil sie aus wesentlich weniger Transistoren bestehen.

YfOrU
2013-01-14, 18:00:52
Ich finde das big.LITTLE Konzept deutlich schlüssiger

Es ist auf jeden Fall effizienter und lässt sich noch am ehesten in größeren Smartphones implementieren. Dafür aber komplexer und das ist bezogen auf die Tegra Serie bisher nicht gerade das treffende Schlagwort.

|MatMan|
2013-01-14, 18:51:25
Der ganz große Teil der Smartphone und Tablet Spiele ist sowas von durchgescriptet das selbst die alten Konsolen dagegen Dynamik pur sind. Wirklich mehr als Dual A9 bei 800Mhz bis 1Ghz kann ein Entwickler auf der Seite der CPU heute bezogen auf die Gerätebasis nicht voraussetzen. Dafür sollte A7 auch bei 1Ghz meistens ausreichen und wenn nicht dann muss eben ein (bzw. zwei) A15 Kern(e) herhalten. Für alle vier A15 genügt die TDP des SoCs bei aktiver GPU wohl sowieso nicht.
Dass alle 4 A15 benutzt werden hab ich ja auch gar nicht behauptet. Mir ging es darum dass wenigstens ein A15 für Spiele benutzt wird als nur die schwachen A7...

Ich finde das big.LITTLE Konzept deutlich schlüssiger - und es ist auch transpartent für den Scheduler.
Mir ist an dem Konzept noch nicht klar wofür ich 4 von den A7 Kernen im idle oder zum Musik hören brauche. Ist es das Konzept denn auch für WindowsRT transparent? Gibt es dazu schon Informationen? Falls ja, warum sollte das mit der Kernanzahl zusammenhängen?

Wie sieht es eigentlich mit Die-Size bzw. der Anzahl der Transistoren von 4 A7 Kernen im Vergleich zu 1 A15 aus? Ist der A15 evtl. sogar kleiner?

Ich will Tegra 4 gar nicht verteidigen. In Tegra 3 war die Idee toll, bei Tegra 4 wäre es IMO sinnvoller gewesen einen A7 statt dem 5. A15 zu integrieren...

YfOrU
2013-01-14, 19:35:42
Dass alle 4 A15 benutzt werden hab ich ja auch gar nicht behauptet. Mir ging es darum dass wenigstens ein A15 für Spiele benutzt wird als nur die schwachen A7...

Als konträres Beispiel könnte ein Schachspiel theoretisch alle vier A15 Kerne auslasten und die GPU hätte nur geringe Last aufgrund von ein paar Animationen.
In der Realität ist sowas auf den mobilen Plattformen aber natürlich der Ausnahmefall und es läuft deutlich in die andere Richtung.
Der wirklich limitierende Faktor ist die gemeinsame TDP aus welcher möglichst immer das effizienteste Ergebnis zu ziehen ist.

-> Die CPU(s) arbeiten genau so schnell das die GPU am Limit hängt (v-sync oder FPS Limiter im Spiel) denn alles darüber hinaus reduziert die Akkulaufzeit unnötig. Wobei hier bezogen auf schnell der Wechsel zwischen A7 und A15 genauso als Powerstate zu sehen ist wie Änderungen der Frequenz.

Mir ist an dem Konzept noch nicht klar wofür ich 4 von den A7 Kernen im idle oder zum Musik hören brauche.

Siehe darüber. Die A7 sind die Abrundung der Powerstates nach unten:

A7 Kern skaliert von 200Mhz bis 1Ghz
A15 Kern skaliert von 800Mhz bis 1,7Ghz

Beide sind dabei als eine CPU zu sehen und bilden somit ein Paar. Damit das Konzept bei einem Quadcore funktioniert werden vier Paar benötigt.

Ailuros
2013-01-14, 20:03:33
Samsung angeblich vor Abkehr von Mali-GPU
http://www.computerbase.de/news/2013-01/exynos-5-octa-bald-wieder-mit-powervr-grafik/

Ich sollte oefters meine Klappe halten :P


Da wäre ich wirklich mal gespannt wie es sich damit surft und spielt.

Mainstream Leistung bei mainstream smartphone Preis. Nicht alle wollen ueber 600 Euros fuer ein smartphone hinlegen.

Tja das ist wieder die übliche Frage wie weit ein Benchmark auf reale Anwendungen mit interaktivem Gameplay übertragbar ist. Dazu hier noch ein GPU-Benchmark in Bezug auf CPU Leistung. Es gibt leider so wenig belastbares Material... ;(

Da die benchmarks nicht nur in einer Aufloesung laufen sieht man ziemlich leicht dass die CPU schon limitiert. Wie lange und wie oft gab es Apple SoC mit gleich starken oder sogar noch bescheideneren CPUs? Und wie YforU schon oefters sagte keiner der higher end CPUs lauft je auf voller Auslastung unter 3D. Bei Tegra3 werden unter 3D schon alle 4*A9 laufen aber selten bis nie hoeher als 800MHz. Und dabei legt NV mehr Stress auf ihre CPUs durch 3D als jegliche andere Platform eben da so gut wie moeglich front to back vorsortiert werden muss.

|MatMan|
2013-01-14, 22:51:27
Siehe darüber. Die A7 sind die Abrundung der Powerstates nach unten:

A7 Kern skaliert von 200Mhz bis 1Ghz
A15 Kern skaliert von 800Mhz bis 1,7Ghz

Beide sind dabei als eine CPU zu sehen und bilden somit ein Paar. Damit das Konzept bei einem Quadcore funktioniert werden vier Paar benötigt.
Das ist soweit schon klar, die workload für z.B. 4x A7 @ 500 MHz sehe ich trotzdem irgendwie nicht. Selbst wenn es so eine Anwendung gibt, würde ein einzelner niedrig getakteter A15 das wohl auch schultern (und der Stromverbrauch soll dabei so dramatisch höher sein?). Wie wird denn überhaupt zur Laufzeit entschieden auf welchen Kern jetzt ausgeführt wird?

Für mich ist da ne große Portion Marketing dabei um eine 8-Kern CPU zu verkaufen. Falls es aus irgendeinem Grund für 100% Transparenz ggü. dem OS benötigt wird, lass ich mich da gern umstimmen und nehm ich es zurück. Die Lage ist da einfach noch zu unklar warum die Umschaltung bei Tegra 3 unter Android funktioniert aber mit Windows (noch) nicht.

YfOrU
2013-01-15, 08:47:07
Das ist soweit schon klar, die workload für z.B. 4x A7 @ 500 MHz sehe ich trotzdem irgendwie nicht. Selbst wenn es so eine Anwendung gibt, würde ein einzelner niedrig getakteter A15 das wohl auch schultern (und der Stromverbrauch soll dabei so dramatisch höher sein?). Wie wird denn überhaupt zur Laufzeit entschieden auf welchen Kern jetzt ausgeführt wird?

Ist genauso abhängig von der Auslastung wie die Skalierung der Frequenz.
A7 @ 1Ghz mit mindestens 95% Auslastung -> A15 @ 800Mhz und bei Bedarf weitere Skalierung der Frequenz.

Wobei eben zuerst (multi-threaded) die Last auf die vorhandenen A7 Kerne verteilt wird. Erst wenn ein Thread mehr Leistung fordert als ein A7 Kern liefern kann wird dieser zu einem A15 migriert.

Zu A7 / A15 aus dem ARM White Paper:
http://www.arm.com/files/pdf/Advances_in_big.LITTLE_Technology_for_Power_and_Energy_Savings.pdf

Across a range of benchmarks, the CortexA15 delivers roughly 2x the performance of the Cortex-A7 per unit MHz, and the Cortex-A7 is roughly 3x
as energy efficient as the Cortex-A15 in completing the same workloads.

Solche massiven Differenzen bei der IPC schlagen brutal auf die Effizienz. Solange Aufgaben von A7 Kernen schnell genug abgearbeitet werden können ist es immer der effizientere Weg.


Für mich ist da ne große Portion Marketing dabei um eine 8-Kern CPU zu verkaufen. Falls es aus irgendeinem Grund für 100% Transparenz ggü. dem OS benötigt wird, lass ich mich da gern umstimmen und nehm ich es zurück. Die Lage ist da einfach noch zu unklar warum die Umschaltung bei Tegra 3 unter Android funktioniert aber mit Windows (noch) nicht.

Bei einer 2/2 oder 4/4 Konfiguration kann das OS die Powerstates von A7 über A15 wie üblich durchfahren als wäre es eine CPU. Bei 1/4 wie Tegra geht das so natürlich nicht. Anpassungen sind bei beiden Varianten nötigt, letztere ist aber viel weiter vom klassischen Model entfernt und unflexibel.

Nunja, Marketing und buntes zählen der Kerne ist nichts neues. Es ist ein SoC mit 8 Kernen welche aber (Mobility) dem OS als 4 präsentiert werden (mehr als 4 Kerne sind nie aktiv). Alternativ gibt es das MP Modell und hier sind dann alle 8 parallel ansprechbar. Macht in einem Smartphone bzw. Tablet aber natürlich keinen Sinn.

robbitop
2013-01-15, 08:54:48
Es gibt zu jedem A15 Kern einen kleinen Bruder, der die Powerstates nach unten abrundet. Ansonsten kann es die Situation ergeben, dass ein A15 Kern mehr als nötig eingeschaltet werden muss. Bspw eine Anwendung, die 2 Kerne benutzt, den 2. aber nur sehr wenig. Oder eine die 4 Kerne nutzt aber die Hauptlast ist nur auf einem Kern. Dann kommen schon 3x A7 zum Einsatz.
Dank Power Gating, verbraucht keiner der abgeschalteten Kerne Strom.

Ich kann mir sehr gut vorstellen, dass das ganze nur transparent funktioniert, wenn jede A15 CPU einen kleinen Bruder mit dem gleichen Instruction Set hat. Und die A7 kosten eh kaum Fläche.

YfOrU
2013-01-15, 09:17:46
Ich kann mir sehr gut vorstellen, dass das ganze nur transparent funktioniert, wenn jede A15 CPU einen kleinen Bruder mit dem gleichen Instruction Set hat. Und die A7 kosten eh kaum Fläche.

Ja, es geht dabei um DVFS (Dynamic Voltage and Frequency Scaling). Bei Android Endgeräten als Beispiel lassen sich die Abstufungen meist mit wenig Aufwand auch nachträglich manuell anpassen.

In den zugehörigen Tabellen sind vereinfacht dargestellt die verschiedenen Taktstufen/Spannungen hinterlegt. Bei Big.Little sieht es für das OS aus als wäre weiterhin nur ein Kern vorhanden.
Exemplarisch wären die ersten Abschnitte A7 (200Mhz - 1Ghz) und mit Stufe 5 wird von A7 @ 1Ghz zu A15 @ 800 Mhz migriert. Stufe 6 wäre dann beispielsweise A15 @ 1Ghz.

In de Realität ist das heute oft komplexer da die Auslastung einzelner Einheiten, Temperatur etc. ebenfalls mit einbezogen werden können um auch das letzte mW rauszuholen.
Beispiel: TI SmartReflex
http://www.ti.com/lit/wp/swpy015a/swpy015a.pdf

Grundsätzlicher Überblick, DVFS:
http://processors.wiki.ti.com/index.php/DVFS_User_Guide#What_is_DVFS.3F

YfOrU
2013-01-22, 07:34:06
Browser Benchmarks sind zwar immer etwas ungenau aber so ist das halt unter Chrome OS.

Acer C7 Chromebook Review: Celeron 847 @ 800MHz im Vergleich zu Exynos 5 Dual 1.7GHz und Atom N570 1,66Ghz.
http://www.anandtech.com/show/6476/acer-c7-chromebook-review/3

Die IPC des 32nm SB Celeron ist eine Hausnummer für sich und die integrierte GPU macht sich auch ganz ordentlich. Wenn man sich überlegt das bei Intel die zweite 22nm Runde ansteht gibt das zu denken.

Undertaker
2013-01-22, 09:43:32
Interessant wäre da noch die Frage, wo die ungefähre TDP des Exynos 5 Dual-Cores liegt? Auch bei der interessanten Teillast scheint er deutlich effizienter als der Celeron, der aber natürlich auch nicht gerade ein Perf/W Spitzenmodell aus Intels CPU-Palette ist.

Das die GPU-Leistung des SoCs schon fast auf dem Level einer HD 2000 liegt, finde ich doch recht stattlich.

YfOrU
2013-01-22, 15:45:34
Interessant wäre da noch die Frage, wo die ungefähre TDP des Exynos 5 Dual-Cores liegt? Auch bei der interessanten Teillast scheint er deutlich effizienter als der Celeron, der aber natürlich auch nicht gerade ein Perf/W Spitzenmodell aus Intels CPU-Palette ist.

-> http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13

Im Nexus 10 sind es etwas über 4W TDP. Darüber (simultane Last auf CPU und GPU) setzt die Drosselung ein.


Das die GPU-Leistung des SoCs schon fast auf dem Level einer HD 2000 liegt, finde ich doch recht stattlich.

Bei gut 4W unter GPU Last wäre alles andere ziemlich peinlich.

Ailuros
2013-01-22, 17:26:25
Das die GPU-Leistung des SoCs schon fast auf dem Level einer HD 2000 liegt, finde ich doch recht stattlich.

Die GPU Leistung im Fall von Mali T6xx (egal welcher Variante) haette um einiges besser sein koennen wenn ARM nicht die Schnappsidee gehabt haette FP64 in hw zu giessen.

Ailuros
2013-01-24, 18:16:12
http://www.brightsideofnews.com/news/2013/1/22/new-samsung-galaxy-s4-to-pack-an-8-core-soc-processor.aspx

The GPU is also greatly upgraded - from an old Mali-T400 to the next-gen Mali-T628 or T658, the most powerful GPU ARM has in store for the smartphone market (the only real difference between T628, T658 and T678 are targeted markets, e.g. different clock speeds for smartphones and tablets).

:biggrin:

deekey777
2013-01-24, 19:00:03
Und letzte Woche war es noch ein MP-SGX?

Ailuros
2013-01-24, 21:36:57
Und letzte Woche war es noch ein MP-SGX?

Ich muss lediglich mit Theo und seinem Quark lachen.

Ailuros
2013-02-15, 21:21:53
http://www.xbitlabs.com/news/mobile/display/20130215112128_Samsung_Plans_to_Sell_100_Million_Galaxy_S_IV_Smartphones.html

In a note to clients on Thursday, Jefferies & Company analyst Peter Misek reported that Samsung intends to build 100 million units of its upcoming flagship Google Android-based smartphone citing usual sources among components suppliers, reports BGR web-site. The analyst believes that the tremendous volume of the handset will affect the whole market and that component manufacturers will have to reallocate their resources from their large customer, Apple.

“The enormous 100 million Galaxy S IV build plan (we estimate the S III sold 60 million) is leading some suppliers to say that they will reallocate resources away from Apple,” wrote Mr. Misek.


:eek:

deekey777
2013-02-15, 21:43:46
Apple planning TV-related media event in March ahead of Apple TV relaunch this fall [Update: Nope] (http://appleinsider.com/articles/13/02/13/apple-planning-tv-related-media-event-in-march-ahead-of-apple-tv-relaunch-this-fall)

Apple is gearing up for a special media event next month related to its television initiative that may deliver the tools developers will need to prepare applications for a formal relaunch of the company's Apple TV product, analysts for Jefferies Equity Research said Wednesday.

Und etwas später:

Update: The always-reliable Jim Dalrymple has refuted Jefferies claim of a media event from Apple next month after hearing from to his contacts at Apple. Dalrymple's track record on matters such as these has thus far been spectacular.

Irgendwie waren die Meldungen zumindest bgzl. Apple (nicht nur AppleTV-Event, da gab es eine Roadmap) sehr suspekt für andere Analysten, daher stellt sich die Frage, ob man Miseks Äußerungen bzgl. Samsung ernstnehmen soll oder doch lieber meiden.

Ailuros
2013-02-15, 21:58:09
Irgendwie waren die Meldungen zumindest bgzl. Apple (nicht nur AppleTV-Event, da gab es eine Roadmap) sehr suspekt für andere Analysten, daher stellt sich die Frage, ob man Miseks Äußerungen bzgl. Samsung ernstnehmen soll oder doch lieber meiden.

Es spricht sich generell im Hintergrund herum dass Samsung neue Smartphone Verkaufs-rekorde innerhalb 2013 erreichen will. Ob der spezifische Analyst jetzt recht hat oder nicht keine Ahnung.

Aber packen wir es mal wo anders an: wenn Apple so oder so zumindest einen Anteil ihrer SoC Herstellung schon zu TSMC getragen hat, hat Samsung so oder so es um zich mal leichter die freien Kapazitaeten fuer sich selber auszunutzen.

Sonst verfolg ich appleinsider eigentlich nie, ausser es postet mal hier und da jemand einen Link. Ein Event ist schon fuer bald geplant von dem was sich im Hintergrund gefluestert wird, aber nichts dass mit TV zu tun haben koennte. Auch die i-Geraete roadmap die ich glaub ich vor kurzem bei xbitlabs gesehen habe war BS.

deekey777
2013-02-15, 22:20:27
Die aktuellen Studien zeigen: Es gibt kein iOS vs. Android, sondern Apple vs. Samsung. Samsung ist aktuell ein Synonym für Android, daher hat das kommende Flaggschiff das Zeug, dass es einschlagen wird.

Nightspider
2013-02-15, 22:49:18
Ich frage mich ab wann erste Sättigungseffekt auftreten im Smartphone Markt.

Es werden ja seit Jahren alle Leistungsklassen bedient und ich schätze das ca.die Hälfte aller Smartphone-Besitzer ihr Smartphone mind. 3 Jahre behalten.

Leistung haben die Dinger ja mittlerweile genug für den Alltag. Gründe zum Aufrüsten/Ersetzen gibt es nicht viele.

Ich kenne viele Galaxy S2 Besitzer die kein Bedarf sehen ihr Gerät auf absehbare Zeit auszutauschen. Gerade bei der Schwemme an Fernost-Smartphones für LowEnd und Mainstream-Märkte in jeder Preisklasse und auch von namenhaften Herstellern wie Samsung muss ja früher oder später ein Rückgang der globalen Verkaufszahlen zu erwarten sein.

Vielleicht noch nicht dieses Jahr oder 2014 aber vielleicht 2015. Wer weiß.

Ailuros
2013-02-17, 11:04:13
Die aktuellen Studien zeigen: Es gibt kein iOS vs. Android, sondern Apple vs. Samsung. Samsung ist aktuell ein Synonym für Android, daher hat das kommende Flaggschiff das Zeug, dass es einschlagen wird.

OSs haben aber auch offensichtlich nichts mit Samsung's Herstellungskapazitaeten zu tun. Bis zu A6X/A6 stellte Apple alle SoCs bei Samsung her; entfaellt jetzt N Prozentual an Herstellungsvolumen von Samsung, kann Samsung entweder die dadurch freigestellten Kapazitaeten an ihre Partner verkaufen oder es fuer ihre eigene Herstellung ausnutzen.

Der zweite Fall klingt mir unter den hypothetischen Variablen oben als logischer. Bei einem Samsung vs. Apple Vergleich, verkauft bis heute Apple immer noch mehr high end smartphones (da es eben nur ein iPhone gibt) und bei Gewinnmargen die immer noch einen gesunden Abstand zu Samsung's eigenen high end smartphones haben. Ergo welches Samsung vs. Apple willst Du genau am Ende haben, wenn Du die beiden gegenueberstellen wisst? Soll ich Samsung's $100-150 smartphones auch mit iPhones vergleichen oder was?

Ich frage mich ab wann erste Sättigungseffekt auftreten im Smartphone Markt.

Irgendwann werden Herstellungsprozesse primaer die Weiterentwicklung bremsen.

Es werden ja seit Jahren alle Leistungsklassen bedient und ich schätze das ca.die Hälfte aller Smartphone-Besitzer ihr Smartphone mind. 3 Jahre behalten.

2-3 Jahre waren es stets fuer die Mehrzahl von Anfang an. Es rennt eben nicht jeder Galaxy bzw. iPhone Besitzer jedes Jahr in die Laeden um sich ein neues smartphone zu holen.

Leistung haben die Dinger ja mittlerweile genug für den Alltag. Gründe zum Aufrüsten/Ersetzen gibt es nicht viele.

Vielleicht zwischen S2 und S3 weniger, aber fuer einen GalaxyS Besitzer hat ein S3 schon einen mehr als sehenswerten Unterschied gemacht.

Ich kenne viele Galaxy S2 Besitzer die kein Bedarf sehen ihr Gerät auf absehbare Zeit auszutauschen. Gerade bei der Schwemme an Fernost-Smartphones für LowEnd und Mainstream-Märkte in jeder Preisklasse und auch von namenhaften Herstellern wie Samsung muss ja früher oder später ein Rückgang der globalen Verkaufszahlen zu erwarten sein.

So toll wie jegliches low cost Superangebot oefters klingen mag, ist man auch meistens bei z.B. halbem Preis oder weniger ein paar Macken zu tolerieren.

Vielleicht noch nicht dieses Jahr oder 2014 aber vielleicht 2015. Wer weiß.

28LP ist schon in einem ziemlich stabilen Zustand um sehenswerte Volumen fuer die grossen SoC-Hersteller zu erlauben und es gibt auch noch genug Sklalierungs-raum innerhalb 28nm egal wo. Dass es kritisch mit 20nm aussehen wird wird wohl kein Geheimnis sein, aber dieses wird erst ab 2014 die ersten Kopfschmerzen machen.

Mal sehen ob sich etwas auch in der OS Landschaft langsam aber zunehmend in der Zukunft aendern koennte: http://www.engadget.com/2013/02/15/touch-based-ubuntu-preview-coming-february-21st/?a_dgi=aolshare_twitter

YfOrU
2013-02-20, 21:03:08
Samsung Exynos 5 Die mit A7 und A15 Cluster:
http://www.anandtech.com/show/6768/samsung-details-exynos-5-octa-architecture-power-at-isscc-13

In Relation zu A15 ist der A7 einfach nur winzig. Beide CPU Cluster zusammen liegen allerdings schon nahe an der Fläche eines Jaguar Quad.

Nightspider
2013-02-20, 21:11:35
Ob Samsung damit gegen QualComms S600 ankommen kann?

Gegen den S800 sehe ich auf jeden Fall schwarz.

dildo4u
2013-02-20, 21:12:54
Infos zur GPU

http://www.theinquirer.net/inquirer/news/2249399/samsung-develops-a-programmable-mobile-gpu

Ailuros
2013-02-20, 21:59:27
Infos zur GPU

http://www.theinquirer.net/inquirer/news/2249399/samsung-develops-a-programmable-mobile-gpu

Zu welcher GPU fuer was? Es ist nicht das erste Mal dass sich Samsung zu einer GPU Architektur traut; beim letzten Versuch war es ein totales disaster und wurde eingestampft.

Samsung measured that a 30fps HD 1080p stream can be encoded or decoded by the CPU when it runs at 1.6GHz - and thus consumes a lot of power. If you move the task to the GPU, then the GPU can perform the same task running at only 160MHz, resulting in 10 times lower power consumption.

...und fuer was genau hat man heutzutage dedizierte video decoder und encoder? 160MHz ist sogar zu viel fuer decoding eines H.264 HP @ L4.1 streams bei 30fps.

During its presentation Samsung mentioned that this integrated processor offers sustained rates of 72.5 gigaFLOPS for GPGPU computing and 240 MP/s for image signal processing.

Die 72.5 GFLOPs fuer GPGPU bei 333MHz sind schon beindruckend. Mal sehen was daraus wird.

***edit: Anand gerade: http://www.anandtech.com/show/6768/samsung-details-exynos-5-octa-architecture-power-at-isscc-13

Ailuros
2013-02-25, 09:30:38
http://www.sammobile.com/2013/02/23/samsung-ditches-own-amoled-and-exynos-inside-new-galaxy-s-iv-with-bootscreen/

Kann durchaus sein dass es stimmt; mir wollte das 4*A15 + 4*A7 config fuer einen smartphone design irgendwie nicht in den Kopf passen.

Mit aller Wahrscheinlichkeit kommt das S4 mit einem quad Krait@1.9GHz an und eine Adreno320 GPU; entweder taktet diese auf ~480MHz anstatt 400MHz bisher oder Qualcomm hat die Treiber etwas aufgepumpt in der Zwischenzeit.

YfOrU
2013-02-25, 09:41:09
Kann durchaus sein dass es stimmt; mir wollte das 4*A15 + 4*A7 config fuer einen smartphone design irgendwie nicht in den Kopf passen.


Das Problem ist insgesamt auch hausgemacht. Eine Variante mit 2*A7 + 2*A15 wäre hier sicher möglich gewesen aber ist Gift für das Marketing (Vorgänger: 4*A9). Wird interessant wie Samsung hier langfristig reagiert denn statt mehr Unabhängigkeit von Qualcomm tritt (auf Basis der ARM IP Cores) aktuell wohl das Gegenteil ein.

Ailuros
2013-02-25, 10:07:02
Das Problem ist insgesamt auch hausgemacht. Eine Variante mit 2*A7 + 2*A15 wäre hier sicher möglich gewesen aber ist Gift für das Marketing (Vorgänger: 4*A9). Wird interessant wie Samsung hier langfristig reagiert denn statt mehr Unabhängigkeit von Qualcomm tritt (auf Basis der ARM IP Cores) aktuell wohl das Gegenteil ein.

Wie ich schon im Tegra thread sagte: wenn es Samsung schafft den Exynos5 irgendwie auf die Beine zu bringen in der Zwischenzeit dann ok; aber der octacore klang stets als too good to be true. Es hat schon danach gerochen als sich die GPU Frequenz konstant reduzierte von den anfangs geplanten 533MHz. Falls Samsung wirklich einen Unzahl an high end smartphones dieses Jahr verkaufen will und es bleibt bei Qualcomm, hat sich Qualcomm einen massiven deal gesichtert und IMG hat soeben einen massiven deal verloren und glotzt ins Leere (ist aber auch ausserhalb ihrer Kontrolle).

Ailuros
2013-02-26, 14:46:26
Neueste Geruechte legen ein logischeres Licht auf die Affaere: nach diesen Qualcomm S600 (OC) fuer LTE Maerkte und Exynos octacore fuer non LTE Maerkte. Keine Ahnung was genau stimmt, denn Samsung scheint in letzter Zeit auch mit der Geheimnistuerei Apple folgen zu wollen :biggrin:

Nightspider
2013-02-26, 14:50:23
Hälst du S600 nur für einen übertakteten S4 Quad?

Offizielle Paper mit Änderungen gibt es ja auch noch nicht oder?

Ailuros
2013-02-26, 17:34:03
Hälst du S600 nur für einen übertakteten S4 Quad?

Klingt Dir das hier nach einem stinknormalem S600: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+SHV-E300S&testgroup=system

HTC One bei 1.7GHz:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=HTC+One&testgroup=system

Wobei im ersten die GPU zufaelligerweise auch 20% mehr leistet in GL2.5.

Offizielle Paper mit Änderungen gibt es ja auch noch nicht oder?

***edit: etwas mehr als 2 Wochen noch: http://www.fudzilla.com/home/item/30593-galaxy-s4-comes-on-march-14

Nein aber Qualcomm hat schon erwaehnt dass es S600 mit hoeheren Frequenzen mit der Zeit geben wird.

YfOrU
2013-02-26, 21:28:27
Neueste Geruechte legen ein logischeres Licht auf die Affaere: nach diesen Qualcomm S600 (OC) fuer LTE Maerkte und Exynos octacore fuer non LTE Maerkte. Keine Ahnung was genau stimmt, denn Samsung scheint in letzter Zeit auch mit der Geheimnistuerei Apple folgen zu wollen :biggrin:

Wenn ein Provider die Wahl zwischen LTE und HSDPA hat wird es praktisch immer ersteres. LTE Geräte und Verträge bieten höhere Margen und gleichzeitig sind so die hohen Investitionskosten für den Netzausbau leichter zu stemmen.
Ganz blauäugig würde ich sagen das der Exynos später und dann erstmal nur in geringen Stückzahlen verfügbar sein wird. Zumindest bleibt so noch die Option später eine + Version (Exynos mit LTE) nachzuschieben.

Ailuros
2013-02-26, 21:34:06
Keine Ahnung, kann aber durchaus sein. Halbwegs sicher bin ich mir schon dass sie moeglicherweise ein Stromverbrauchs-Problem haben. Die wichtigere Frage waere ob es ein Implementierungs-Problem ist oder ob A15 generell zu anspruchsvoll ab einem Punkt fuer smartphones am Ende sind.

dildo4u
2013-02-28, 02:01:53
Octa Core im Referenz Tabelt

http://www.computerbase.de/news/2013-02/arm-zeigt-samsung-exynos-5-octa-im-einsatz/

Ailuros
2013-03-07, 09:14:06
http://www.xbitlabs.com/news/monitors/display/20130306222023_Samsung_Invests_110_Million_into_Troubled_Sharp.html

Es waere wirklich eine Schande wenn Sharp eingehen wuerde.

Ailuros
2013-03-16, 09:57:25
http://www.fudzilla.com/home/item/30782-samsung-confirms-high-end-tizen-phone

Wenn ich mich nicht irre ARM Mali; der OS Name wird aber nicht besonders helfen. Es wird Material fuer so manchen ueblen Witz werden.

***edit: doch ich irrte mich schon. 3 von 4 zukuenftigen Projekten wurden storniert u.a. auch der 5450.

Ailuros
2013-04-03, 17:17:46
Exynos5410 im 3dmark Ice storm:

http://www.enet.com.cn/article/2013/0403/A20130403273397.shtml

Die Physics Resultate sind leider absurd im Vergleich zu den 5250 Resultaten bei Anandtech; ausser die A7 laufen nur in dem demo oder dann doch auf A15 aber bei laecherlicher Frequenz.

***edit: na um einiges realistischer:

http://www.max-up.ru/news-apple/3dmark-sgs4-exynos-vs-htc-one.html

Ailuros
2013-05-22, 13:07:59
http://www.xbitlabs.com/news/mobile/display/20130520235723_Samsung_Taps_Intel_Atom_Processor_for_Galaxy_Tab_3_10_Media_Table t.html

Intel Clovertrail + fuer ihr Samsung Galaxy Tab 3; nachdem FLOP mit ihrer eigenen GPU Entwicklung die zu mehreren Projekt-Stornierungen fuehrte kein Wunder.

Nightspider
2013-05-22, 13:14:11
Ist bekannt was bei Samsung nach 28nm kommt? Kommt noch ein Zwischenschritt bis 20nm?

TSMC ist ja Ende des Jahres schon so weit mit 20nm, also könnte es theoretisch schon zwischen Dezember und Januar die ersten 20nm Chips von QualComm und Co. geben.

@Ailuros: was erwartest du für Exynos SoCs im Frühjahr 2014?

Ich glaube kaum das Samsung 8 A15 Cores in einen SoC packen wird. Wird man bei 4+4 bleiben und nur die Taktraten bei der CPU hochschrauben, eine größere GPU verbauen und den gesamten Stromverbrauch senken? Was erwartet uns 2014?

iFanatiker
2013-05-22, 14:42:22
Intel Clovertrail + fuer ihr Samsung Galaxy Tab 3; nachdem FLOP mit ihrer eigenen GPU Entwicklung die zu mehreren Projekt-Stornierungen fuehrte kein Wunder.

Jetzt mal ehrlich. Eigenes CPU Design hätte ich ja verstanden....aber WTF eigens GPU Design bei dem IP Angebot auf dem Markt? :freak:

Ailuros
2013-05-22, 15:17:43
Ist bekannt was bei Samsung nach 28nm kommt? Kommt noch ein Zwischenschritt bis 20nm?

TSMC ist ja Ende des Jahres schon so weit mit 20nm, also könnte es theoretisch schon zwischen Dezember und Januar die ersten 20nm Chips von QualComm und Co. geben.

Samsung duerfte auch auf ihrem 20nm arbeiten, aber stets natuerlich mit Verfuegbarkeit spaeter als TSMC u.a.

@Ailuros: was erwartest du für Exynos SoCs im Frühjahr 2014?

Ich glaube kaum das Samsung 8 A15 Cores in einen SoC packen wird. Wird man bei 4+4 bleiben und nur die Taktraten bei der CPU hochschrauben, eine größere GPU verbauen und den gesamten Stromverbrauch senken? Was erwartet uns 2014?

Ich will bezweifeln dass sie es mit ihrem 20nm schon so frueh schaffen. Womoeglich ein 5410 refresh mit hoeheren Frequenzen und danach mit 20nm dann eben quad A57 + quad A53.

Samsung wird mit aller Wahrscheinlichkeit weiterhin ARM GPU IP benutzen.

Ailuros
2013-05-24, 11:41:47
http://forum.beyond3d.com/showthread.php?t=61267&page=22

Wenn man in die links reinliest hat Samsung wohl intern so manche Probleme. Rueckzieher fuer die vorige Antwort; es klingt eher danach als ob Samsung in absehbarer Zukunft eher fertige SoCs von dritten kaufen wird.

Wer sich die Haende reibt ist schon bekannt, aber ich kann es noch nicht erwaehnen.

Quite frankly, the fact that the Exynos 5 currently only works in "either or" configuration almost certainly means that there is something fundamentally wrong with the hardware design, to the point where no amount of "complex patches" can fix it.

And no, I have absolutely no information about the Exynos to actually back that up. But quite frankly, the easiest way by far to do big.little would be to just treat it as CPU hotplug, which Linux has supported for a long time. At which time mixing things should be trivial from a software standpoint.

The fact that that isn't how people do it makes me go: "the hardware is buggered".

The most likely explanation for the buggery is that cache coherency doesn't work between little.big cores. So each cluster of four CPU's is cache-coherent within the cluster, but not across clusters. That is, afaik, what nVidia does for their 4+1 "vSMP" too.

And non-cache-coherent clusters are a bitch to handle. The easiest way to do it is to basically turn off one cluster, flush the caches on it, and turn on another one. Which would explain the reports of "S Lag" on the Exynos 5 octa. Switching between clusters is going to result in user-noticeable latencies.

I understand why you'd do this as a hardware designer - it makes your job oh so much easier. But I don't understand people who think it's actually a good idea in the bigger picture.

I now return you to your regularly scheduled excuse-fest from Wilco about how ARM did it right, and why cache coherency is a bad idea.

Linus

http://www.realworldtech.com/forum/?threadid=133089&curpostid=133421

Nightspider
2013-05-24, 11:55:54
Ich glaube alle anderen als QualComm kann man ausschließen, was die Smartphone SoCs betrifft. In Tablets sehe in Qualcomm und Intel SoCs.

Ailuros
2013-05-31, 18:42:12
Na zumindest wurde ich von diversen Seite bis auf den Punkt korrekt informiert:

http://forum.beyond3d.com/showpost.php?p=1743591&postcount=569

"...Something went on during last winter that panicked the mobile division to change SoC provider for many variants of the S4.."

"...We have information from several sources that Exynos’s CCI is inherently crippled in silicon..."

"...Internally at SLSI, as many as three projects were cancelled late last year..."

"...The surprise use of the SGX 544MP3 in the Exynos 5410 is due to panic caused by Mali’s own T6xx GPUs: again an issue of extremely excessive power consumption..."

"The above is written by a guest writer, a current respected and knowledgeable developer in the community"

Ailuros
2013-06-13, 19:00:26
http://fudzilla.com/home/item/31684-samsung-moves-in-on-nokia

Samsung auch beim oeffnen von Filialen um Personal von der Konkurrenz anzulozen.

Avalox
2013-07-23, 11:37:47
Der neue Exynos Octa 5420 bekommt die Mali T628 MP6 GPU und soll die Grafikperformance damit gegenüber den PowerVR Vorgänger verdoppeln.

Die CPU soll trotz identischen Taktes um 20% beschleunigt werden, zudem wird schnellerer DDR3 Speicher unterstützt.

http://global.samsungtomorrow.com/?p=26025

Ailuros
2013-07-23, 11:42:20
http://www.anandtech.com/show/7164/samsung-exynos-5-octa-5420-switches-back-to-arm-gpu

Exynos5420

4*A15@1.8GHz + 4*A7@1.3GHz
ARM Mali T628MP6@600MHz

Anand ist zwar vorsichtig genug die 5420 Implementierung zu bezweifeln aber nach meinen Infos sollten auf dem 5420 alle 8 CPU cores simultan operativ sein.

Kein Wunder dass der 5410 Nachfolger so schnell ankam, da 5410 wohl wirklich ziemlich buggy ist.

Der neue Exynos Octa 5420 bekommt die Mali T628 MP6 GPU und soll die Grafikperformance damit gegenüber den PowerVR Vorgänger verdoppeln.

Wenn die 600MHz stimmen dann in GLB2.7 schon. In allem anderem....:rolleyes:

Die CPU soll trotz identischen Taktes um 20% beschleunigt werden, zudem wird schnellerer DDR3 Speicher unterstützt.

http://global.samsungtomorrow.com/?p=26025

Ich sehe keinen identischen Takt; die Frequenzen sind fuer CPUs und Speicher um einen Schnitt hoeher als im 5410 und gerechtfertigen auch die 20% Behauptung; in Echtzeit koennte es durchaus mehr sein wenn man die hw bugs im 5410 bedenkt und eben hauptsaechlich die Tatsache dass im 5420 eben endlich 8 threads/cores simultan operativ sein koennen.

Avalox
2013-07-23, 12:28:38
Anand ist zwar vorsichtig genug die 5420 Implementierung zu bezweifeln aber nach meinen Infos sollten auf dem 5420 alle 8 CPU cores simultan operativ sein.


Das soll doch beim Vorgänger auch schon prinzipiell möglich sein.
Ich müsste jetzt schauen in einer der c't wurde diese bein 5410 ausdrücklich mit einer Auskunft von Samsung hinterlegt so beschrieben.
Müsste ich mal den Artikel heraus suchen. Im selben Absatz wurde dann auf den passenden heterogenes MT unterstützenden Scheduler Ende des Jahres in Android hingewiesen. (Android 5 ?)
Etwas entsprechendes gibt es in keinem Consumer OS bisher und ohne diesen wird auch der 5420 nur mittels Taskmigration also 4+4 arbeiten können. Ich bin gespannt, dass wird noch interessant.

Ailuros
2013-07-23, 12:44:39
Das soll doch beim Vorgänger auch schon prinzipiell möglich sein.
Ich müsste jetzt schauen in einer der c't wurde diese bein 5410 ausdrücklich mit einer Auskunft von Samsung hinterlegt so beschrieben.
Müsste ich mal den Artikel heraus suchen. Im selben Absatz wurde dann auf den passenden heterogenes MT unterstützenden Scheduler Ende des Jahres in Android hingewiesen. (Android 5 ?)
Etwas entsprechendes gibt es in keinem Consumer OS bisher und ohne diesen wird auch der 5420 nur mittels Taskmigration also 4+4 arbeiten können. Ich bin gespannt, dass wird noch interessant.

The Exynos 5410 saw limited use, appearing in some international versions of the Galaxy S 4 and nothing else. Part of the problem with the design was a broken implementation of the CCI-400 coherent bus interface that connect the two CPU islands to the rest of the SoC. In the case of the 5410, the bus was functional but coherency was broken and manually disabled on the Galaxy S 4. The implications are serious from a power consumption (and performance) standpoint. With all caches being flushed out to main memory upon a switch between CPU islands. Neither ARM nor Samsung LSI will talk about the bug publicly, and Samsung didn't fess up to the problem at first either - leaving end users to discover it on their own.

http://www.anandtech.com/show/7164/samsung-exynos-5-octa-5420-switches-back-to-arm-gpu

Der hw bug im 5410 fuer das obrige wurde sowohl von Entwicklern als auch von Users nachgewiesen. Samsung hat es indirekt in der Zwischenzeit schon zugestanden, ergo ist es wohl total scheissegal ob und was in welcher These genau gehen sollte, der SoC ist und bleibt eine Fehlgeburt.

Nebenbei was Anand andeutet aber nicht klar ausspricht ist dass die chinesischen white box OEMs diesmal keine echte Samsung SoCs benutzen um billige GalaxyS4 Kopien herzustellen sondern MTK6589T. Die GalaxyS3 Kopien die ich bis jetzt gesehen habe, hatten alle Exynos4412 integriert. Im allerbesten Fall hat Samsung nur weniger als eine handvoll Mio 5410 SoCs auf den Markt geworfen und die brutale Mehrzahl war alles QCOM S600@steroids.

Ailuros
2013-07-25, 12:45:36
Uebrigens keine SIMD ALUs fuer T6xx sondern Vec4.

robbitop
2013-07-25, 12:57:21
Uebrigens keine SIMD ALUs fuer T6xx sondern Vec4.
Vec4 ist auch SIMD. Single Instruction Multiple Data.
Was du meinst ist, dass man jeden Kanal separat ansteuern kann (analog G80), richtig? Das geht letzten Endes auch seit R600/G80 auch nur durch anderes Ordnen der Inputs. Sonst wäre es ja MIMD. Im Prinzip berechnet man einen Quad nicht in einem Takt sondern in so vielen Takten, wie Zeilen im Vektor/Matrix vorhanden sind. Dafür rendert man aber mehrere Quads Parallel auf einer SIMD.

Bei Vec4 rechnest du im Prinzip pro Takt immer ein Quad. Wenn du aber weniger Zeilen im Vektor/Matrix hast als 4, verschwendest du Kanäle der SIMD. Dafür gab es Co-Issue / Dual-Issue, bei dem man immerhin Vec3+1 oder Vec2+2 aufsplitten konnte.

Der G80 Ansatz ist natürlich wesentlich effizienter. Viele nennen das 1D-ALUs (auch wenn das sicher nicht korrekt ist).

Bottom Line: Das sind alles SIMDs, aber die Ansteuerung macht die Effizienz.

Ich empfinde es als interessant, dass die SFF GPUs überhaupt schon z.T. auf so eine Ansteuerung setzen. Das kostet sicher auch ordentlich Transistoren.

Ailuros
2013-07-25, 13:07:02
Vec4 ist auch SIMD. Single Instruction Multiple Data.
Was du meinst ist, dass man jeden Kanal separat ansteuern kann (analog G80), richtig? Das geht letzten Endes auch seit R600/G80 auch nur durch anderes Ordnen der Inputs. Sonst wäre es ja MIMD. Im Prinzip berechnet man einen Quad nicht in einem Takt sondern in so vielen Takten, wie Zeilen im Vektor/Matrix vorhanden sind. Dafür rendert man aber mehrere Quads Parallel auf einer SIMD.

Bei Vec4 rechnest du im Prinzip pro Takt immer ein Quad. Wenn du aber weniger Zeilen im Vektor/Matrix hast als 4, verschwendest du Kanäle der SIMD. Dafür gab es Co-Issue / Dual-Issue, bei dem man immerhin Vec3+1 oder Vec2+2 aufsplitten konnte.

Der G80 Ansatz ist natürlich wesentlich effizienter. Viele nennen das 1D-ALUs (auch wenn das sicher nicht korrekt ist).

Bottom Line: Das sind alles SIMDs, aber die Ansteuerung macht die Effizienz.

Ich empfinde es als interessant, dass die SFF GPUs überhaupt schon z.T. auf so eine Ansteuerung setzen. Das kostet sicher auch ordentlich Transistoren.

Bis zu Mali400 war ARM ziemlich grosszuegig mit register file Mengen, ergo war jegliche Problematik nicht so gross wie in anderen designs (glaub bloss nicht dass die Auslastung auf SGX ideal ist, eben weil die register files teilweise zu knapp sind auf einigen Varianten). Wird wohl auch auf T6xx so sein und ja ich hab tatsaechlich sogenannte "skalare" ALUs fuer T6xx erwartet.

iFanatiker
2013-07-29, 20:13:37
Die Electronic News vermelden, dass Samsung ein eigenes CPU Design aufsetzt:

http://english.etnews.com/device/2806178_1304.html

In Anbetracht der ganzen Probleme mit dem A15 Referenz Design mit welchen nicht nur Samsung massiv zu kämpfen hat (Tegra 4 Tablet im Büro -> Kernschmelze Ahoi sobald man das Ding auch nur einmal schief anschaut mit Chrome :freak:) eigentlich der einzige logische Schritt. Die Lösung von ARM mit dem A12 Design ist auch eher "suboptimal" wie man so munkeln hört. Dazu hat sich die Zusammenarbeit mit Apple in Austin wohl doch deutlich ausgezahlt für Samsung. Da ja beide im Moment anscheinend auf "Schmusekurs" sind mal schauen ob es Kompensationsgeschäfte geben wird.

Wobei mir die Planung "optimistisch" erscheint mit 2014...hängt aber davon ab wann Samsung die Probleme mit dem A15 "erkannt" hat. :biggrin:

Ailuros
2013-07-30, 07:25:08
Die Electronic News vermelden, dass Samsung ein eigenes CPU Design aufsetzt:

http://english.etnews.com/device/2806178_1304.html

In Anbetracht der ganzen Probleme mit dem A15 Referenz Design mit welchen nicht nur Samsung massiv zu kämpfen hat (Tegra 4 Tablet im Büro -> Kernschmelze Ahoi sobald man das Ding auch nur einmal schief anschaut mit Chrome :freak:) eigentlich der einzige logische Schritt. Die Lösung von ARM mit dem A12 Design ist auch eher "suboptimal" wie man so munkeln hört. Dazu hat sich die Zusammenarbeit mit Apple in Austin wohl doch deutlich ausgezahlt für Samsung. Da ja beide im Moment anscheinend auf "Schmusekurs" sind mal schauen ob es Kompensationsgeschäfte geben wird.

Wobei mir die Planung "optimistisch" erscheint mit 2014...hängt aber davon ab wann Samsung die Probleme mit dem A15 "erkannt" hat. :biggrin:

Samsung ist damit verdammt spaet dran; anstatt Milliarden fuer GPU Entwicklung zu verplempern (Muelltonnen-Material) waere es angebrachter gewesen in CPU Entwicklung zu investieren.

Sonst gibt es keine "Probleme" mit A15 wenn man die IP richtig implementiert; nur weil Samsung's engineers zu daemlich sind trotz unendlichen resourcen etwas anstaendiges auf Anhieb auf die Beine zu stellen ohne von anderen etwas abzuglotzen heisst es noch lange nicht dass die CPU IP daran schuld ist. Und weil das Thema Samsung/GPU ziemlich alt ist:

http://forum.beyond3d.com/showthread.php?t=64080

Ich hab aufgegeben zu zaehlen wie OFT sie schon mit aehnlichen Projekten platt auf die Nase gefallen sind....

Ja ARM CPU IP fehlt es an gewisser Flexibilitaet, aber entschuldige wie "flexibel" kann man denn genau jegliche IP gestalten damit auch wirklich ALLE zufrieden sein koennen? Genau deshalb goennt ARM nur Lizenzen basierend auf ihren ISAs fuer diejenigen die mehr Freiheit bei der Entwicklung brauchen.

Ob jetzt 2014 oder 2015 ist eigentlich wurscht; ich hab bei Samsung und ihren engineering flops der letzten Zeit kein besonderes Vertrauen mehr. Sie haben es nichtmal geschafft big.LITTLE auf Anhieb richtig zu integrieren und es soll mit einer custom CPU auf Anhieb klappen? Hallo Qualcomm? Ja koennt ihr vielleicht ein paar dutzend Mio mehr SoCs fuer Samsung bereitstellen?

Ich bin ehrlich neugierig wie Mediatek's erster big.LITTLE Versuch aussehen wird. Falls die es mit dem ersten Zug richtig gemacht haben wird die eigentliche Blamage fuer Samsung noch groesser.

Hugo78
2013-07-30, 07:57:24
Sie haben es nichtmal geschafft big.LITTLE auf Anhieb richtig zu integrieren und es soll mit einer custom CPU auf Anhieb klappen?

Also es wird zumindest die Übernahmegerüchte um AMD anheizen.

Ailuros
2013-07-30, 13:16:37
Also es wird zumindest die Übernahmegerüchte um AMD anheizen.

Ein Bulldozer in Atom Format ist das letzte das wir brauchen....oooops :eek:

;D

iFanatiker
2013-07-30, 16:05:32
Samsung ist damit verdammt spaet dran; anstatt Milliarden fuer GPU Entwicklung zu verplempern (Muelltonnen-Material) waere es angebrachter gewesen in CPU Entwicklung zu investieren.

Full ACK. Ich finde es immer noch unglaublich, dass Samsung LSI allen ernstes eigene GPU IP haben wollte. Gerade dort gibt es ja eine Auswahl an guten Designs...... :freak:


Sonst gibt es keine "Probleme" mit A15 wenn man die IP richtig implementiert; nur weil Samsung's engineers zu daemlich sind trotz unendlichen resourcen etwas anstaendiges auf Anhieb auf die Beine zu stellen ohne von anderen etwas abzuglotzen heisst es noch lange nicht dass die CPU IP daran schuld ist. Und weil das Thema Samsung/GPU ziemlich alt ist:

http://forum.beyond3d.com/showthread.php?t=64080

Also....ich kann nur folgendes feststellen:

Eigentlich sollten A15 basierte Designs nun den ganzen SFF Markt überfluten. Aktuell scheint niemand es mit den aktuellen Fertigungsverfahren in Griff zu haben. Der T40S ist noch eine großere thermonukleare Waffe. Beim Toshiba Execute Pro reicht es vollkommen aus einfach nur Chrome zu verwenden (kaum Auslastung der GPU -> starke Auslastung der CPU Kerne) um aktuell den thermischen Schutz massiv "anzusprechen"....wenn man den Akku noch auflädt schaltet das Gerät ab. :freak: Bin mal echt auf ein Tegra 4 Smartphone gespannt -> erzeugt schwarze Löcher angeblich.

Bei den Octacore wie ich mitbekomme ist doch der Cache Kohärenz Logik Baustein wohl sehr problematisch und laut Gerüchten hatte wohl die IP einen Fehler drin in der Revision 1. Deswegen hüllen sich wohl Samsung und ARM da ganz dick in ganz tiefes schweigen.

Und bei Mediatek mal abwarten. Ankündigen kann man viel. Wenn ich mir mal aktuell das Memo Pad 7 HD anschaue merkt man, dass auch die nur mit heißen Wasser kochen. Die Treiber in der 4.2.1 FW waren.......unterirdisch. Durch das Update jetzt geht es. Es verkauft sich halt durch den brutal niedrigen Preis (kannst selbst bei geringeren Mengen dat Ding für unter deutlich unter 5 US-$ bekommen).

Fakt ist trotzdem, dass Qualcomm der große Sieger ist. :biggrin:

LordDeath
2013-07-30, 17:28:31
Samsung pflegt wohl eine Whitelist, um in Benchmarks höhere Taktraten als üblich zu fahren:
http://www.anandtech.com/show/7187/looking-at-cpugpu-benchmark-optimizations-galaxy-s-4

Ailuros
2013-07-30, 19:01:34
Full ACK. Ich finde es immer noch unglaublich, dass Samsung LSI allen ernstes eigene GPU IP haben wollte. Gerade dort gibt es ja eine Auswahl an guten Designs...... :freak:

Wenn man so gross wie Samsung ist wird man auch verdammt arrogant und dabei gibt es bei grossen semis leider keine Aussnahmen. LSI wollte nie Lizengebuehren fuer GPU IP bezahlen und da kam natuerlich ARM Mali zur richtigen Zeit. Wenn man gleichzeitig CPU & GPU IP verkauft und dazu in grossen Mengen kann man eventuell schon etwas wegfallen lassen.

Dann kamen aber die Stromverbrauch-Probleme die auch heute noch nicht geloest sind mit den Malis und sie wollten einfach etwas dass sie unter direkter Kontrolle haben; nur war eben die Effizienz zum kotzen beschissen bei der eigenen GPU.


Und bei Mediatek mal abwarten. Ankündigen kann man viel. Wenn ich mir mal aktuell das Memo Pad 7 HD anschaue merkt man, dass auch die nur mit heißen Wasser kochen. Die Treiber in der 4.2.1 FW waren.......unterirdisch. Durch das Update jetzt geht es. Es verkauft sich halt durch den brutal niedrigen Preis (kannst selbst bei geringeren Mengen dat Ding für unter deutlich unter 5 US-$ bekommen).

Fakt ist trotzdem, dass Qualcomm der große Sieger ist. :biggrin:

MT6589 ist zwar ein SoC und MT8125 ein tablet applications processor, aber ich hab beim ersten keine Probleme. Das wifi Signal ist fuer meinen Geschmack viel zu beschissen, was ich aber in Anand's review fuer das Memo Pad nicht sehen kann eher das Gegenteil.

MT8135 hat eine dual A15 + dual A7 CPU und eine low end G6200 Rogue GPU; soll Q3 erscheinen und MTK will bis Ende des Jahres 20Mio samples vom Laufband geben. Billig ja aber im chinesischen Markt raeumen sie regelrecht auf.

Natuerlich ist QCOM der grosse Gewinner, aber in Maerkten wie China Fuss zu fassen wird weder QCOM noch Apple so leicht schaffen weil es eben nicht so leicht ist Preise so stark zu reduzieren.

***edit: die erste Welle von S800 Geraeten im Anmarsch http://gfxbench.com/result.jsp?site=dx

mboeller
2013-07-30, 19:18:27
MT8135 hat eine dual A15 + dual A7 CPU und eine low end G6200 Rogue GPU; soll Q3 erscheinen und MTK will bis Ende des Jahres 20Mio samples vom Laufband geben. Billig ja aber im chinesischen Markt raeumen sie regelrecht auf.


Immer langsam mit den Pferden. :)

laut Mediatek erwarten sie die ersten Geräte mit dem MT8135 frühestens Ende 2013 auf dem Markt.


MediaTek is sampling MT8135 to its lead customers now. Presumably those OEM are in the high-end tablet market. Finbarr Moynihan, MediaTek’s platform marketing director, told us, “I would expect our lead customers’ tablets to start volume production in late fourth quarter, early first quarter.”


Link: http://www.eetimes.com/document.asp?doc_id=1319064

Eigentlich schade, ich hatte auch früher damit gerechnet. Damit werden wahrscheinlich die Apfel-Schnittchen die ersten mit Rogue auf dem Markt sein.

Ailuros
2013-07-30, 19:31:02
Mediatek und high end passt sowieso nicht in den gleichen Satz. Die Projektion fuer das 20Mio Ziel kommt von MTK selber ich kann mich lediglich nicht mehr dran erinnern wo ich es gelesen habe; es handelt sich um SoCs an Partner und nicht um kaufbare Produkte.

Ja natuerlich kommt Apple zuerst mit Rogue auf die Regale und ich erwarte auch um einiges hoehere Leistung von den i-Geraeten als von dem MTK Zeug. Hat jemand je etwas anderes erwartet?

Nightspider
2013-07-30, 19:45:18
Wurden jetzt eigentlich im neuen Exynos die Fehler des big.LITTLE Designs beseitigt?

Ergo: funktionieren die 4+4 SoCs jetzt richtig beim Umschalten?

Ailuros
2013-07-31, 10:17:56
Wurden jetzt eigentlich im neuen Exynos die Fehler des big.LITTLE Designs beseitigt?

Ergo: funktionieren die 4+4 SoCs jetzt richtig beim Umschalten?

So wie es aussieht ja. Die Frage ist wofuer sie den Exynos5420 genau benutzen werden, da selbst im Note3 ein S800 zu stecken scheint.

Sven77
2013-07-31, 10:29:17
Für Schwellenländer ^^

Ailuros
2013-07-31, 11:08:26
Für Schwellenländer ^^

Das war beim 5410 der Fall wo sie dank problematischer hw sehr schlechte yields hatten; 5420 hat nicht das gleiche Problem. Ich koennte mir eher einen Nexus10 Nachfolger dafuer vorstellen.

Nightspider
2013-07-31, 12:27:51
Der Exynos 5420 kommt neben dem S800 in die zwei neuen 10 und 12 Zoll Tablets von Samsung mit 2560er Auflösung.

Ailuros
2013-07-31, 13:15:19
Der Exynos 5420 kommt neben dem S800 in die zwei neuen 10 und 12 Zoll Tablets von Samsung mit 2560er Auflösung.

Ok dann noch eine weiterer dekorativer SoC waehrend sich QCOM mal wieder die Haende reiben kann.

Ailuros
2013-08-14, 19:04:41
http://www.youtube.com/watch?v=LPOUekzdDAo&feature=player_embedded

Mal ein weiteres video das zeigt wie CPU und GPU sich verhalten koennen in synthetischen benchmarks. Hier mal 3DMark und die GPU im Odroid XU taktet bis auf 640MHz und nicht nur 532MHz wie im Exynos5410.

Bei 640MHz in 3dmark verbraucht der 544MP3 anscheinend bis zu 1.9W, wobei ich den Durchschnitt bei =/>1.6W einschaetze. Jetzt brauch ich lediglich Resultate in GLB2.7 um sie zu NV Logan zu parellelisieren.

AffenJack
2013-08-14, 20:05:13
Kannst du doch locker extrapolieren von den Ergebnissen des S4 in GlBench, landest also bei knapp unter Ipad4-Niveau. Logan sieht da nen gutes Stück besser aus, aber naja, das Ding hat dafür keine A7 die den CPU-Stromverbrauch senken können und ist natürlich viel breiter gebaut. Da ist das Ergebnis nun nicht gerade nen Wunder.

Ailuros
2013-08-14, 20:17:20
Kannst du doch locker extrapolieren von den Ergebnissen des S4 in GlBench, landest also bei knapp unter Ipad4-Niveau. Logan sieht da nen gutes Stück besser aus, aber naja, das Ding hat dafür keine A7 die den CPU-Stromverbrauch senken können und ist natürlich viel breiter gebaut. Da ist das Ergebnis nun nicht gerade nen Wunder.

Kann ich, ich kann aber den Stromverbrauch zwischen GLB2.7 und 3dmark nicht parellelisieren.

Die GPU vom S4 taktet in GLB2.7 auf 480MHz und erreicht 14.2 fps; mit theoretisch perfektem scaling liegt das Odroid mit der GPU auf 640MHz auf 18.9 fps.

Ailuros
2013-09-04, 09:21:11
http://www.brightsideofnews.com/news/2013/9/3/rumor-samsung-in-talks-to-buy-renesas-mobile.aspx

Samsung verhandelt mit Renesas fuer einen Renesas mobile Verkauf.

deekey777
2013-09-12, 15:40:26
Not to be outdone by Apple's iPhone 5s, Samsung pledges 64-bit chips in next Galaxy phones (http://appleinsider.com/articles/13/09/12/not-to-be-outdone-by-apples-iphone-5s-samsung-pledges-64-bit-chips-in-next-galaxy-phones)
After Apple announced that the A7 chip in its iPhone 5s will be the first 64-bit smartphone processor on the market, Samsung quickly revealed that its next-generation Galaxy handsets will also go 64-bit.
Ich kann mir schwer vorstellen, dass Samsung damit nicht eigene Chips, sondern die von Qualcom meint.
Oder setzt Samsung auf Intel wie schon beim Galaxy Tab 3 10.1?

Ailuros
2013-10-01, 18:57:41
Zwar keine Exynos SoCs aber trotzdem unverschaemt:

http://arstechnica.com/gadgets/2013/10/galaxy-note-3s-benchmarking-adjustments-inflate-scores-by-up-to-20/

Undertaker
2013-10-01, 19:24:19
Ich bin eher erstaunt, wie viel das ausmacht... Greift die automatische Frequenzsteuerung so träge? Bei Windows-Geräten gibt es hier praktisch keinerlei Leistungsdifferenz.

Btw: Wie heißt eigentlich diese schicke App, die die Taktraten der Kerne anzeigen kann?

LordDeath
2013-10-01, 21:34:49
Ich bin eher erstaunt, wie viel das ausmacht... Greift die automatische Frequenzsteuerung so träge? Bei Windows-Geräten gibt es hier praktisch keinerlei Leistungsdifferenz.

Btw: Wie heißt eigentlich diese schicke App, die die Taktraten der Kerne anzeigen kann?

Ich glaub eher, dass für diese Benchmarks das Throttling der CPU abgeschaltet wird. Im Normalfall gibt es so gut wie nie die vollen 4x 2.3 GHz aber für die Dauer dieser Benchmarks ist das für Samsung wohl unproblematisch.

Die gezeigte App findest du hier: https://play.google.com/store/apps/details?id=com.cgollner.systemmonitor

Ailuros
2013-10-02, 08:52:07
Ich glaub eher, dass für diese Benchmarks das Throttling der CPU abgeschaltet wird.

Nicht abgeschaltet aber es wird eben nicht bei N Temperatur halt gemacht fuers throttling sondern bei N+n% ;)

Im Normalfall gibt es so gut wie nie die vollen 4x 2.3 GHz aber für die Dauer dieser Benchmarks ist das für Samsung wohl unproblematisch.

Die gezeigte App findest du hier: https://play.google.com/store/apps/details?id=com.cgollner.systemmonitor

Gilt genauso fuer die jeweilige GPU; absoluter Duennschiss. Was will sich damit jeglicher Hersteller selber und dem Endverbraucher genau vorgaukeln?

Ailuros
2013-10-02, 19:13:08
Anand hat sich mal selber etwas Zeit dafuer genommen. Boo an all die beteiligten die wenigstens ein "Y" in der Tabelle haben und Hut ab an NVIDIA die in dem Fall nichts zum bescheissen hatte:

http://www.anandtech.com/show/7384/state-of-cheating-in-android-benchmarks

Nightspider
2013-10-02, 20:15:10
Der aktuelle Exynos Octa unterstützt noch kein LTE-A oder?

robbitop
2013-10-02, 20:27:55
Not to be outdone by Apple's iPhone 5s, Samsung pledges 64-bit chips in next Galaxy phones (http://appleinsider.com/articles/13/09/12/not-to-be-outdone-by-apples-iphone-5s-samsung-pledges-64-bit-chips-in-next-galaxy-phones)

Ich kann mir schwer vorstellen, dass Samsung damit nicht eigene Chips, sondern die von Qualcom meint.
Oder setzt Samsung auf Intel wie schon beim Galaxy Tab 3 10.1?
Der nächste Exynos wird wohl einen A57 haben (ARM v8). Das ist damit bestimmt gemeint.

Blediator16
2013-10-02, 22:27:56
Anand hat sich mal selber etwas Zeit dafuer genommen. Boo an all die beteiligten die wenigstens ein "Y" in der Tabelle haben und Hut ab an NVIDIA die in dem Fall nichts zum bescheissen hatte:

http://www.anandtech.com/show/7384/state-of-cheating-in-android-benchmarks

Der einzige T4 in der Tabelle ist ein aktiv gekühltes Gerät. Da müsste überall Y stehen;D

Ailuros
2013-10-03, 06:18:37
Der einzige T4 in der Tabelle ist ein aktiv gekühltes Gerät. Da müsste überall Y stehen;D

Um fair zu sein jegliches passiv gekuehltes T4 Geraet hat auch einen gesunden Leistungs-abstand vom Shield.

Avalox
2013-10-15, 12:58:22
Ddaily. Die in der Vergangenheit mit guter Trefferquote aufwarten konnten, kommt der Bericht, dass das S5 Anfang nächsten Jahres mit einem
8 Kern 64 Bit Exynos 6 ausgestattet sein soll, welcher in einem 14nm Prozess hergestellt wird.
Die Produktion soll dieses Jahr noch starten.

http://m.ddaily.co.kr/view.php?uid=109670

Ailuros
2013-10-15, 12:59:55
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9958900&postcount=58

***edit: damit ich es nicht vergesse:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9953502&postcount=10

urpils
2013-10-15, 14:06:31
Ddaily. Die in der Vergangenheit mit guter Trefferquote aufwarten konnten, kommt der Bericht, dass das S5 Anfang nächsten Jahres mit einem
8 Kern 64 Bit Exynos 6 ausgestattet sein soll, welcher in einem 14nm Prozess hergestellt wird.
Die Produktion soll dieses Jahr noch starten.

http://m.ddaily.co.kr/view.php?uid=109670

das ist ne ernstgemeinte Frage, weil ich in der Android-thematik nicht so sehr drinstecke:

inwiefern könnte Android davon profitieren? einen Kernel auf 64-bit zu wuppen sollte ja nicht unmöglich sein - durch diese Java-VM-Geschichte dürfte aber wohl eher dort das größere Problem sein, oder? gibt es 64-Entwicklungsumgebungen für Android? hat Google dazu was verlauten lassen?

Ailuros
2013-10-15, 17:42:31
das ist ne ernstgemeinte Frage, weil ich in der Android-thematik nicht so sehr drinstecke:

inwiefern könnte Android davon profitieren? einen Kernel auf 64-bit zu wuppen sollte ja nicht unmöglich sein - durch diese Java-VM-Geschichte dürfte aber wohl eher dort das größere Problem sein, oder? gibt es 64-Entwicklungsumgebungen für Android? hat Google dazu was verlauten lassen?

Muesste man einen waschreinen Entwickler fuer seine Meinung fragen; ich bezweifle dass Android 64bit nicht in Planung hat. Dass es erstmal zunehmend 64bit CPUs geben wird ist erstmal positiv damit sich Entwickler ueberhaupt damit beschaeftigen koennen. Es ist ja nicht nur Samsung dass fuer's naechste Jahr 64bit CPUs plant sondern auch Qualcomm und Mediatek u.a. Mit diesen ist schon mehr oder weniger der groesste Teil des Android Markts gedeckt, ergo wird es nicht all zu lange dauern bis in 2-3 Jahren der lowest common denominator mit 64bit CPUs gedeckt ist.

Avalox
2013-10-15, 17:47:17
Doch Android hat eine konkrete 64Bit Umsetzung in Vorbereitung. Intel selbst hat die Thematik rechtzeitig getrieben.

Der größte Vorteil ist eben die Unterstützung von 4GB und mehr Arbeitsspeicher. Der Vorteil ist, dass sich Android dann auch andere Anwendungsfelder erschließen.

Die nächsten Schritte.
http://gigaom2.files.wordpress.com/2013/09/64bit.jpg

SentinelBorg
2013-10-17, 16:22:23
Im Note 3 schlägt sich der Exynos 5420 übrigens nicht schlecht gegen den S800:

http://forum.xda-developers.com/showthread.php?t=2483293

Bei purer CPU Leistung liegt der Exynos oft vorne, bei GPU jedoch zurück. Energieverbrauch scheint recht ähnlich zu.

Wenn man bedenkt, dass der Exynos noch mehr Optimierungspotential hat (Kernel/Scheduler, GPU Treiber), dann kann aus big.LITTLE wohl doch noch etwas werden. Nächstes Jahr dürften die Karten neu gemischt werden, nun wo Samsung langsam aus der Lernphase raus gekommen ist.

Ailuros
2013-10-17, 16:31:57
Wenn QCOM wiederrum nicht etwas "nachlaessiger" mit Temperaturen bzw. Stromverbrauch in benchmarks waere dann waere der 5420 schon meistens zumindest auf Gleichstand wenn es zu GPU Leistung kommt. ARM ist afaik einwandfrei wenn es zu GPU Optimierungen kommt; alles zu 100% legal bis jetzt, was man leider fuer Qcom nicht behaupten kann.

Sonst ist es bei Samsung nicht eine einfache "Lernphase" sondern eine lange reihe an verpatzten Projekten und Milliarden die zum Klo runtergespuelt wurden.

YfOrU
2013-10-17, 20:27:11
Bei purer CPU Leistung liegt der Exynos oft vorne, bei GPU jedoch zurück. Energieverbrauch scheint recht ähnlich zu.

Es würde mich schon stark wundern wenn der Abstand (Laufzeit) von S800 zu 5420 bei intensiver Nutzung von mobilen Sprach und Datenverbindungen kleiner geworden ist als bei S600 zu 5410 und da ging es nicht mehr um Minuten.

Samsung hat hier wieder das gleiche Problem wie beim S4:
Entweder den 5420 zusammen mit einer Qualcomm Baseband verbauen (damit inkl. LTE) aber wohl teurer als direkt einen S800 (LTE integriert) zu nehmen oder die alte und energiehungrige non LTE Baseband. Beim Note 3 mit Exynos wurde es letzteres. Als kleiner Seitenhieb fällt mir da direkt ein das Samsung was mobile Funktechnik betrifft soeben von Intel überholt wurde. Die haben eine marktreife LTE Baseband ;)

Ailuros
2013-10-25, 18:20:24
http://www.fudzilla.com/home/item/32953-samsung-64-bit-exynos-soc-should-be-ready-for-galaxy-s5

Soll ich wetten einnehmen ob sie es diesmal schaffen beim dritten Versuch big.LITTLE endlich richtig zu implementieren? :P;D

Ailuros
2013-11-06, 15:42:22
http://aod.teletogether.com/sec/20131106/S.LSI_Namsung%20Woo_Samsung%20System%20LSI%20Business.pdf

YfOrU
2013-11-06, 16:31:37
http://aod.teletogether.com/sec/20131106/S.LSI_Namsung%20Woo_Samsung%20System%20LSI%20Business.pdf

2-step approach:
AP with ARM’s 64-bit core
AP with Samsung’s own 64-bit core

Dual tracks for modem collaboration:
High-end: 2-chip strategy with Tier-1 modem suppliers
Mid/low-end: ModAP using system company’s modem

Wer da zwischen den Zeilen liest ;)
Big.Little wohl mittelfristig gegessen da Custom Cores.
Zu "Tier-1 modem suppliers" gehört die eigene Abteilung nicht mehr.

Ailuros
2013-11-06, 16:55:37
2-step approach:
AP with ARM’s 64-bit core
AP with Samsung’s own 64-bit core

Dual tracks for modem collaboration:
High-end: 2-chip strategy with Tier-1 modem suppliers
Mid/low-end: ModAP using system company’s modem

Wer da zwischen den Zeilen liest ;)
Big.Little wohl mittelfristig gegessen da Custom Cores.
Zu "Tier-1 modem suppliers" gehört die eigene Abteilung nicht mehr.

Kannst Du es mir etwas einfacher erklaeren, weil ich beim obrigen mal wieder einen blonden Moment habe?

Nebenbei schnall ich immer noch nicht ob dem 5420 jetzt ein weiterer A15 SoC folgen soll (Seite 11) oder doch am Ende A53/7 (64bit) SoCs.

Ist es so in etwa:

* Anfang 2014 A15 SoC@20nm
* ??? A53 SoC@14nm FinFET
* Custom 64bit CPU SoC@ ???

Jedesmal wenn LSI von hw-Entwicklung blubbert laeuft mir kaltes Wasser den Buckel runter. Da sie es bis jetzt nicht geschafft haben big.LITTLE richtig zu integrieren (und die sw Unterstuetzung laut Entwickler dafuer immer noch ziemlich stinkt) *ahem* http://www.fudzilla.com/home/item/33062-samsung-admits-its-software-is-rubbish ....kann ich nur "au weia" momentan zu einem custom CPU core sagen.

robbitop
2013-11-06, 17:14:28
Custom Cores sind nicht überraschend.

Ailuros
2013-11-06, 18:23:30
Custom Cores sind nicht überraschend.

Durchaus nicht; mir macht nur LSI's Entwicklungs-Geschichte eigentlich Sorgen.

YfOrU
2013-11-06, 18:32:05
Kannst Du es mir etwas einfacher erklaeren, weil ich beim obrigen mal wieder einen blonden Moment habe?

Zuerst kommt ein big.Little mit A57/A53. Sollte 20nm sein auch wenn ich mir nicht so sicher bin ob das im Zusammenspiel mit der Samsung Mobile Roadmap wirklich klappt (Verfügbarkeit, Volumen). Die Problematik gibt es praktisch jedes Jahr wieder.

Darüber hinaus würde ich mit zwei getrennten Linien rechnen. Also ARM IP Cores wie A53 (sowie integrierte Baseband) für Low-Cost und Custom Cores mit externer Baseband darüber.
An Custom Cores vor 14nm FinFET glaube ich momentan nicht. A53 mit integrierter Baseband wäre bei 20nm aber durchaus vorstellbar denn für dieses Segment muss Samsung was neues bringen. Die alten A9 Quads (Low-Cost) sind nicht mehr auf der Höhe der Zeit und für A7 ist es langsam zu spät.

Ailuros
2013-11-06, 18:36:36
Zuerst kommt ein big.Little mit A57/A53. Sollte 20nm sein auch wenn ich mir nicht so sicher bin ob das im Zusammenspiel mit der Samsung Mobile Roadmap wirklich klappt (Verfügbarkeit, Volumen). Die Problematik gibt es praktisch jedes Jahr wieder.

Och es gibt ja stets QCOM :wink:

Darüber hinaus würde ich mit zwei getrennten Linien rechnen. Also ARM IP Cores wie A53 für Low-Cost und Custom Cores darüber.

Macht Sinn nur kann ich den A15@>2GHz auf Seite 11 immer noch nicht verstehen.

YfOrU
2013-11-06, 19:01:01
Macht Sinn nur kann ich den A15@>2GHz auf Seite 11 immer noch nicht verstehen.

Mit Blick auf die Zeitachse würde ich den 2,x Ghz A15 als 28nm SoC einordnen. Also 5420 denn das 1,6 Ghz Modell ist der 5410.

Ailuros
2013-11-07, 08:45:12
Mit Blick auf die Zeitachse würde ich den 2,x Ghz A15 als 28nm SoC einordnen. Also 5420 denn das 1,6 Ghz Modell ist der 5410.

Dann wuerde ich aber ihren ersten Exynos 6@20nm in Geraeten auch nicht vor H2 2014 erwarten. Was passiert denn wenn Samsung 64bit CPUs fett vermarkten will und QCOM zu dem Zeitpunkt noch keinen custom 64bit ARM design fertig haben sollte?

Nightspider
2013-11-07, 08:53:10
Wäre überhaupt eine Steigerung beim SoC zu erwarten, wenn das GS5 schon im März vorgestellt wird? Der S800 ist ja immer noch neu und etwas schnelleres ist am Horizont noch nicht zu erkennen.
Oder Samsung stellt das GS5 erst zwischen Mai und Juni vor, dann könnte das mit einem neuen SoC und 64Bit schon eher klappen.

AffenJack
2013-11-07, 08:56:36
Wie kommst du darauf überhaupt an 20nm in H1 zu glauben? In den anderen Threads predigst du immer, dass TSMC 20nm erst H2 was wird und bei Samsung glaubst du es geht nen halbes Jahr früher?

@Nightspider
Der neue Qualcomm mit adreno 420 wäre zb ne Möglichkeit. Der sollte bis dahin fertig sein. Dann kann man schön mit DX11 werben.

Ailuros
2013-11-07, 09:02:29
Wäre überhaupt eine Steigerung beim SoC zu erwarten, wenn das GS5 schon im März vorgestellt wird? Der S800 ist ja immer noch neu und etwas schnelleres ist am Horizont noch nicht zu erkennen.
Oder Samsung stellt das GS5 erst zwischen Mai und Juni vor, dann könnte das mit einem neuen SoC und 64Bit schon eher klappen.

Die roadmap erwaehnt ja nichts von wo jeder SoC genau eingesetzt wird; kann durchaus sein dass Samsung den 28nm 2GHz 5420 in weiss der Geier was benutzt und das Galaxy S5 dann unter 20nm so irgendwo Mitte 2014 mit einer 64bit CPU welches auch um einiges mehr Sinn macht.

Wie kommst du darauf überhaupt an 20nm in H1 zu glauben? In den anderen Threads predigst du immer, dass TSMC 20nm erst H2 was wird und bei Samsung glaubst du es geht nen halbes Jahr früher?

War das fuer mich? Die Presse berichtete erst vor Tagen dass das S5 Anfang 2014 unter 14nm ankommen soll und es wurde natuerlich schnell als bullshit abgestempelt; so wie es sich nach dem pdf interpretieren laesst stimmt es schon. Sonst siehe oben wann ich 20nm selbst fuer SoCs erwarte ;)

@Nightspider
Der neue Qualcomm mit adreno 420 wäre zb ne Möglichkeit. Der sollte bis dahin fertig sein.

Ehrliche Frage: der soll eine 64bit CPU haben? Sonst hoere ich gerade im Hintergrun dass der 420 dank DX11 Schnickschnack momentan mit einer ziemlich moderaten Leistungssteigerung im Vergleich zum 330 ankommen soll. Das Ding soll ja auch unter 28HPM hergestellt werden.

AffenJack
2013-11-07, 09:18:08
War das fuer mich? Die Presse berichtete erst vor Tagen dass das S5 Anfang 2014 unter 14nm ankommen soll und es wurde natuerlich schnell als bullshit abgestempelt; so wie es sich nach dem pdf interpretieren laesst stimmt es schon. Sonst siehe oben wann ich 20nm selbst fuer SoCs erwarte ;)

Ehrliche Frage: der soll eine 64bit CPU haben? Sonst hoere ich gerade im Hintergrun dass der 420 dank DX11 Schnickschnack momentan mit einer ziemlich moderaten Leistungssteigerung im Vergleich zum 330 ankommen soll. Das Ding soll ja auch unter 28HPM hergestellt werden.

Jo war für dich;) Weil du von 20nm in H1 geschrieben hattest.
Das das S5 in neuem Prozess ankommen soll ging an mir vorbei. Hab nur gelesen, dass es Februar angeblich kommen soll und mit 64Bit. Aber ich kann mir beim besten Willen keine 20nm zu dem Zeitpunkt vorstellen. Der SoC muss jetzt schon in Produktion sein und wenn man in vielen S5 den eigenen SoC nimmt, dann muss die Produktion auch gut laufen. Also 64Bit im Februar mag sein, aber in 28nm.

Nee der QC mit 420 wird keine 64 Bit Cpu und ich kann mir sogar vorstellen, dass Qualcomm bei 64Bit wirklich hintendran ist. Die Aussagen von den, dass man 64bit nicht braucht wurden zwar relativiert. Aber die würden kaum kommen, wenn man zeitnah mit 64bit kommt. Daher würde ich da eher ende 2014 was erwarten.

Ailuros
2013-11-07, 09:25:34
Jo war für dich;) Weil du von 20nm in H1 geschrieben hattest.

Es war ne Frage fuer YfOrU wie er das pdf interpretiert.

Das das S5 in neuem Prozess ankommen soll ging an mir vorbei. Hab nur gelesen, dass es Januar angeblich kommen soll und mit 64Bit. Aber ich kann mir beim besten Willen keine 20nm zu dem Zeitpunkt vorstellen. Der SoC muss jetzt schon in Produktion sein und wenn man in vielen S5 den eigenen SoC nimmt, dann muss die Produktion auch gut laufen. Also 64Bit im Januar mag sein, aber in 28nm.

Mir ist es ehrlich lieber wenn sich Samsung LSI etwas Zeit damit laesst und eine ausgebuegelte Loesung sowohl auf hw als auch auf sw Nivaeu anbietet. Bis zum 4412 ist alles wie geschmiert gelaufen.

Nee 420 wird keine 64 Bit Cpu und ich kann mir sogar vorstellen, dass Qualcomm bei 64Bit wirklich hintendran ist. Die Aussagen von den, dass man 64bit nicht braucht wurden zwar relativiert. Aber die würden kaum kommen, wenn man zeitnah mit 64bit kommt. Daher würde ich da eher ende 2014 was erwarten.

Ausser sie treiben den 420 nur in benchmarks auf Hochtouren wie den 330 wird dieser wohl tatsaechlich nicht besonders viel Land gewinnen fuer Leistung gegenueber dem zweiten. Mag sein dass QCOM Schiss vor NV's Logan hatte und sie mir nichts dir nichts schon DX11 integriert haben, aber es waere IMHO weisser gewesen zuerst auf Effizienz zu investieren und dann mit 64bit CPUs erst zu DX11 welches dann als Paket auch zich Mal mehr Sinn macht als eine Platform die windows als Ziel hat.

sloth9
2013-11-11, 18:31:20
...

Wer da zwischen den Zeilen liest ;)
Big.Little wohl mittelfristig gegessen da Custom Cores.
Zu "Tier-1 modem suppliers" gehört die eigene Abteilung nicht mehr.

Big.little ist ja auch Quatsch, den mensch nur braucht, wenn die High-Performance-Kerne nicht gut idlen.
Alle Custom-Cores brauchen das nicht, nur der Stromschlucker A15 und scheinbar der neu 64bitter von ARM.

Ailuros
2013-11-11, 19:48:38
Big.little ist ja auch Quatsch, den mensch nur braucht, wenn die High-Performance-Kerne nicht gut idlen.
Alle Custom-Cores brauchen das nicht, nur der Stromschlucker A15 und scheinbar der neu 64bitter von ARM.

Mir sind persoenlich cores wie Krait bzw. Cyclone um einiges lieber, aber das big.LITTLE nutzlos sein soll werde ich auch nicht zustimmen. In der ULP SoC Welt ist die Logik dass man zusaetzliche die area fuer Stromverbrauch widmet alles andere als absurd. Nur weil jetzt Samsung mit Hilfe von ARM zu daemlich war es anstaendig zu implementieren heisst es nicht dass es nutzlos ist.

Mediatek hat es ohne weitere Hilfe alleine geschafft und auch die sw Implementierung dafuer laut Entwicklern im Hintergrund scheint zu stimmen.

Aber wenn wir schon dabei sind: da Samsung es nicht geschafft hat bei zwei SoCs big.LITTLE richtig zu implementieren will ich mal sehen welches "Wunder" Samsung LSI mit 64bit custom cores genau erreicht hat. Es wird zwar noch 2 SoC Generationen dauern, aber falls hier dann die hw und sw nicht auf dem Nivaeu von Qualcomm's bzw. Apple's SoCs mit asynchroner Taktung liegen sollte ist wohl mit Sicherheit nicht die asynchrone Taktung an solch einem Schlammassel schuld. ;)

YfOrU
2013-12-18, 07:19:54
Question from lukarak

We have seen MediaTek introducing an 8xA7 SOC, instead of going to the big.LITTLE configuration of some sorts. Do you expect the same thing to happen with the A53 and A57 generation for low budget SOCs or will this generation's combo be a little easier and cheaper to implement?

Answer

Hi Lukarak,

We expect to see a range of platform configurations using Cortex-A53. A 4+4 Cortex-A53 platform configuration is fully supported and a logical progression from a 4+4 Cortex-A7 platform. A Cortex-A57 in the volume smartphone markets is less likely, but that’s a decision in the hands of the ARM partners. It will be interesting to see the range of Cortex-A53 platforms and configurations announced by partners over the coming months.


http://www.anandtech.com/show/7591/answered-by-the-experts-arms-cortex-a53-lead-architect-peter-greenhalgh

Hört sich für mich so an als wird A57 trotz 20nm bezogen auf Smartphones wie schon A15 (28nm) eine eher knappe Geschichte.

Ailuros
2013-12-18, 14:26:28
http://www.anandtech.com/show/7591/answered-by-the-experts-arms-cortex-a53-lead-architect-peter-greenhalgh

Hört sich für mich so an als wird A57 trotz 20nm bezogen auf Smartphones wie schon A15 (28nm) eine eher knappe Geschichte.

Ist das nicht eher zu Mediatek als zu Samsung relevant oder verpass ich gerade etwas?

YfOrU
2013-12-18, 14:49:02
Vermutlich für beide aber kannst natürlich gern verschieben.

Ailuros
2013-12-18, 15:54:06
Vermutlich für beide aber kannst natürlich gern verschieben.

Eigentlich ist es fuer die hw Implementierung egal um es richtig zu machen ob man theoretisch 4*A57+4*A53 oder 4*A53+4*A53 verwendet. Samsung sieht aber nicht nach dem Hersteller aus der das zweite fuer eine high end smartphone benutzen wuerde sondern eher Mediatek. Mir waere es auch persoenlich lieber aber dafuer muss Samsung es endlich mal schaffen das Zeug richtig in hw zu giessen, denn bisher waren es eher octa-wannabees.

Ailuros
2013-12-20, 15:23:11
http://www.xbitlabs.com/news/multimedia/display/20131217230742_Samsung_Officially_Rolls_Out_GamePad_for_Its_Smartphones.html

Auf jeden Fall um einiges besser als gleich eine ganze mini-Konsole zu entwickeln; mit dem Zeug hat der Verbraucher die Flexibilitaet wenn er will ein existierendes smartphone zu benutzen.

Ailuros
2013-12-27, 08:42:11
http://www.brightsideofnews.com/news/2013/12/25/samsung-on-the-rocks-hurting-developers-and-knox-vulnerable.aspx

Samsung braucht dringend neues Blut im oberen Management; wenn man die tote GPU Entwicklung bzw. big.LITTLE Flops noch mitrechnet wird tatsaechlich zu viel Scheiss auf einmal aufgetischt.

Ailuros
2014-01-10, 16:55:55
http://www.engadget.com/2014/01/09/samsung-galaxy-note-3-neo-leak/

2 A15@1.7GHz + 4 A7@1.3GHz

Hexa core im Samsung Galaxy Note 3 Neo.

Nightspider
2014-01-10, 17:03:40
Das wird ja immer bunter.

Avalox
2014-01-10, 17:06:57
Das wird ja immer bunter.


Wurde ja auch wieder Zeit. Das ganze Qualcomm geeire, hat ja fast schon den Spass verdorben.

Ailuros
2014-01-10, 17:14:23
Das wird ja immer bunter.

MIPS high end CPUs sind auch hexa cores ;D:freak::eek:

http://withimagination.imgtec.com/index.php/mips-processors/mips-p5600-series5-warrior-cpu

Ist aber kein 4+2 und auch kein big.LITTLE config.

----------------------------------------------------------------------

Eigentlich ist ein big (2).LITTLE (4) wie im Exynos Hexacore um einiges sinnvoller als 4+4 eben weil man mit weniger A15 cores um einiges mehr Strom spart.

Wurde ja auch wieder Zeit. Das ganze Qualcomm geeire, hat ja fast schon den Spass verdorben.

Na mal sehen ob wir frueher eine Exynos oder Krait 64bit CPU sehen werden :weg:

Nightspider
2014-01-10, 17:15:42
Ich frage mich immer noch wie man die Last sinnvoll verteilen will.
Automatisch wird das sicherlich nicht immer reibungslos ablaufen und Programmierern kann man ja auch nicht die Mehrarbeit auferlegen, für jede x-beliebige Kern-Konfiguration.

Avalox
2014-01-10, 17:20:10
Na mal sehen ob wir frueher eine Exynos oder Krait 64bit CPU sehen werden :weg:

Nach Zeitplan wäre Qualcomm wieder an der Reihe, dort wurde ja seit Monden nichts neues mehr geliefert. Können ja nicht die ganzen Innovationen den anderen überlassen.

Ailuros
2014-01-10, 17:22:34
Ich frage mich immer noch wie man die Last sinnvoll verteilen will.
Automatisch wird das sicherlich nicht immer reibungslos ablaufen und Programmierern kann man ja auch nicht die Mehrarbeit auferlegen, für jede x-beliebige Kern-Konfiguration.

Last-Verteilung ist genau die gleiche Problematik ob Du jetzt big.LITTLE configs oder asymmetrische Taktungen fuer mehrere CPU Kerne in einem SoC anlegst. Vereinfacht Du brauchst einen Mechanismus in beiden Faellen die die Last vorzeitig erkennt und dementsprechend high oder low end cores im ersten Fall ein- und ausschaltet und im zweiten Fall einfach bei welcher Frequenz man jeden der cores genau takten soll.

Wieso soll es im einen Fall klappen und im anderen nicht wenn richtig implementiert?

Wie ich schon in anderen Posts erwaehnt habe: bei einem A15/A7 big.LITTLE schalten Dir beim starten eines browsers 1 oder 2 A15 cores ein und vielleicht noch ein A7 core (je nach Fall); bei stinknormalen browsen duempeln die Dinger meistens mit 2-3 A7 cores rum und sobald man wieder eine neue Seite ladet schalten fuer ein paar Blitzsekunden nochmal die A15-er kurz ein. Die brutale Mehrzahl hier ist A7 Anwendungsgebiet.

Bei einem asymmetrisch getakteten quad core wie der Krait ersetz in der obrigen einfachen Illustrierung A15 Kerne mit Kernen mit sehr hoher Frequenz und wo immer A7 Kerne, Krait Kerne mit sehr niedriger Frequenz.

Vielleicht hilft es aber NVIDIA taktet ihren A15 companion core bei nur 50MHz minimal; ein A7 in smartphones faengt normalerweise mit einer minimalen Frequenz von 500MHz an. Und ja so absurd ist es nicht wenn man bedenkt wie stark jeglicher A15 gegenueber einem A7 ist und auch wie viel Strom ein A15 verdonnern kann.

Nightspider
2014-01-10, 17:24:57
Ja gut da hast du schon Recht. Ich zweifel aber noch immer an der richtigen Implementierung, weil sie bisher noch nirgends 100% einwandfrei funktioniert. (Wenn ich mich nicht irre).

Avalox
2014-01-10, 17:27:44
Ja gut da hast du schon Recht. Ich zweifel aber noch immer an der richtigen Implementierung, weil sie bisher noch nirgends 100% einwandfrei funktioniert. (Wenn ich mich nicht irre).

Das Betriebssystem muss es unterstützen, das wird ja nun immer besser.

Ailuros
2014-01-10, 17:32:46
Ja gut da hast du schon Recht. Ich zweifel aber noch immer an der richtigen Implementierung, weil sie bisher noch nirgends 100% einwandfrei funktioniert. (Wenn ich mich nicht irre).

Fuer Samsung bis es eine zu 100% funktionierende Loesung gibt durchaus gerechtfertigt. MediaTek die aber fuer die big.LiTTLE Implementierung HSA benutzt haben dann aber nicht.

Wenn's Samsung auch nicht jetzt hinbekommt koennen sie locker LSI in Flammen aufgehen lassen :freak:

Ailuros
2014-01-11, 16:20:02
HMP soll jetzt endlich laufen auf dem Hexa-SoC.

Ailuros
2014-01-13, 12:26:57
http://www.fudzilla.com/home/item/33631-samsung-galaxy-s5-has-a-snapdragon-800-version

Also nix da mit 64bit Exynos.

deekey777
2014-01-13, 12:36:36
Warum geht er davon aus, dass kein 805 zum Einsatz kommt? Vom Zeitfenster könnte es passen.

Ailuros
2014-01-13, 13:01:09
Warum geht er davon aus, dass kein 805 zum Einsatz kommt? Vom Zeitfenster könnte es passen.

Weil wohl erstens 805 tatsaechlich noch nicht fertig sein koennte zu dem Zeitpunkt und auch weil der SoC dank der um einiges groesseren GPU auch um einiges groesser ist.

deekey777
2014-01-13, 13:16:09
Hat Samsung überhaupt ein 64-bitiges Galaxy S5 angekündigt?
Wenn ich mich richtig erinnere, haben sie auch keine SoCs mit 64 Bit angekündigt, sondern Geräte damit: Die neuen Atoms beherrschen 64 bit, entsprechendes Android gibt es auch (es gibt leider ein Softwareproblem, was den Einsatz von Windows 8.1 mit 64 bit auf günstigen Tablets verhindert).

Ailuros
2014-01-13, 13:30:51
Hat Samsung überhaupt ein 64-bitiges Galaxy S5 angekündigt?
Wenn ich mich richtig erinnere, haben sie auch keine SoCs mit 64 Bit angekündigt, sondern Geräte damit: Die neuen Atoms beherrschen 64 bit, entsprechendes Android gibt es auch (es gibt leider ein Softwareproblem, was den Einsatz von Windows 8.1 mit 64 bit auf günstigen Tablets verhindert).

Nein; aber es gab sehr viele die daran glaubten dass das S5 ein 64bit Exynos (schon) sein wird.

deekey777
2014-01-13, 16:55:25
http://www.sammobile.com/2014/01/13/exclusive-galaxy-s5-specs-confirmed-galaxy-s5-mini-and-s5-zoom-also-in-the-pipeline/

Was soll das denn?

Underneath, the Galaxy S5 will either be powered by the Exynos 6 processor or a Snapdragon 805, depending on whether it’s LTE-enabled or not. On the software front, the S5 will run on Android 4.4 KitKat, which is unsurprising.
Wie jetzt, gleich ein Eskimo 6 und Snapdragon 805? Ja, klar...
Oder hörten sie einfach Eskimo Hexa und machten daraus Exynos 6?

Ailuros
2014-01-13, 17:17:37
http://www.sammobile.com/2014/01/13/exclusive-galaxy-s5-specs-confirmed-galaxy-s5-mini-and-s5-zoom-also-in-the-pipeline/

Was soll das denn?


Wie jetzt, gleich ein Eskimo 6 und Snapdragon 805? Ja, klar...
Oder hörten sie einfach Eskimo Hexa und machten daraus Exynos 6?

Hmm sammobile :rolleyes:

Sie schreiben aber selber:

While the Exynos 6 CPU was expected - which will likely be capable of operating all eight cores simultaneously - to power the handset, it’s only just been confirmed that the S5 will become one of the first smartphones to sport the Snapdragon 805 CPU, which should offer considerably higher performance than the Snapdragon 800 in the Galaxy Note 3, especially in the graphics department.

Der Hexacore ist Samsung's mainstream SoC. QCOM selber gibt den Adreno420 um ca. 40% schneller an als den Adreno330 und das erste S5 wird wohl einen hoeher getakteten 330 haben als QCOM sich selber vorgerechnet hat.

deekey777
2014-01-26, 12:48:57
http://9to5google.com/2014/01/25/kgi-predicts-samsung-galaxy-s5-specs-including-16-mp-camera-3d-gesture-support-and-5-2-inch565-ppi-amoled-panel/

Eskimo 5430 mit 32 bit und nicht die ganze Welt behauptet mit 64 bit.

Undertaker
2014-01-26, 14:26:37
20nm, und das ab April...?

AffenJack
2014-01-26, 14:32:12
20 nm ab April halte ich für wahrscheinlicher als 20nm ohne 64 Bit. Wenn man schon auf 20 nm geht, wird das bestimmt auch nen A57/A53 SoC mit 64 Bit. Daher glaube ich nicht an den Wahrheitsgehalt der News unabhängig davon ob 20nm dann schon möglich wäre.

deekey777
2014-01-26, 15:34:23
20nm, und das ab April...?
Prime muss ja nicht gleich mit dem Standardmodell kommen.
Es ist wirklich undurchsichtlich, was die einzelnen Bezeichnungen wirklich darstellen.


(Mit Eskimo meine ich das Eis, nicht das Volk.)

Ailuros
2014-01-26, 16:14:40
20nm, und das ab April...?

Es wuerde als nahezu unmoeglich erscheinen wenn Apple fuer 20nm bei Samsung immer noch herstellen wuerde?

Spass beiseite keine Ahnung ueber den Prozess aber dank einem gut informierten Entwickler Galaxy S5 kein 64bit und generell ein ziemlich langweiliger hw "upgrade".

20 nm ab April halte ich für wahrscheinlicher als 20nm ohne 64 Bit. Wenn man schon auf 20 nm geht, wird das bestimmt auch nen A57/A53 SoC mit 64 Bit. Daher glaube ich nicht an den Wahrheitsgehalt der News unabhängig davon ob 20nm dann schon möglich wäre.

Sie haben es gerade erst geschafft big.LITTLE im Hexacore nach 2 Versuchen hinzubekommen...One step at a time :P :freak:

Nightspider
2014-01-26, 20:03:32
Naja was will man denn schon für spannende Hardware verbauen?
Überraschen kann Samsung immer noch mit dem Gehäuse (extrem dünner Rahmen, Metall-Case) sowie mit exclusiver Software.

Vielleicht kann man das S5 auch mit jedem beliebigen Stift bedienen, wie bei dem Sony Z Ultra. Das wäre auch schon sehr nett.
Überraschen könnte Samsung bei der Kamera auch mit extrem guter Blende und gesamter Bildqualität. Mal abwarten.

Ailuros
2014-01-26, 20:21:05
Naja was will man denn schon für spannende Hardware verbauen?

Etwas das vielleicht die Notwendigkeit so viele SoCs von QCOM zu kaufen minimalisieren wuerde? Kannst Du Dich ueberhaupt an einen Exynos SoC erinnern der wirklich die Koepfe im Markt zum drehen brachte?

Überraschen kann Samsung immer noch mit dem Gehäuse (extrem dünner Rahmen, Metall-Case) sowie mit exclusiver Software.

Vielleicht kann man das S5 auch mit jedem beliebigen Stift bedienen, wie bei dem Sony Z Ultra. Das wäre auch schon sehr nett.
Überraschen könnte Samsung bei der Kamera auch mit extrem guter Blende und gesamter Bildqualität. Mal abwarten.

Ueber die "Verpackung" macht sich auch keiner Sorgen.

http://www.fudzilla.com/home/item/33631-samsung-galaxy-s5-has-a-snapdragon-800-version

Sie schmeissen etliche hunderte an Mio in R&D fuer etwas das so langsam redundant geworden ist. Entweder kommt es in absehbarer Zeit zu einer hw Renaissance oder sie werden irgendwann die Kosten reduzieren muessen: http://www.fudzilla.com/home/item/33589-samsung-braces-for-bad-year

Ailuros
2014-03-06, 17:03:53
http://arstechnica.com/gadgets/2014/03/samsungs-kitkat-update-seems-to-remove-benchmark-boosting-shenanigans/

Ob es wirklich das Ende von cheating bedeutet? :rolleyes:

Ailuros
2014-04-13, 17:19:55
http://forum.beyond3d.com/showthread.php?t=61267&page=32

Stromverbrauch beim Exynos 5422:

http://i.imgur.com/pNinaQe.png

Was er noch schnell herauseditiert hat ist dass Samsung fuer den Exynos 5430 fuer jeden A15 einen TDP von 1.6+W angiebt und fuer jeden A7 250mW pro core angiebt. Gethrottelt wird insgesamt auf 3.5W (SoC-Verbrauch).

Ailuros
2014-04-14, 20:13:52
Woanders waere es total OT ergo wohl hier besser am Platz:

http://forum.beyond3d.com/showpost.php?p=1841031&postcount=791

5422 uses r2p3 cores as per the chip ID. r2p3 firstly doesn't officially exist, and r3p0 adds features which Samsung already has in its cores. So I doubt you'll find meaning in the revision IDs because r3p0 and r2p3 might just well be the same thing.

The best ASV bin is about 50mV lower at the high steps compared to what I posted. However the distribution of bins is highest at the one I posted and you should consider that as the norm.

TSMC's HPm is able to achieve a good 125mV lower voltage across the board compared to Samsung's current process. I'm saying this by comparing the S800's voltages to the S600 and the gains that came with it. TSMC has undoubtedly a better process.

Kein Wunder dass NV einen testchip an Samsung geschickt hatte, aber am Ende keinen Vertrag mit Samsung fuer Herstellung abgeschlossen hat.

Ailuros
2014-06-09, 19:59:21
http://semiaccurate.com/2014/06/09/samsung-silently-cancels-major-soc-design-program/

Keine custom CPU? :confused:

deekey777
2014-06-25, 09:30:13
Welche armen Kerne hat eigentlich Eskimo 5433?
Die einen sagen, es sind A57/A53-Kerne, die anderen, dass es noch A15/A7 sind.

Ailuros
2014-06-25, 09:45:47
Welche armen Kerne hat eigentlich Eskimo 5433?
Die einen sagen, es sind A57/A53-Kerne, die anderen, dass es noch A15/A7 sind.

Nebu entwickelt u.a. fuer Samsung Geraete und ist meistens sehr gut informiert, aber garantiert ist es nicht: http://forum.beyond3d.com/showpost.php?p=1857096&postcount=811

deekey777
2014-06-25, 09:58:17
Nebu entwickelt u.a. fuer Samsung Geraete und ist meistens sehr gut informiert, aber garantiert ist es nicht: http://forum.beyond3d.com/showpost.php?p=1857096&postcount=811
Das ist der eigentliche Grund für meine Frage, denn auf der AnTütü-Seite steht A57/A53.
Aber irgendwie traue ich den AnTütü-Ergebnissen nicht so richtig.

Avalox
2014-07-10, 20:29:08
Na, da kommt ja mal was von Samsung. Wird ja auch mal Zeit.

"Our quad-core Exynos ModAP is the first generation of integrated LTE Modem-AP solution with advanced 4G LTE connectivity, built on 28nm HKMG Process. It supports various mobile network standards including LTE, so that you can enjoy a better connection wherever you are in the world, especially when using multimedia mobile features such as web browsing and making voice calls without any interruption."

http://www.samsung.com/global/business/semiconductor/minisite/Exynos/w/mediacenter.html#?v=blog_Samsung_Exynos_continues_to_deliver_rich_technology_for _a_simple_life

eligos
2014-07-11, 08:59:12
Und was ist da nun genau drin?

Also vom DC auf Quad dann auf den pfeilschnellen Octa, dann zu einem 3/4 pfeilschnellen Hexa und jetzt auf einen nur halbpfeilschnellen Quad? Es kauft sich doch keiner der sich mit technik auskennt nach einem pfeilschnellen Octacore einen billigen, schneckenlangsamen Quadcore (ist ja schon ein Schimpfwort, in manchen Kreisen...)!

deekey777
2014-07-11, 09:03:18
Es geht eher um das integrierte Modem.

Avalox
2014-07-11, 09:05:00
Der Exynos 5433 ist doch schon längst aufgetaucht.

big.LITTLE machen jetzt faktisch alle Hersteller, ein umwerfender Erfolg. Qualcomm beerdigt gerade seine nicht zukunftsweisenden Krait Technologie, um big.LITTLE mit neuen (dann pfeilschnellen) Kernen zu nutzen.

Alles super.

deekey777
2014-07-11, 09:08:31
Der Exynos 5433 ist doch schon längst aufgetaucht.

big.LITTLE machen jetzt faktisch alle Hersteller, ein umwerfender Erfolg. Qualcomm beerdigt gerade seine nicht zukunftsweisenden Krait Technologie, um big.LITTLE mit neuen (dann pfeilschnellen) Kernen zu nutzen.

Alles super.

Damit dieses Posting nicht verloren geht...

Avalox
2014-07-11, 09:38:26
Damit dieses Posting nicht verloren geht...

Weil Samsung seine Exynos Entwicklung aufgeben will?

y33H@
2014-07-11, 09:44:26
Qualcomm beerdigt gerade seine nicht zukunftsweisenden Krait Technologie, um big.LITTLE mit neuen (dann pfeilschnellen) Kernen zu nutzen.Qualcomm will weiter Kraits entwickeln: http://www.golem.de/news/qualcomm-snapdragon-wir-entwickeln-auch-zukuenftig-krait-kerne-1405-106514.html

Avalox
2014-07-11, 09:50:06
Qualcomm will weiter Kraits entwickeln:

Irgendwann mal und viel gemein mit den jetzigen werden sie auch nicht haben.


Jetzt erstmal fliegen aus den Qualcomm Flagship Produkten die veralteten Krait Kerne raus (Nachdem dieser Schritt bei den Budget Produkten, ja schon längst vollzogen wurde.).

y33H@
2014-07-11, 10:07:56
Es gibt iirc außer Apple kaum einen, der eigene ARMv8-Designs hat - gerade für Smartphone/Tablet. Das ist auch ne Frage von time to market.

Avalox
2014-07-11, 10:14:48
ARMv8 ist 2011 durch ARM spezifiziert und vorgestellt worden.
Schon vor über einem Jahr wurden erste eigene Implementierungen gezeigt, die nicht von Apple, sondern aus Butzelbuden kamen. Zumal ARM sein grandioses Lizenzmodell eh jeglichen Anspruch unterstützt.

Das ist nicht time to market, es ist eine Entscheidung.

eligos
2014-07-11, 10:40:18
Und was ist dann an einem Exynos so besonders? Wenn doch jeden Butzbude so ein Ding auf die Reihe kriegt.

Und du solltest vielleicht über die Begriffe "gezeigt" und "verkauft seit fast einem Jahr" meditieren, ich will dir diese Erfahrung nicht nehmen, deswegen nenne ich den entscheidenden Unterschied nicht.

Die alte Leier, die kennt man ja.

Ailuros
2014-07-11, 11:15:25
Irgendwann mal und viel gemein mit den jetzigen werden sie auch nicht haben.


Jetzt erstmal fliegen aus den Qualcomm Flagship Produkten die veralteten Krait Kerne raus (Nachdem dieser Schritt bei den Budget Produkten, ja schon längst vollzogen wurde.).

Immer noch besser als der Scheiss den Samsung die letzten Jahre entwickelt.

deekey777
2014-08-14, 09:44:31
Samsung Announces Exynos 5430: First 20nm Samsung SoC (http://www.anandtech.com/show/8382/samsung-announces-exynos-5430-first-20nm-samsung-soc)
A bigger change is that the CPU IP has been updated from the r2p4 found in previous 542X incarnations to a r3p3 core revision. This change, as previously in the year mentioned by Nvidia, should provide better clock gating and power characteristics for the CPU side of the SoC.

On the GPU side, the 5430 offers little difference to the 5422 or 5420 beyond a little boost to 600MHz clock frequency for the Mali T628MP6

AffenJack
2014-08-14, 09:51:47
Mit der Vorstellung des Samsung Alpha hat Samsung nun auch den ersten 20nm SoC in Telefonen noch vor TSMC mit Apple. Mal gucken was Tests in Sachen Verbrauch zeigen werden. Ich dachte aber eigentlich, dass Samsung direkt auf 14XM geht mit ihren Chips.

Ailuros
2014-08-14, 10:40:01
Mit der Vorstellung des Samsung Alpha hat Samsung nun auch den ersten 20nm SoC in Telefonen noch vor TSMC mit Apple. Mal gucken was Tests in Sachen Verbrauch zeigen werden. Ich dachte aber eigentlich, dass Samsung direkt auf 14XM geht mit ihren Chips.

Ich frag mich immer noch wieso ueberhaupt Samsung noch resources verschwendet fuer eigene SoC Entwicklung.

AffenJack
2014-08-14, 11:16:16
Bei der Größe von Samsung macht das schon sinn. Dazu mit eigener Fertigung sollte das eigentlich nen Preisvorteil gegenüber dem Zukauf von SoCs geben. Man muss es bloß schaffen gute SoCs zu entwickeln, aber vor allem mit 64Bit hat man am Anfang die Chance dazu. Qualcomm bringt auch nur Standardkerne, also sollte Samsung in der Lage sein ähnlich gute SoCs zu entwickeln und dann massenhaft selbst zu verwenden.

Ailuros
2014-08-14, 11:30:35
Bei der Größe von Samsung macht das schon sinn.

Ohne sich Erfahrung einzukaufen, landet leider das eine interne Projekt nach dem anderen in eine Sackgasse. Ich weigere mich von der einen Seite winzige Summen in GPU IP royalties zu bezahlen, schmeiss aber Milliarden zum Fenster raus fuer eigene GPU Entwicklung die am Ende weniger als ein Haufen Dreck wert ist. Es fehlt ihnen nicht an resources durchaus, eher das Gegenteil, eher an jemand der den Saustall endlich mal aufraeumt.

Dank Groesse (sind es jetzt 85 Firmen im Konzern oder mehr?) ist Samsung auch der zweit-groesste Schiff-Reeder weltweit. Ergo koennen sie auch ab morgen auch gleich Automobile bauen oder?

Dazu mit eigener Fertigung sollte das eigentlich nen Preisvorteil gegenüber dem Zukauf von SoCs geben.

Fuer ihr 20nm ist das Herstellungs-Geschaeft ziemlich im Popo. Sonst kaufen sie wohl massenhaft so oder so bei QCOM ein.

Man muss es bloß schaffen gute SoCs zu entwickeln, aber vor allem mit 64Bit hat man am Anfang die Chance dazu. Qualcomm bringt auch nur Standardkerne, also sollte Samsung in der Lage sein ähnlich gute SoCs zu entwickeln und dann massenhaft selbst zu verwenden.

Wie soll das denn zu Stande kommen? Samsung LSI entwickelt afaik und Samsung mobile integriert. Mobile will von den eigenen SoCs nicht mehr viel wissen und hat eine total andere Vorstellung fuer wichtige Markt-strategien als LSI und die beiden werden sich NIE einig. Merkst Du was? ;)

Avalox
2014-08-14, 11:37:58
Bei der Größe von Samsung macht das schon sinn. Dazu mit eigener Fertigung sollte das eigentlich nen Preisvorteil gegenüber dem Zukauf von SoCs geben. Man muss es bloß schaffen gute SoCs zu entwickeln, aber vor allem mit 64Bit hat man am Anfang die Chance dazu. Qualcomm bringt auch nur Standardkerne, also sollte Samsung in der Lage sein ähnlich gute SoCs zu entwickeln und dann massenhaft selbst zu verwenden.


Gäbe es das Intel Modem nicht, hätte auch im Alpha wieder ein Qualcomm SoC gesteckt.

Ailuros
2014-08-14, 11:41:50
Gäbe es das Intel Modem nicht, hätte auch im Alpha wieder ein Qualcomm SoC gesteckt.

Samsung koennte locker CPU und GPU IP bei NV einkaufen; bei deren obszoenen Volumen koennten sie schoen den Preis nach unten druecken und die Summen mit Herstellung fuer NV quasi ausgleichen.

Avalox
2014-08-14, 11:46:38
Samsung koennte locker CPU und GPU IP bei NV einkaufen; bei deren obszoenen Volumen koennten sie schoen den Preis nach unten druecken und die Summen mit Herstellung fuer NV quasi ausgleichen.

Samsung kauft doch ein und ganze ehrlich mir sind Cortex und Mali weit lieber als Denver und Kepler. Zumal letztere erst die prinzipielle Smartphone Tauglichkeit erstmal zeigen müssen.

Was jetzt aber auch nicht heisst, dass ich keinen K1 64 kaufen würde. Abwägung.

Ailuros
2014-08-14, 11:56:01
Samsung kauft doch ein und ganze ehrlich mir sind Cortex und Mali weit lieber als Denver und Kepler. Zumal letztere erst die prinzipielle Smartphone Tauglichkeit erstmal zeigen müssen.

Steht irgendwo dass es zwingend ist die Denver cores bei 2.5GHz bzw. die GK20A GPU bei 850MHz zu takten? Samsung's Exynos Mist ist weder kleiner in die area als K1 (LOL :biggrin:), hat nicht besonders geringen Stromverbrauch ueberhaupt von der GPU und hat ein verdammt laecherliches perf/W Verhaeltnis zu K1 insgesamt. Wenn man davon ausgeht dass ein T628MP6@600MHz 1/3 der GPU Leistung vom GK20A hat, taktet man den letzteren einfach auf ~450MHz runter und hat immer noch doppelt so viel Leistung.

Der Vorschlag war uebrigens fuer IP welches wohl heisst dass man nicht eine 1:1 Kopie vom K1 bauen wuerde, ausser man heisst Samsung LSI und ist zu nichts besseren ohne fuckups faehig :freak:

mboeller
2014-08-14, 11:57:08
Ohne sich Erfahrung einzukaufen, landet leider das eine interne Projekt nach dem anderen in eine Sackgasse. Ich weigere mich von der einen Seite winzige Summen in GPU IP royalties zu bezahlen, schmeiss aber Milliarden zum Fenster raus fuer eigene GPU Entwicklung die am Ende weniger als ein Haufen Dreck wert ist. Es fehlt ihnen nicht an resources durchaus, eher das Gegenteil, eher an jemand der den Saustall endlich mal aufraeumt.


IMHO:

Geht nicht! Samsung = Süd-Korea = Asiaten ;) => Pride + Gesichtsverlust ...

Wenn sie jetzt anfangen GPU-IP zuzukaufen müssen sie sich eingestehen das ihre Entwicklungen Schrott sind...und damit haben sie einen massiven Gesichtsverlust. Das geht nicht. Eher geht die Firma Pleite.

...findet man aber leider nicht nur in Asien. :(

Ailuros
2014-08-14, 12:00:05
IMHO:

Geht nicht! Samsung = Süd-Korea = Asiaten ;) => Pride + Gesichtsverlust ...

Wenn sie jetzt anfangen GPU-IP zuzukaufen müssen sie sich eingestehen das ihre Entwicklungen Schrott sind...und damit haben sie einen massiven Gesichtsverlust. Das geht nicht. Eher geht die Firma Pleite.

...findet man aber leider nicht nur in Asien. :(

Huh? Samsung Exynos SoCs haben GPU IP von ARM ergo nichts dass sie selber entwickeln und gilt genauso fuer die CPUs. Der Vorschlag ist nur woanders IP einzukaufen und nichts anderes.

Avalox
2014-08-14, 12:15:49
Steht irgendwo dass es zwingend ist die Denver cores bei 2.5GHz bzw. die GK20A GPU bei 850MHz zu takten? Samsung's Exynos Mist ist weder kleiner in die area als K1 (LOL :biggrin:), hat nicht besonders geringen


Denver ist mehr als doppelt so groß, wie ein Cortex A15 und bei Takt und Flächen normalisiert ist Exynos damit schon heute weit schneller, als ein K1 64 es jemals sein wird. Schlechtes kann ich da nicht finden. Es steht jedem frei was drauf zulegen, wenn er es kann.

GPU steht auf einem anderen Blatt. Aber ARM arbeitet ja dran und wird dann dieses Ergebnis wieder breit verteilen.
Es ist das ARM Geschäftsmodell welches mir zusagt.

Ailuros
2014-08-14, 12:34:55
Denver ist mehr als doppelt so groß, wie ein Cortex A15 und bei Takt und Flächen normalisiert ist Exynos damit schon heute weit schneller, als ein K1 64 es jemals sein wird. Schlechtes kann ich da nicht finden. Es steht jedem frei was drauf zulegen, wenn er es kann.

Wo und wieso Exynos schneller sein wird bleibt abzusehen; was gerade so besonderes an einem A15 liegt weisst wohl nur Du und das gilt natuerlich fuer jeden custom core. Auf jeden Fall sind die beiden SoCs fast gleich gross ergo fragt sich wohl eher fuer was Samsung genau so viel die area verdonnert hat. Ich stell aber keine bloede Fragen fuer einen semi der drei Anlaeufe brauchte um etwas so laecherliches wie big.LITTLE richtig einzubauen.

GPU steht auf einem anderen Blatt. Aber ARM arbeitet ja dran und wird dann dieses Ergebnis wieder breit verteilen.
Es ist das ARM Geschäftsmodell welches mir zusagt.

Es geht hier nicht um ARM's Kompetenz sondern um Samsung's Inkompetenz.

Avalox
2014-08-14, 12:49:38
Auf jeden Fall sind die beiden SoCs fast gleich gross ergo fragt sich wohl eher fuer was Samsung genau so viel die area verdonnert hat.


Nur das auf dem Samsung SoC dort 8 Kerne untergebracht sind, wo nVidia zwei platzieren kann. Wobei das bei Denver noch etwas nebulös ist, wie viele CPU Kerne nun wirklich im Design stecken.

Ich stell aber keine bloede Fragen fuer einen semi der drei Anlaeufe brauchte um etwas so laecherliches wie big.LITTLE richtig einzubauen.

Kann ich nicht nachvollziehen. Ich kenne natürlich das Gemecker, zum einen hat sich big.LITTLE entwickelt und Samsung damit am Puls der Zeit unterwegs und zum anderen ist selbst der Fehler im ersten(!) Exynos 8 Kern SoC niemals von irgend großen Tragweite gewesen.


Es geht hier nicht um ARM's Kompetenz sondern um Samsung's Inkompetenz.

Nicht mehr Inkompetenz als bei seinen Wettbewerbern.

Ailuros
2014-08-14, 13:10:03
Nur das auf dem Samsung SoC dort 8 Kerne untergebracht sind, wo nVidia zwei platzieren kann. Wobei das bei Denver noch etwas nebulös ist, wie viele CPU Kerne nun wirklich im Design stecken.

Nur dass Du wohl der einzige hier sein koenntest der die Effizienz eines CPU blocks von der Anzahl der Kerne ableiten wuerde, als ob CPU Leistung linear zu der Anzahl der Kerne skalieren wuerde, alle 8 Kerne gleich gross sind im 5430 oder dass es keine einzigen IPC Unterschiede zwischen allen verglichenen CPUs gibt.

Erzaehl den Stuss einem 8-jaehrigen und nicht hier.

Kann ich nicht nachvollziehen. Ich kenne natürlich das Gemecker, zum einen hat sich big.LITTLE entwickelt und Samsung damit am Puls der Zeit unterwegs und zum anderen ist selbst der Fehler im ersten(!) Exynos 8 Kern SoC niemals von irgend großen Tragweite gewesen.

Du nicht aber erfahrene sw Entwickler dort draussen schon.

Nicht mehr Inkompetenz als bei seinen Wettbewerbern.

Diametrisch mehr sogar; sonst haetten sie auch keinen Grund gehabt koeniglich in benchmarks zu bescheissen, welches sie Gott sei Dank endlich eingestellt haben.

Avalox
2014-08-14, 14:04:38
Nur dass Du wohl der einzige hier sein koenntest der die Effizienz eines CPU blocks von der Anzahl der Kerne ableiten wuerde,

Nein, ich leite aus dem Platzbedarf der Kerne die Größe der CPU Fläche ab.

Wenn du schon beim Thema bescheißen bist, dann sei mal nicht betriebsblind.

Ailuros
2014-08-14, 14:25:46
Nein, ich leite aus dem Platzbedarf der Kerne die Größe der CPU Fläche ab.

Nur besteht ein SoC eben nicht nur aus dem CPU block; im gegebenen Fall ist es mir scheissegal in was Samsung die area verplempert hat wenn der resultierende SoC fast gleich gross ist wie ein K1 oder jeder andere SoC den ich damit vergleichen wuerde. Waere der 5430 um ein gesundes Prozentual kleiner als K1 dann waere die Debatte auf einer ganz anderen Basis.

Wenn du schon beim Thema bescheißen bist, dann sei mal nicht betriebsblind.

Nur weil Dir Kritik gegen Samsung nicht schmeckt heisst es noch lange nicht dass sie verschont werden sollten. Kritik wird hier genug gegen alle Seiten angwendet und es ist eben nicht so dass alle hoehere Frequenzen nur fuer benchmarks anlegten sondern nur eine begrenzte Nummer von Firmen unter diesen Samsung.

Avalox
2014-08-14, 14:37:39
Waere der 5430 um ein gesundes Prozentual kleiner als K1 dann waere die Debatte auf einer ganz anderen Basis.

Die Debatte verbietet sich schon allein aus dem Grund, weil 5430 in einem Smartphone steckt und K1 64 dieses niemals zu sehen bekommen wird.

Nur weil Dir Kritik gegen Samsung nicht schmeckt heisst es noch lange nicht dass sie verschont werden sollten.

Kritik an Samsung ist mir Wurst. Ich habe auch kein Samsung. Nur muss diese Kritik fundiert sein.

Diese Bescheißerei welche groß durch die Klicks getrieben wurde ist nicht mehr als eine Lappalie. Wenn sie(Samsung) es vorher erzählt hätten, würde das heute als Samsung Turbo Modus immer noch im System stecken.

Lange, lange, waren Qualcomm SoCs in Smartphonen weit mehr Beschiss.
Das ist eben so und gut wenn jemand drauf hinweist.

Askingar
2014-08-14, 14:59:07
in einem Smartphone steckt und K1 64 dieses niemals zu sehen bekommen wird

Hm, da kann man irgendwie was anderes lesen

NVIDIA bestätigte die Konzentration auf andere Gebiete nun erneut. Es wurde aber auch erwähnt, dass es in diesem Jahr dennoch einige Smartphones mit Tegra K1 beziehungsweise Tegra K1 Denver (mit 64 Bit-Architektur) geben werde. Das Problem dabei: Um auch eine LTE- beziehungsweise 3G-Konnektivität bieten zu können, benötigen die Prozessoren zusätzlich ein Icera 500 LTE-Modem. Und diese zusätzliche Komponente wirke sich negativ auf den Preis aus. Das ist allerdings auch beim Snapdragon 805 der Fall, auch dieser Prozessor benötigt ein externes LTE-Modem. Insgesamt dürften sich der Qualcomm- und der NVIDIA-Prozessor in preislicher Hinsicht also nicht allzu viel nehmen.
http://www.androidnext.de/news/nvidia-tegra-k1-soll-noch-in-diesem-jahr-in-smartphones-zum-einsatz-kommen/

Avalox
2014-08-14, 15:03:07
Hm, da kann man irgendwie was anderes lesen


War mal. nVidia hat kein Interesse mehr an dem Segment. Das wird allerdings nicht am CPU Kern liegen.

Askingar
2014-08-14, 15:08:49
Das es es nicht ins Nexus7 geschafft hat, lag einfach daran das nVidia nicht fertig war und keinen Schund ausliefern wollte. Im Automobilebereich sind die Margen- und Gewinnanspüche sicherlich, konkurrenzmäßig gesehen, "günstiger" umzusetzen.

Ailuros
2014-08-14, 15:09:18
Die Debatte verbietet sich schon allein aus dem Grund, weil 5430 in einem Smartphone steckt und K1 64 dieses niemals zu sehen bekommen wird.

Es wird genauso blamierend wenn ich es gegen den A7 vergleiche und noch um ein Stueck mehr beim kommenden A8 auch auf 20nm hergestellt. Es wird auch beim S805 auch nicht besonders besser oder jeglichen anderen heutigen oder bald erscheinenden smartphone SoC den ich zum Vergleich ranziehen wuerde.

Kritik an Samsung ist mir Wurst. Ich habe auch kein Samsung. Nur muss diese Kritik fundiert sein.

Ich hatte heute nichts besseres zu tun als ueber Samsung zu pinkeln, weil sie eben jeden Markt mit Exynos SoCs ueberschwemmt haben und doch nicht in breiter Mehrzahl ihre Geraete mit dritten SoCs ausstatten.

Diese Bescheißerei welche groß durch die Klicks getrieben wurde ist nicht mehr als eine Lappalie. Wenn sie(Samsung) es vorher erzählt hätten, würde das heute als Samsung Turbo Modus immer noch im System stecken.

Lange, lange, waren Qualcomm SoCs in Smartphonen weit mehr Beschiss.
Das ist eben so und gut wenn jemand drauf hinweist.

Es gibt keine Ausrede wenn man in benchmarks hoehere Frequenzen anwendet und sonst in Echtzeit/3D eine niedrigere. Dieses als "turbo modus" fuer nur synthetische benchmarks vorstellen zu wollen macht es nicht automatisch legitim.

Sonst hat QCOM im relevanten thread hier ihre wohl verdienten "Lorbeeren" fuer ihre eigenen Schulden bekommen. Hat mit der Debatte hier aber nichts zu tun, ausser man sucht nach kunterbunten Ausreden fuer Samsung eben weil es einem so "egal" ist.

Das es es nicht ins Nexus7 geschafft hat, lag einfach daran das nVidia nicht fertig war und keinen Schund ausliefern wollte. Im Automobilebereich sind die Margen- und Gewinnanspüche sicherlich, konkurrenzmäßig gesehen, "günstiger" umzusetzen.

Ja und nein. IMHO war NV's SoCs insgesamt nicht besser als der QCOM SoC der es ins Nexus7 2013 geschafft hat. Dreht man jetzt das Blatt um sollte es klar sein warum Google fuer das naechste Nexus den Tegra K1 gegenueber dem S805 als Beispiel gewaehlt hat. Um aber den Bogen zu machen musst Du wohl Avalox eher fragen warum Google nicht den "uebertollen" Exynos5430 oder sogar die vorigen 54xx SoCs integriert hat :P

Askingar
2014-08-14, 15:19:52
Beim "Alpha" hält der Akku nicht mal einen Tag, dass dürfte Erklärung genug sein. Wenn alle Kerne werkeln gehts schnell zu Ende. Zudem legt Samsung das Exynos 303 bei, dass gibt es auch nicht umsonst.

Ailuros
2014-09-15, 19:11:43
http://www.fudzilla.com/home/item/35744-samsung-is-building-a-gpu

ROFL :D

Der Witz des Tages :freak:

Terrarist
2014-09-15, 19:27:53
Schon interessant wenn der führende Displayhersteller anfängt "GPU's" zu entwickeln. Beides aufeinander abgestimmt könnte vor allem für zukünftige mobile VR Entwicklungen wichtig werden.

Ailuros
2014-09-16, 09:03:17
Schon interessant wenn der führende Displayhersteller anfängt "GPU's" zu entwickeln. Beides aufeinander abgestimmt könnte vor allem für zukünftige mobile VR Entwicklungen wichtig werden.

Interessant ist lediglich dass Samsung noch vor dem Exynos5410 release ganze 4 SoC Familien aus der Exynos roadmap stornierte weil sie ihr eigenes Milliarden-schwere GPU Projekt storniert hatten.

Es klingt wahrscheinlicher dass FudoGenie(tm) erst jetzt davon erfahren hat, als dass Samsung die GPU Entwicklung wieder angefangen hat. Wenn man insiders glaubt dann war das was sie entwickelt hatten ein wirklich totaler flop.

robbitop
2014-09-16, 10:43:29
Die Frage ist ob es sinnvoll ist, das Geld in die Hand zu nehmen und In-House zu entwickeln, wenn es für einen schmalen Taler sehr gute Lizenzprodukte (die man IMO nicht mal eben schlägt!) hinterher geschmissen gibt.

fub
2014-09-16, 15:27:11
Nun, Samsung hat schon ein Paar GPU-designs bei SIGGRAPH vorgestellt, naemlich RayTracing verilog Designs auf FPGAs :freak:.

Ailuros
2014-09-16, 18:05:56
Nun, Samsung hat schon ein Paar GPU-designs bei SIGGRAPH vorgestellt, naemlich RayTracing verilog Designs auf FPGAs :freak:.

Ist doch schon gar nicht mal schlecht als "nutzvolles" GarNichts :freak:

Spass beiseite und zurueck zur Realitaet:

A57/53 CPUs im Exynos 5433 unter Samsung 20nm

http://www.anandtech.com/show/8537/samsungs-exynos-5433-is-an-a57a53-arm-soc

Ich hoffe wir finden raus warum sie geizig mit dem Speichertakt sind.

mboeller
2014-09-17, 07:11:35
Ist doch schon gar nicht mal schlecht als "nutzvolles" GarNichts :freak:

Spass beiseite und zurueck zur Realitaet:

A57/53 CPUs im Exynos 5433 unter Samsung 20nm

http://www.anandtech.com/show/8537/samsungs-exynos-5433-is-an-a57a53-arm-soc

Ich hoffe wir finden raus warum sie geizig mit dem Speichertakt sind.

OT:

...und damit ist Nvidia plötzlich letzter beim 64bit-ARM "rennen" für Android. Qualcomm hat ja auch schon die 410 und 615 SoC auf dem Markt. Naja, die kleineren Hersteller fehlen auch noch (zB.: Mediatek).

Ailuros
2014-09-17, 07:38:49
OT:

...und damit ist Nvidia plötzlich letzter beim 64bit-ARM "rennen" für Android. Qualcomm hat ja auch schon die 410 und 615 SoC auf dem Markt. Naja, die kleineren Hersteller fehlen auch noch (zB.: Mediatek).

http://www.mediatek.com/en/news-events/mediatek-news/mediatek-launches-64-bit-true-octa-core-lte-smartphone-soc-with-worlds-first-2k-display-support/

Juli angekuendigt; "soll" vor Ende 2014 in Geraeten erscheinen.

iFanatiker
2014-09-18, 10:51:20
OT:

...und damit ist Nvidia plötzlich letzter beim 64bit-ARM "rennen" für Android. Qualcomm hat ja auch schon die 410 und 615 SoC auf dem Markt. Naja, die kleineren Hersteller fehlen auch noch (zB.: Mediatek).

A-53 in Silizium zu gießen ist eine Sache....aber einen A-57 eine andere. Damit wäre Samsung weit weit vor allen anderen soweit und dies dazu noch mit big.LITTLE inklusive noch einen ziemlich fetten GPU im SoC. Also an sich beste Werbung für Samsung LSI wie auch deren 20nm Prozess. Interessanterweise erwähnt Samsung dies alles mit keinen Wort also ist die große Frage wie voll funktionsfähig der 5433 unter ARMv8-A AArch64 ist. Man hörte im Vorfeld, dass man wohl ziemliche Probleme hatte bei der Verifikation deswegen auch die Ansiedlung in der 5-er Familie und nicht höher und es war wohl (wie so oft in jüngerer Vergangenheit) das Note 4 vor allem mit dem Exynos zu vertreiben.

Vermutlich ist die Ausbeute Mies und frage ist ob AArch64 ohne Fehler läuft.

AffenJack
2014-09-18, 11:01:08
Laut nebu im b3d Forum läuft er ja auch nur im 32Bit Modus und es scheint als wäre 64Bit vielleicht deaktiviert.
Beide 20nm SoCs sind bisher auch nur für Korea verfügbar oder? Mag sein, dass man noch zu wenig 20nm Kapazitäten hat.

mboeller
2014-09-19, 09:19:17
http://www.mediatek.com/en/news-events/mediatek-news/mediatek-launches-64-bit-true-octa-core-lte-smartphone-soc-with-worlds-first-2k-display-support/

Juli angekuendigt; "soll" vor Ende 2014 in Geraeten erscheinen.

Anscheinend kommt nicht nur der Highend-SoC noch dieses Jahr sondern auch "die Mittelklasse-Version":

http://www.gizmochina.com/2014/09/18/xiaowa-phone-to-use-mt6752-64-bit-lte-soc/