PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

smalM
2016-01-29, 03:29:41
Das erste Gerät mit Cortex A72 (Kirin 950 SoC 16nm 2,3 GHz) ist reviewt worden.
Die Performance ggü A57 ist enttäuschend.
Mehr Effizienz und eine leicht höhere IPC durch bessere Ausnutzung der Executionslots (mehr Kombinationen gleichzeitig ausführbar) war doch auch das, was für den A72 von vornherein versprochen wurde. Mehr (IPC) aber auch nicht weniger (Effizienzsteigerung) war also zu erwarten.

Für A10/A10X wird vermutlich kein neuer Herstellungsprozess zur Verfügung stehen. Höchstens optimierte/gereiftere 14/16nm FinFet Prozesse. Wobei ich darauf tippe, dass die TSMC Version des A9 bereits in 16FF+ gefertigt ist.
Die 16FF Produktion ist voll in die 16FF+ Produktion aufgegangen, soweit ich weiß. Aber bei Bilanzpressekonferenz für Q3'15 wurde ja gesagt, daß es nicht nur einen 16FFC mit höherer Packungsdichte und vereinfachter Produktion als Billigprodukt geben wird, sondern auch noch "einen anderen". Mein Spekulatius sagt mir, der ist für Apple gedacht :D

Also muss der Vorteil beim A10/10X größtenteils aus dem Design kommen. L3 macht, wie sunrise sagt, absolut Sinn. Ich persönlich tippe beim A10 (spätestens A11) auch über die Nutzung von SMT. Sowohl Front-End als auch Execution sind bei den Wirbelstürmen so breit, dass es sicherlich etwas bringen sollte. Zen sieht den Wirbelstürmen ja auch recht ähnlich aus und wird ebenfalls auf SMT setzen.
SMT hatte ich mir schon für den A9 erhofft. Da die Hoffnung trog, richtet sie sich jetzt auf den A10. Große Sprünge wird auch ein verbesserter 16FF+ nicht erlauben, da wäre SMT ein Mittel, wenigstens die MP-Geschwindigkeit ordentlich zu steigern, da ich stark annehme auch im A10 eine Dualcore-CPU anzutreffen.

Interessant wird sein, ob Apple auf die neue InFO-Lösung von TSMC setzen wird, die dieses Halbjahr für die 16FF-Prozesse verfügbar werden soll. Wenn ja, geht die gesamte A10-Generation an TSMC. Für die A9-Produktion nehme ich eh an, daß sie spätestens Mitte des Jahres bei Samsung eingestellt werden wird.

Ailuros
2016-01-29, 06:54:01
* A72: es gibt mehr als nur eine problematische Implementierung vom A57; hier frage ich mich eher ob die eigentliche IP in irgend einer Art verkorkst ist. Ich hab jetzt den Kirin review nicht durchgelesen, aber bevor man zu Schlussfolgerungen fuer A57 vs. A72 kommt waere es gut zu wissen welche interconnects/SCs in jeglichem Fall genau benutzt wurden.

***edit: dauerte aber nicht schnell die Schmerzstelle zu finden: http://www.computerbase.de/2016-01/huawei-mate-8-test/2/

Negativer Einfluss auf die Messwerte des Kirin 950 hat das ältere Interconnect allerdings nur kaum.

Ich kann mir aber nicht vorstellen wie die Resultate mit der neuen surrounding logic ausgesehen haette. Robbi reicht so viel? ;)

* 16FF/16FF+: duerfte schon so sein denn ich hoere im Hintergrund aehnliches schon seit einiger Zeit.

* Kirin vs. A-wasauchimmer ist zwar schoen und gut aber computerbase sollte sich auch mal gefaelligst den Gefallen tun und in solchen reviews etwas mehr als nur die CPU versuchen zu analysieren. Ein Mali T880@900MHz waere unfair gegen die GT7600 im A9 zu vergleichen; ich gehe lieber auf quad cluster gegen quad cluster: https://gfxbench.com/compare.jsp?benchmark=gfxgen&did1=27816486&os1=Android&api1=gl&hwtype1=GPU&hwname1=ARM+Mali-T880&D2=Apple+iPhone+6+Plus

Der T880 ist ARM's neueste GPU IP mit sogar hoeherem ALU throughput als bei Vorgaengern auf Papier. Nur sehe ich davon nichts. Ein voriger Generation Rogue (GX6450@A8) ist mit ca. 70% niedrigerer Frequenz immer noch ein Stueck effizienter auf jeglicher Basis. Ein heutiger S7XT GT7400 quad cluster waere nach den A9 Resultaten im gleichen Test bei ~27 fps, ergo um ~50% schneller als T880MP4@900MHz mit wieder 4 clusters bei 533MHz. Entweder hat Hisilicon ins Klo geschissen mit der ARM GPU Implementierung oder ARM hat noch etliche Wege zu kreuzen bis sie endlich einen anstaendigen USC core entwickeln.

Sonst macht mir fuer die zukuenftigen Apple SoCs die area mehr Sorgen als alles andere bis zu 10FF.

robbitop
2016-01-29, 12:39:46
Die Frage ist, ob ein alter Interconnect, viel an der Singlethread Leistung ändert. Ich hätte angenommen, dass ein eher größerer Einfluss für MT-Leistung entsteht.

Ailuros
2016-01-29, 12:53:04
Die Frage ist, ob ein alter Interconnect, viel an der Singlethread Leistung ändert. Ich hätte angenommen, dass ein eher größerer Einfluss für MT-Leistung entsteht.

Ich weiss ehrlich nicht was Hisilicon genau mit dem Kirin angestellt hat, aber es ist auch kein Zufall dass ARM so viel CPU surrounding logic ab A72 geaendert hat wenn die vorige so gut gewesen waere.

Ohne vergleichbare Resultate mit einer anderen A72 Implementierung hilft es alles nichts, aber ich kann mir sehr wohl vorstellen dass ein CCI500 die caches besser ausnutzen laesst.

steve.it
2016-02-05, 10:11:00
Pro & Contra: Kommt der ARM-Prozessor im Mac?
http://www.heise.de/mac-and-i/artikel/Pro-Contra-Kommt-der-ARM-Prozessor-im-Mac-3086075.html

LadyWhirlwind
2016-02-05, 11:55:40
Pro & Contra: Kommt der ARM-Prozessor im Mac?
http://www.heise.de/mac-and-i/artikel/Pro-Contra-Kommt-der-ARM-Prozessor-im-Mac-3086075.html

“We feel strongly that customers are not really looking for a converged Mac and iPad,” said Cook. “Because what that would wind up doing, or what we’re worried would happen, is that neither experience would be as good as the customer wants. So we want to make the best tablet in the world and the best Mac in the world. And putting those two together would not achieve either. You’d begin to compromise in different ways.”

Die am Ende des Artikels gemachte Aussgage, sollte man im Licht des 2. Teils, insbesondere des fett marktierten Teils von Tim Cook's Aussage sehen. Ebenso versucht Apple ja auch schon eine ganze Weile es für die Entwickler einfach zu machen für OS X und iOS zu entwickeln. Klar wird es viele Software geben die angepasst werden muss, aber grundsätzlich dürfte es anbietern die auf beidne Plattformen zu Hause sind, nicht allzu schwer werden ihre Software für ein ARM-Mac anzupassen.

Wenn Apple mit ARM Macs anfängt dann im (ultra-)mobilen Bereich. In ein paar Jahren wird es schon viele Apps geben, die für das iPad Pro angepasst worden sind. Schon das iPad pro wird viele Entwickler dazu bringen, mehr ihrer Desktop Features in ihre Apps zu integrieren. Im einfachsten Fall genügt es dann den Mauszeiger in eine Fingerberührung umzuwandeln, fertig.

Klar wird es Software Produkte geben die auf einem iPad keinen Sinn machen, aber ich denke das Apple relativ schnell relativ gut die Bedürfnisse abdecken können wird.

lumines
2016-02-05, 12:29:50
Klar wird es viele Software geben die angepasst werden muss, aber grundsätzlich dürfte es anbietern die auf beidne Plattformen zu Hause sind, nicht allzu schwer werden ihre Software für ein ARM-Mac anzupassen.

Für die meisten Anwendungen würde das nur bedeuten einen Switch in Xcode umzulegen. Legacy-Anwendungen, die nicht für ARM durchkompilieren, dürften Apple sowieso nicht interessieren.

steve.it
2016-02-05, 13:14:06
Für die meisten Anwendungen würde das nur bedeuten einen Switch in Xcode umzulegen. Legacy-Anwendungen, die nicht für ARM durchkompilieren, dürften Apple sowieso nicht interessieren.
Mittlerweile gibt es ja AFAIK keinen echten Legacy-Kram mehr in OSX bzw. den Anwendungen, der das Leben bei einem solchen Vorhaben erschwert. Daher wäre ein Switch sogar leichter als damals beim Intel Switch (unabhängig davon, ob ein Swicht Sinn macht oder nicht).

Sunrise
2016-02-11, 16:30:10
So kommt zusammen was zusammen gehört:

Apple scheinbar mit A10(X) auf TSMC 10nm:
http://english.etnews.com/20160211200003

Damit katapultiert sich Apple noch deutlich weiter nach vorne. Bei 10nm gibt es theoretisch eine 2,2fach höhere Dichte ggü. TSMCs 16nm FF+. Damit könnte Apple auch den L3 beim A10X problemlos wieder integrieren, damit der SoC nicht größer als der A9X wird.

Bei der hohen Dichte hat Apple quasi alle Möglichkeiten, weiter in die Breite zu gehen (CPU und GPU).

deekey777
2016-02-11, 16:32:09
Anscheinend! Anscheinend!

Das ist interessant, für Samsung gar nicht schön.

Bleiben noch genügend Kapazitäten für andere Auftraggeber?

AffenJack
2016-02-11, 16:34:33
Ist nur völlig falsch, Apple A10 benutzt wahrscheinlich 16FF+ mit InFo Packaging. Das soll wohl der Hauptgrund für TSMC sein, da Samsung das erstmal nicht hat.
Wie schon mehrfach geschrieben, lest keine koreanische News zu TSMC. Die haben kein Plan genauso wie taiwanesische News zu Samsung.
Jedesfalls fresse ich nen Besen wenn wir dieses Jahr 10nm in solchem Volumen wie Apple braucht sehen.

robbitop
2016-02-11, 16:37:18
Dann müsste 10 nm schon in wenigen Monaten serienreif sein. Apple stellt die Tablets idR im Oktober vor und es benötigt ein paar Monate Vorlauf um genug Komponenten vorzuproduzieren. Klingt IMO sehr optimistisch. Es sei denn dass ein A10x Produkt erst 2017 erscheint.

Die Formulierung "völlig falsch" halte ich für unangemessen da es niemand von uns mit Gewissheit sagen kann.

AnarchX
2016-02-11, 16:39:38
Was soll den so ein 10nm A10 (~100mm²?) in 2016 kosten? 150 USD allein für den Chip?

Ravenhearth
2016-02-11, 16:44:56
10nm sehen wir erst 2017.

AffenJack
2016-02-11, 17:44:19
Die Formulierung "völlig falsch" halte ich für unangemessen da es niemand von uns mit Gewissheit sagen kann.

Stimmt wohl, aber da die offizielle Ansage von TSMC heisst: Q1 2016 Risc production, Q4 2016 Volume Produktion lehne ich mich beim A10 gerne soweit aus dem Fenster, da es Null Ansatzpunkte gibt, dass 10nm beim A10 der Fall sein könnte. Wo es allerdings nicht auszuschließen wäre, wäre beim A10X, falls man erst Anfang 2017 refresht und da man da nicht solche hohen Volumen braucht, wie du schon schreibst.

Sunrise
2016-02-11, 17:58:47
Im letzten Earnings Call von TSMC gibt es sowohl für spezialisierte InFo-Kapazität als auch für 10nm Kapazität einige Hinweise, die scheinbar große Kunden betreffen soll. Es wurde mehrmals nachgehakt und es wurde bei einigen genaueren Fragen bzgl. Apple (die so wortwörtlich nicht genannt wurden) natürlich auch nichts gesagt.

Ein Produktionsstart im Juni wäre allerdings in der Tat nicht im Einklang mit den Daten, die TSMC angibt, denn TSMC spricht zwar von "Very high market share on 10nm beginning with 2017" (wo ich mich dann frage, wo der außer von Apple sonst herkommen soll), aber man müsste eben schon im Juni massiv die Produktion ankurbeln, damit man es bis zum September schafft.

AffenJacks Anmerkung passt also schon, in der Regel sind TSMC und Co. ziemliche "Schwätzer", denn im Endeffekt dauerte es bisher immer 6 Monate oder noch länger, um Produkte wirklich in Masse bei TSMC produzieren zu können, weshalb wohl auch Samsung bei 14/16nm aushalf, weil TSMC hier wohl teurer war und bei der Kapazität nicht annähernd an Samsung rankam.

deekey777
2016-02-11, 19:01:37
http://www.macrumors.com/2016/02/10/tsmc-sole-manufacturer-iphone-7/

Update: This article has been updated with information from TSMC's recent conference call, in which they stated that they hoped 10-nanometer production would ramp up in 2017 after getting a slow start in the second half of 2016.
Solche Updates werden wir noch öfter sehen.

steve.it
2016-02-18, 13:58:09
Srouji said that because the original iPhone had to piece together existing components from a range of suppliers, it couldn’t be as powerful as the company had hoped, with a low-powered processor, no front camera, connectivity limited to 2G and poor battery life. One of those components?

Elements from a Samsung chip used in DVD players.

It was disappointment in what could be achieved using existing components, said Srouji, that led Steve Jobs to conclude that Apple needed to design its own chips.

Steve came to the conclusion that the only way for Apple to really differentiate and deliver something truly unique and truly great, you have to own your own silicon. You have to control and own it.

The whole piece makes for an interesting background read.

http://9to5mac.com/2016/02/18/apple-chipmaker-johny-srouji-profile/?pushup=1

http://www.bloomberg.com/features/2016-johny-srouji-apple-chief-chipmaker/

Ailuros
2016-03-09, 07:51:18
Am Rand muss ich zugeben dass mich die ersten iPadPRO Verkaufszahlen durchaus ueberrascht haben.

deekey777
2016-03-09, 09:54:05
Am Rand muss ich zugeben dass mich die ersten iPadPRO Verkaufszahlen durchaus ueberrascht haben.
Sie sollen sich im letzten Quartal des Kalenderjahres 2015 besser verkauft haben als alle Surface-Modelle von Microsoft.

Finde ich nicht überraschend, dass das iPad Pro erfolgreich ist als die Konkurrenz. Einerseits hat Apple das iPad Pro früher vorgestellt als Microsoft das Surface Pro 4. Hinzu kommt, dass andere Hersteller während der IFA mehrere Surface-Klone gezeigt haben, diese aber frühestens im November, meistens aber erst in diesem Jahr gekommen sind. Dem Erfolg trug Microsoft auch dadurch bei, weil die Geräte an Kinderkrankheiten litten.

Die wirklich mobilen 2in1-Geräte wie das Samsung TabPro S oder das Haudings kommen erst. Trotzdem wird iPad Pro wohl erfolgreicher sein. Und jetzt soll noch ein kleineres iPad Pro mit 9,7 Zoll kommen, so ein Modell fehlt gänzlich.

smalM
2016-03-22, 02:07:56
Und da ist es.
Leider wie immer ohne Angaben zum RAM und zum Takt des A9X.
Allerdings ergibt sich aus Apples iPad-Vergleichstabelle ein etwas langsamerer Takt für CPU (-4%) und GPU (-14%).

Neu ist die 256GB-Variante beim Speicher. Mal schauen, ob der A9X damit noch einmal wird zulegen können.

Ach ja, zum ersten Mal überhaupt sieht ein iPad in Mobilfunk-Version von hinten gut aus!

Das neue iPad übt einen unheimlich Sog auf mein Portemonnaie aus :eek:

Ailuros
2016-03-22, 06:24:07
Und da ist es.
Leider wie immer ohne Angaben zum RAM und zum Takt des A9X.
Allerdings ergibt sich aus Apples iPad-Vergleichstabelle ein etwas langsamerer Takt für CPU (-4%) und GPU (-14%).

Neu ist die 256GB-Variante beim Speicher. Mal schauen, ob der A9X damit noch einmal wird zulegen können.

Ach ja, zum ersten Mal überhaupt sieht ein iPad in Mobilfunk-Version von hinten gut aus!

Das neue iPad übt einen unheimlich Sog auf mein Portemonnaie aus :eek:

Gibts nen link fuer die Tabelle ich stehe gerade auf dem Schlauch damit....sonst sind die niedrigeren Frequenzen keine Ueberraschung denn die Batterie ist gleich gross wie beim Air2. Die GPU Frequenz duerfte jetzt bei 400MHz liegen welches 307 GFLOPs FP32 entspricht; immer noch schneller ist als die GPU im PixelC.

Den Furz von 4% weniger CPU Takt wird man wohl schwer in Echtzeit bemerken.

Hat zufaellig irgend jemand erwaehnt wo die SoCs diesmal hergestellt werden?

Sunrise
2016-03-22, 07:53:13
Hat zufaellig irgend jemand erwaehnt wo die SoCs diesmal hergestellt werden?
Über das spricht Apple generell nicht. Es gab nur wieder eine Bemerkung hinsichtlich "FinFET ist sowas von State-of-the-Art" von Phil Schiller beim iPad-Teil. Dass der A9X TSMC exklusiv ist, wissen wir aber relativ sicher, der A9 wird wohl auch weiterhin (aufgrund größeren Volumina) von beiden Semis kommen.

Was aber erstmals erwähnt wurde ist die 12-Core (ja, er sagte ziemlich sicher Cores, nicht Cluster)-Konfiguration der GPU.

Das wissen wir aber ohnehin schon alles, da waren andere schneller. ;)

smalM
2016-03-22, 12:31:33
@Ailuros
Die iPad-Tabelle gibt es hier (http://www.apple.com/de/ipad/compare/). Etwas runterscrollen zur Sektion Chip. Die Geschwindigkeiten sind angegeben in Relation zum A7 im iPad mini 2.
Ich nehme an, daß Apple bei 4% weniger CPU-Takt und 14% weniger GPU-Takt tatsächlich schon die Spannung einen Stück senken kann, so daß sich das auch wirklich lohnt.

@Sunrise
Phil Schiller ist SVP Marketing.
Alle Marketing-Leute sagen Cores statt Cluster... :wink:

Zum A9 im iPhone SE: Dieses Mal könnte Apple ausschließlich die stromsparendere Version von TSMC verbaut haben.

Sunrise
2016-03-22, 12:35:55
@Sunrise
Phil Schiller ist SVP Marketing.
Alle Marketing-Leute sagen Cores statt Cluster... :wink:
Ich weiß, daher habe ich es ja erwähnt! :eek::rolleyes::D

Der bekommt von den Engineers immer nur Brocken und setzt das dann so zusammen, dass es die Masse einigermaßen versteht und der WOW-Faktor vorhanden ist. Apple hat eben verdammt gute Engineers und dazu mittlerweile so ziemlich das Beste vom Besten an Zulieferern, da hat Phil eigentlich einen leicht verdienen Job.

Marketing..., es gehört zwar dazu, aber so ein leichtes Grinsen kann ich mir dabei nie verkneifen. Lustigerweise sind das aber diejenigen, die du brauchst, sonst erfährt niemand außer ein paar Tech-Junkies interessante Details über deine HW.

Das neue iPad Pro ist schon nicht schlecht, vor allem das DCI-P3-Display ist ja wohl der Hammer. Aber das ist alles leider nichts Wert, wenn die Software nicht nachkommt. Es ist eben nur ein besseres Entertainment-Spielzeug als das normale iPad, daher auch das "Pro" hintendran.

Ein iPad Pro soll doch tatsächlich einen PC ersetzen... Eventuell für gewisse Fälle ja, aber sicher nicht mit diesen Einschränkungen von iOS.

steve.it
2016-03-22, 12:54:10
Report: Apple in talks to acquire Imagination Technologies, likely to start developing its own mobile GPUs
http://9to5mac.com/2016/03/22/report-apple-in-talks-to-acquire-imagination-technologies-likely-to-start-developing-its-own-mobile-gpus/?pushup=1

Ailuros
2016-03-22, 12:55:30
@Ailuros
Die iPad-Tabelle gibt es hier (http://www.apple.com/de/ipad/compare/). Etwas runterscrollen zur Sektion Chip. Die Geschwindigkeiten sind angegeben in Relation zum A7 im iPad mini 2.
Ich nehme an, daß Apple bei 4% weniger CPU-Takt und 14% weniger GPU-Takt tatsächlich schon die Spannung einen Stück senken kann, so daß sich das auch wirklich lohnt.

Danke. Eine ausgezeichnete Masche fuer A9X salvage SoCs.

@Sunrise
Phil Schiller ist SVP Marketing.
Alle Marketing-Leute sagen Cores statt Cluster... :wink:

Klingt eher nach einer daemlichen Gewohnheit; denn wenn er NV's marketing wirklich haette nerven wollen haette er auch gleich 768 cores sagen koennen :P

Zum A9 im iPhone SE: Dieses Mal könnte Apple ausschließlich die stromsparendere Version von TSMC verbaut haben.

Sieht bis jetzt danach aus, denn IHVs scheinen in letzter Zeit ziemlich genervt mit TSMC wegen fehlender 16FF+ Kapazitaeten zu sein ;)

Sunrise
2016-03-22, 13:00:08
Report: Apple in talks to acquire Imagination Technologies, likely to start developing its own mobile GPUs
http://9to5mac.com/2016/03/22/report-apple-in-talks-to-acquire-imagination-technologies-likely-to-start-developing-its-own-mobile-gpus/?pushup=1
Nachdem sich RTG bei AMD ja "abgespalten" hat, würde mich mal interessieren, ob RTG da nicht ein besserer Kauf für Apple wäre. Denn da würde nicht nur ohne Ende IP reinkommen, sondern mit Polaris und Co. wohl auf absehbare Zeit auch IMGTec-ähnliche oder vielleicht auch bessere Designs bauen können. Zusätzlich ist RTG da viel viel breiter aufgestellt als IMGTec. Ist natürlich auch eine Preisfrage.

Ailuros
2016-03-22, 13:11:22
Nachdem sich RTG bei AMD ja "abgespalten" hat, würde mich mal interessieren, ob RTG da nicht ein besserer Kauf für Apple wäre. Denn da würde nicht nur ohne Ende IP reinkommen, sondern mit Polaris und Co. wohl auf absehbare Zeit auch IMGTec-ähnliche oder vielleicht auch bessere Designs bauen können. Zusätzlich ist RTG da viel viel breiter aufgestellt als IMGTec. Ist natürlich auch eine Preisfrage.

Waere aber nichts fuer Apple's ueblichen Einzigartigkeits-Koller. Die paar Unterschiede die deferred renderers heute noch haben sind uebrigens fest patentiert.

Nach der CEO Tragoedie bei IMG vor Wochen wunderte es mich schon damals warum Apple noch nicht zugegriffen hatte. Momentan sieht es eher danach aus als ob Geruechte verstreut werden um einem Mitarbeiter etwas auf die Beine zu helfen mit den Aktien-Werten.

deekey777
2016-03-22, 13:20:36
Nachdem sich RTG bei AMD ja "abgespalten" hat, würde mich mal interessieren, ob RTG da nicht ein besserer Kauf für Apple wäre. Denn da würde nicht nur ohne Ende IP reinkommen, sondern mit Polaris und Co. wohl auf absehbare Zeit auch IMGTec-ähnliche oder vielleicht auch bessere Designs bauen können. Zusätzlich ist RTG da viel viel breiter aufgestellt als IMGTec. Ist natürlich auch eine Preisfrage.
Und Nachbarn wäre man auch.
(Da war doch was in Florida.)

RTG wäre schon eine Überlegung wert. Aber eher unwahrscheinlich. Eher kaufen sie AMD mit RTG.

Ailuros
2016-03-22, 13:40:28
Nur waere AMD um zich Male teurer aufzukaufen und problematischer aufzuraeumen :P

Plus dass dann der gesamte GPU Markt ziemlich im Arsch ist weil dann Intel und NVIDIA in verschiedenen Bereichen ein quasi Monopol geniessen werden.

smalM
2016-03-22, 13:41:51
Ich glaube nicht, daß sich für Apple die Preisfrage stellt; das wird ausschließlich danach beurteilt werden, ob's paßt.
IMGs Grafikabteilung ist eigentlich jetzt schon eine verlängerte Entwicklungsabteilung für Apple, die MIPS-Entwickler kann man auch gebrauchen und Apple besitzt eh schon 10% der Aktien (und nicht zuletzt ist Intel als Aktionär ja inzwischen ausgeschieden).
RTG wird es ohne den Rest von AMD nicht geben, alles zusammen ist ein Haufen Ballast, den Apple nicht brauchen kann.

IMGs Preis ist natürlich nur ein Klacks, daß dazu noch in £ zu zahlen ist, ist da noch ein Bonus. Aber wenn Apple AMD kaufen wollte, wären die 1,5 Mrd.$ mehr auch egal, das verdient Apple in weniger als zwei Wochen...

Ailuros
2016-03-22, 13:46:19
Da IMG bei arstechnica's Anfrage das Geruecht nicht verneinen wollte, muss schon etwas daran haengen. Nur wenn die Verhandlungen zu lange dauern sollten, wird der Preis auch nicht nur bei irgendwo ueber einer Milliarde liegen.

Fuer die IMG engineers waere es auch eine Eulogie da sie endlich dass bezahlt werden was sie wirklich wert sind.

Ich weigere mich aber selbst in diesem Fall jegliches i-Geraet zu kaufen :mad:

deekey777
2016-03-22, 13:47:01
Nur waere AMD um zich Male teurer aufzukaufen und problematischer aufzuraeumen :P

Plus dass dann der gesamte GPU Markt ziemlich im Arsch ist weil dann Intel und NVIDIA in verschiedenen Bereichen ein quasi Monopol geniessen werden.

Kann man eigentlich von RTG GPU-Kerne lizensieren? Etwas ähnliches wollte auch das Software-Unternehmen Nvidia machen, aber wurde überhaupt was von Drittunternehmen lizensiert?

Ailuros
2016-03-22, 13:52:08
Kann man eigentlich von RTG GPU-Kerne lizensieren?

Ja natuerlich, nur werden sie dann auch etliche Male mehr kosten als ULP SoC GPU IP ueber welches AMD momentan nicht verfuegt. Und nein es wird wohl Apple auch nicht so bloed sein und das existierende Zeug benutzen ausser es waere ihnen egal dass morgen schlagartig der Stromverbrauch explodiert fuer ihre GPUs.

Etwas ähnliches wollte auch das Software-Unternehmen Nvidia machen, aber wurde überhaupt was von Drittunternehmen lizensiert?

Der Affenzirkus war wohl nur fuer patent trolling in Gerichten gemeint.

drdope
2016-03-22, 14:01:00
Auch wenn es hier nicht zu 100% reinpasst (aber immer noch besser, als im iPhone-Thread):

http://abload.de/img/bildschirmfoto2016-03fqsk4.png

Interessant zu sehen, wie Apple die ARM bestückten Geräte gegenüber den x86ern preislich positioniert.
Damit wird die Entscheidung zwischen Laptop und Tablet künftig nicht mehr über den Kaufpreis getroffen.

iuno
2016-03-22, 14:04:57
Bzgl. AMD, die suchen offenbar gerade Partner fuer eine Integration: http://www.tomshardware.de/amd-radeon-gpu-grafikkarte-fremdfertigung,news-255144.html
Vielleicht heisst das, dass sie die komplette ARM Entwicklung zusammengestrichen haben, sonst koennten sie ja selber so einen SoC bauen.
Ein Apple SoC mit AMD Grafik waere doch mal was feines... vielleicht schluckt Apple AMD ja doch noch ;) :ulol:
Bei der Meldung dachte ich auch erst an "Navi" (Scalability, Perf/Watt), aber das ist dann doch zu weit hergeholt

deekey777
2016-03-22, 14:38:07
Vielleicht traut sich Apple in eine Intel-CPU eben den Grafikkern von AMD zu integrieren.

Seit langer Zeit heißt es, dass Apple von Intel wegkommen will. AMD ist aktuell keine alternative, aber ein starker ARM in Kombination mit einer AMD-GPU in einem kleinen iBook (auch wenn es nicht mehr iBook heißen wird) könnte interessant werden.

iuno
2016-03-22, 15:16:39
Du kannst nicht einfach einen Fremdkoerper in eine Intel CPU packen ;) Intel lizenziert ihre CPUs ja nicht und baut sie nur selber.

Ich weiss auch nicht, ob und welchen Grund Apple haben koennte, ImgTec fallen zu lassen. Imho koennte fuer Apple aber ein Umstieg auf Summit und Raven Ridge Sinn machen. Vielleicht wollen sie dann dieselbe Grafik IP auch bei den ARM Chips haben. Aber das ist naturlich reine Speku ohne jegliche Grundlage.

smalM
2016-03-22, 17:25:38
Seit langer Zeit heißt es, dass Apple von Intel wegkommen will.
Nichts als heiße Fieberträume...

PS: Laut Heise hat Apple die Übernahmepläne gegenüber CNBC verneint.

Ailuros
2016-03-22, 18:09:29
Nichts als heiße Fieberträume...

PS: Laut Heise hat Apple die Übernahmepläne gegenüber CNBC verneint.

Kurze Aussage von Apple:

From time to time, Apple talks with companies about potential acquisitions. We had some discussions with Imagination, but we do not plan to make an offer for the company at this time.

Haette es keine Verhandlung gegeben haette sich sowohl IMG als auch Apple anders verhalten. IMG hat eben gerechtfertigt keinen Bock schon das Handtuch zu werfen und Apple wollte wohl sicher sein dass sie keine Probleme mit ihrem IP provider haben werden.

http://www.londonstockexchange.com/exchange/news/market-news/market-news-detail/other/12748077.html

http://www.londonstockexchange.com/exchange/news/market-news/market-news-detail/IMG/12748288.html

smalM
2016-03-23, 17:01:59
Ars Technica hat ein paar Benchmarkergebnisse (http://arstechnica.com/apple/2016/03/a-day-with-the-9-7-inch-ipad-pro-and-its-accessories/).

In GFXBench erreicht die GPU des 9.7" offscreen nur etwa ⅔ der Leistung des 12.9".
Das dürfte neben dem niedrigeren GPU-Takt auch dem deutlich niedrigeren RAM-Takt geschuldet sein, den man anhand Geekbenchergebnissen deutlich erkennen kann. Die CPU des 9.7" läßt sich davon nicht beeindrucken und kommt sehr nah an die des 12.9" heran.

Ailuros
2016-03-23, 19:21:19
Ars Technica hat ein paar Benchmarkergebnisse (http://arstechnica.com/apple/2016/03/a-day-with-the-9-7-inch-ipad-pro-and-its-accessories/).

In GFXBench erreicht die GPU des 9.7" offscreen nur etwa ⅔ der Leistung des 12.9".
Das dürfte neben dem niedrigeren GPU-Takt auch dem deutlich niedrigeren RAM-Takt geschuldet sein, den man anhand Geekbenchergebnissen deutlich erkennen kann. Die CPU des 9.7" läßt sich davon nicht beeindrucken und kommt sehr nah an die des 12.9" heran.

Das klingt definitiv nicht nach einem um nur 14% niedrigeren Takt sondern um einiges mehr. Ich kann mir jetzt schwer vorstellen dass die Speicherfrequenz so stark Resultate unter 1080p beinflussen sollte aber sagen wir mal einfach zwischen 300 und 350MHz fuer die GPU.

Irgendwo Pixel C GPU Leistungsregion ist es aber doch noch und es beindruckt mich kein bisschen dass man mit der Batterie und form factor nicht mehr Leistung erreichen kann. Theoretisch koennte Apple den Takt hoeher ansetzen aber es wuerde nur in kurzen benchmarks etwas bringen und sustained Leistung als auch Batterie-Laufzeit zu negativ beinflussen.

Ich bin neugierig wann die ersten Manhattan 3.1 long term performance fuer beide PRO tablets getestet werden, denn T Rex onscreen kann leider fuer diese nichts mehr Aussagekraeftiges liefern.

Stimmt es dass das 9.7" tablet nur ueber 2GB Speicher verfuegt?

***edit: muss mich wohl selber korrigieren, es haengt wohl doch mehr am Speicher oder sonst etwas. Die 9.7" GPU erreicht 88% vom Fuellraten-Ergebnis vom grossen PRO, ergo kann der Takt keine so grossen Abstand haben.

smalM
2016-03-23, 21:53:13
Ja, das 9.7" hat 2GB RAM.
Da Apple das RAM ja erst im Air 2 auf 2GB vergrößert hatte, war auch eigentlich nicht mehr zu erwarten.

Ailuros
2016-03-24, 07:11:42
Uebrigens ist der Unterschied in Manhattan 3.0 zwischen dem Air2 und 9.7" Pro zwar nur bei 18%, aber dafuer ist das letzte im Manhattan 3.1 um 2.2x Mal schneller. Manhattan 3.1 ist eine Neuauflage vom originalen 3.0 bench wo noch mehr Gewicht auf die ALUs faellt.

Alles vor S7XT hat wohl zu kleine caches u.a., deshalb ist im 3.1 auch die A9 GPU um 60% schneller als im A8X, trotz weniger clusters bei der ersten.

https://gfxbench.com/result.jsp?benchmark=gfx40&test=631&order=score&base=gpu&os-check-Android_gl=0&os-check-custom_gl=0&os-check-Linux_gl=0&os-check-OS_X_gl=0&os-check-OS_X_metal=0&os-check-Windows_dx=0&os-check-Windows_gl=0&ff-check-desktop=0

Intern wird wohl Apple eine Reihe von benchmarks benutzen um auf die 2.4x A7 GPU zu kommen, aber der obrige optimalste (?) Eckfall ist dann bei 9.4x Mal zwischen 9.7" Pro & Air1 GPU.

Sunrise
2016-03-29, 23:31:39
Ja, das 9.7" hat 2GB RAM.
Da Apple das RAM ja erst im Air 2 auf 2GB vergrößert hatte, war auch eigentlich nicht mehr zu erwarten.
Naja, kann man so oder so sehen, da das große Pro ja 4GB bekommen hat. Scheinbar will Apple sich alle Wege offen halten, damit sie ihre "minderwertigeren" A9X für möglichst teuer verbauen und verkaufen können. Denn egal was im SoC defekt ist, bei 2GB RAM ggü. 4GB spart man am SI. Andererseits ist die Auflösung auch deutlich geringer beim kleineren Pro... naja, wäre schön gewesen.

smalM
2016-03-30, 04:40:48
Scheinbar will Apple sich alle Wege offen halten, damit sie ihre "minderwertigeren" A9X für möglichst teuer verbauen und verkaufen können. Denn egal was im SoC defekt ist, bei 2GB RAM ggü. 4GB spart man am SI.

Ausgerechnet das SI soll dann bei Millionen A9X nur halbwegs funktionieren?
Man hat sich einfach 2GB gespart und das kleine vom großen Pro differenziert. Mehr würde ich da nicht hineininterpretieren.

Ailuros
2016-03-30, 06:04:10
Ausgerechnet das SI soll dann bei Millionen A9X nur halbwegs funktionieren?
Man hat sich einfach 2GB gespart und das kleine vom großen Pro differenziert. Mehr würde ich da nicht hineininterpretieren.

Wohl schon fuers obrige; aber fuer die niedrigeren Frequenzen haben sie dann wohl schon salvage parts ausgesucht.

Ailuros
2016-03-30, 12:57:23
Nur indirekt relevant zum thread, aber Sharp wurde endlich aufgekauft:

http://www.fudzilla.com/news/40335-foxconn-buys-sharp

....noch eine Moeglichkeit dass ein grosser Semi verkauft wird....

smalM
2016-03-30, 17:24:17
aber fuer die niedrigeren Frequenzen haben sie dann wohl schon salvage parts ausgesucht.

Nein, das große Pro ist die Ausnahme, das kleine Pro der Massenmarkt und der A9X wurde von vornherein für beide konzipiert.
Der niedrigere Takt ist dem Stromsparen geschuldet und daß das kleine Pro das große Pro onscreen nicht völlig platt macht.

Sunrise
2016-03-30, 18:40:12
Nein, das große Pro ist die Ausnahme, das kleine Pro der Massenmarkt und der A9X wurde von vornherein für beide konzipiert.
Der niedrigere Takt ist dem Stromsparen geschuldet und daß das kleine Pro das große Pro onscreen nicht völlig platt macht.
Wenn das große Pro die Ausnahme wäre, dann hätte der A9X nicht zweimal 6 Cluster bekommen. Das große wird nur mengenmäßig deutlich weniger als das große verkauft werden (falls du das so meinst), aber der A9X wurde in erster Linie ganz klar für das große gebaut und für das kleine benutzt man eben dann die Massen an Chips, die entweder nicht für das große taugen oder aber aufgrund der Menge eben dennoch "voll funktionsfähig" verbaut werden müssen.

Generell braucht auch Apple immer etwas für die Salvage-Chips um die Margen bis ans Maximum auszureizen, und dann wird genau dort die Grenze gezogen, bei der der Großteil der Chips eben noch funktioniert.

Geringerer Takt, weniger Einheiten, halbes SI usw. (Das ist doch bei jedem IHV das gleiche Spiel.)

Ist doch jetzt nichts Neues...

Ailuros
2016-03-30, 18:49:09
Nein, das große Pro ist die Ausnahme, das kleine Pro der Massenmarkt und der A9X wurde von vornherein für beide konzipiert.
Der niedrigere Takt ist dem Stromsparen geschuldet und daß das kleine Pro das große Pro onscreen nicht völlig platt macht.

Klingt so als ob Du es von Apple selber schwarz auf weiss garantiert bekamst dass dem so ist. In jeglichem Gegenfalll steht Deine Annahme gegen die anderen hier. Da es alles andere als absurd ist bei 147mm2 grossen 16FF+ chips wirtschaftlich an salvage parts zu denken ist alles andere als unmoeglich.

Unmoeglich ist eher zu glauben dass Apple zu 100% von den wafer yields nur volle PRO level SoCs bekommt und diese mit Absicht kastriert.

smalM
2016-03-31, 22:56:48
Generell braucht auch Apple immer etwas für die Salvage-Chips

Welche Produkte waren das noch mal für den A5X, A6X und A8X?

Es sieht übrigens so aus, als seien die CPU-Cores in beiden iPad Pros gleichschnell getaktet. Unterschiedlich ist wohl nur der GPU- und Speichertakt. Dabei ist das kleine Pro bei Speichertests zum Teil immer noch wesentlich schneller als das iPad Air 2.

Ailuros
2016-04-01, 06:42:41
Welche Produkte waren das noch mal für den A5X, A6X und A8X?

Es gab sehr wohl Faelle in der Vergangenheit wo sie die gleichen SoCs mit leicht niedrigeren Frequenzen wiederbenutzten in anderen Geraeten. Waeren ihnen die Kosten soooo egal gewesen haetten sie den A5 damals auch nicht durch einen shrink gezogen als eins der Beispiele.

Zwar nicht fuer die "X" SoCs aber damals hatten sie auch nur ein Produkt damit zu bedienen. Diesmal haben sie einen Prozess der diametrisch teurer ist als die der Vergangenheit und ein grosses und kleineres tablet.

Nochmal: Du wirst wohl nicht ehrlich erwarten dass alle operative A9X SoCs vom wafer auch zu 100% voll operativ sind oder?

Es sieht übrigens so aus, als seien die CPU-Cores in beiden iPad Pros gleichschnell getaktet. Unterschiedlich ist wohl nur der GPU- und Speichertakt. Dabei ist das kleine Pro bei Speichertests zum Teil immer noch wesentlich schneller als das iPad Air 2.

Mich wundert es kein bisschen dass sie hauptsaechlich den bei weit groessten Anteil des chips leicht nach unten takten. Mit dem niedrigeren Speichertakt ist dann die GPU bis zu fast 40% langsamer als im PRO. Ausserhalb von 3D oder imaging als Beispiele wird man es aber auch nicht bemerken koennen.

robbitop
2016-04-01, 09:18:56
Kosten und Yields sind bei 14/16FF nochmal eine ganz andere Hausnummer als in den alten Planar Prozessen. Hinzu kommt, dass man mit den A/AX SoCs jetzt 3x Geräteklassen bedienen muss:
Smartphones, Tablets und "ProTablets". Denn die Größendifferenz (und damit die potenzielle Kapazität des Akkus) ist bei Tablets wegen des iPad Pros einfach sehr groß gewesen. Insofern steigt der Sinn vom Binning und von Salvage damit signifikant. In größeren ASICS ist das die normale Tagesordnung. Wenn die Kosten steigen, werden solche Mittel auch bei kleineren ASICs sinnvoll.

Ich finde es schade, dass viele bei Diskussionen hauptsächlich in die Vergangenheit schauen und Analogien suchen. Finden sie keine, wird oft geschlussfolgert, dass die Lösungsvarianten Zukunft oder der Gegenwart sich nicht ändern werden.

Die Welt dreht sich weiter, Paradigmen wechseln, Randbedingungen ändern sich. Die Vergangenheit ist nicht immer ein sinnvolles Mittel für einen Vergleich.

smalM
2016-04-01, 10:14:48
Wenn ich Strom sparen will und dafür insbesondere die Spannung heruntersetze (und nur das spart wirklich Strom), dann sind das gerade nicht die Salvage-Teile. Ich glaube, im Gegensatz zu Euch, daß die mit erhöhter Spannung im großen Pro gelandet sind.

Es gab nur eine A5-Version, bei der ein Teil des SoCs stillgelegt war und die im ATV verbaut wurden, bis eine eigens reduzierte Baureihe dafür aufgelegt wurde.

Und ich denke, daß Apple SoC-Kosten tatsächlich deutlich höher sind, als sie von den üblichen Verdächtigen immer angegeben werden, weil sie einen guten Teil der Produktion schlicht aussieben.

Ailuros
2016-04-01, 10:28:54
Es gab nur eine A5-Version, bei der ein Teil des SoCs stillgelegt war und die im ATV verbaut wurden, bis eine eigens reduzierte Baureihe dafür aufgelegt wurde.

Vom originalen 45nm A5 wurde auf 32nm geschrumpt und davon gab es noch eine single core Variante: https://en.wikipedia.org/wiki/Apple_A5

When the A5 was first released, it was estimated at that time to cost 75% more than the previous generation, with the difference expected to diminish as production increased.

Die GPU (SGX543MP2) im iPad2 taktete um 25% hoeher als im iPhone4S: https://gfxbench.com/result.jsp?benchmark=gfx40&test=547&order=score&text-filter=Imagination%20Technologies%20PowerVR%20SGX%20543MP2%20%28dual%20core%29&base=device&os-check-Android_gl=0&os-check-custom_gl=0&os-check-Linux_gl=0&os-check-OS_X_gl=0&os-check-OS_X_metal=0&os-check-Windows_dx=0&os-check-Windows_gl=0&ff-check-desktop=0

CPU war auch bei 1000 vs. 800MHz fuer die iPad2 vs. iPhone4S.


Und ich denke, daß Apple SoC-Kosten tatsächlich deutlich höher sind, als sie von den üblichen Verdächtigen immer angegeben werden, weil sie einen guten Teil der Produktion schlicht aussieben.

Apple hat wie man erwarten wuerden einen Volumen-Rabbatt sowohl bei der Lizenzierung von IP als auch von der Herstellung. Sonst wenn etwas grosses X gekostet hat unter 28nm herzustellen, wird es auch fuer sie fuer ihre eigene Konstanten X * N% mehr kosten unter FF Prozessen herzustellen.

smalM
2016-04-10, 19:55:43
Vom originalen 45nm A5 wurde auf 32nm geschrumpt und davon gab es noch eine single core Variante: https://en.wikipedia.org/wiki/Apple_A5
Das AppleTV der dritten Generation bekam bei Erscheinen einen A5 = S5L8942 vepaßt, der ein ¾ Jahr später durch einen eigens entwickelten A5 = S5L8947 ersetzt wurde. Ersterer war das bisher einzige SoC von Apple, bei dem je Funktionseinheiten stillgelegt wurden.

Ich nehme an, daß Apple Einheiten aussiebt, nicht weil sie einen bestimmten Takt nicht erreichen können (der liegt dafür sowohl für CPU als auch für GPU zu niedrig), sondern weil sie einen gewünschten Takt nicht mit einer vorgegeben Spannung erreichen.
Diese Teile sieht man meines Erachtens dann in den jeweils größeren Geräten mit ensprechend größerem Akku wieder, wie bspw. als nächstes den A9 im iPad mini.

Alle SoCs, bei denen Funktionseinheiten nicht lauffähig sind, landen seit dem S5L8947 in der Tonne...

Ailuros
2016-04-13, 21:17:15
Erste Manhattan3.1 long term performance Resultate vom A9/A8/A7:

iPhone 6S -15%

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=27074956&D=Apple%20iPhone%206S

iPhone SE -14%

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&D=Apple+iPhone+SE&testgroup=overall

iPhone 6S Plus -22%

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=25701346&D=Apple%20iPhone%206S%20Plus

Apple A8 und A7 fast ueberhaupt nicht:

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20Inc.%20Apple%20A8%20GPU&did=23040744&D=Apple%20iPad%20Mini%204
https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A8%20GPU&did=22109933&D=Apple%20iPhone%206
https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A7%20GPU&did=7248&D=Apple%20iPad%20Air

Mal sehen wie aus auf A8X/A9X aussehen wird.

Undertaker
2016-04-14, 08:28:48
Das SE definitiv und imo auch das 6S (müsste man mal schauen wie stark die fps im Test schwanken) liegen zu nah am 60 fps Limit. Es wäre auch unlogisch, dass das 6S Plus mehr drosseln soll als das kleinere 6S - das liegt vermutlich eher bei 22% + x.

Ailuros
2016-04-14, 08:48:36
Das 6S Plus hat bis jetzt nur ein einziges Resultat, waehrend die kleineren A9 smartphones einige Resultate schon haben. Das erste SE Resultat war irgendwo ueber 30% throttling welches mich auch nicht wunderte, da der A9 einfach zu ueberdimensioniert ist fuer ein <5" smartphone. Du kannst ja jederzeit auf jegliches long term performance Resultat klicken und man sieht dann schon wie die Resultate verlaufen.

Undertaker
2016-04-14, 09:13:39
Beim iPhone SE kann man bei durchschnittlichen ~58 fps halt stark davon ausgehen, dass der Test praktisch komplett durch VSync limitiert wurde. Wenn man jetzt nicht weiß, ob das eigentliche Potential bei 65, 70 oder gar noch mehr fps liegt, bringen auch beliebig viele long term Resultate keinen echten Erkenntnisgewinn.

Beim 6S mit 53 fps onscreen ist ebenfalls stark zu vermuten, dass die Framerate im Test zumindest zeitweise gegen das 60 fps Limit rennt. Das erklärt dann auch, warum das 6S Plus scheinbar mehr drosselt, was real aber sicherlich nicht der Fall ist.

Ailuros
2016-04-14, 09:29:49
Wie schon erwaehnt original lag das SE bei 39.1 im long term: https://gfxbench.com/subtest_results_of_device.jsp?did=31564732&id=748&hwtype=GPU&os=iOS&api=metal&D=Apple+iPhone+SE

Es wird fuer alle Geraete noch etwas Zeit vergehen muessen bis jegliches Geraet eine logische Anzahl von Resultaten erhaelt damit das Bild etwas deutlicher wird (bzw. eine bessere Indizie) ueber jegliches Geraet.

Undertaker
2016-04-14, 11:08:46
Hab ich schon gesehen; eine höhere Zahl an long term Resultaten ist allerdings keine Hilfe bzgl. der Frage, inwieweit speziell das SE im normalen onscreen Test durch VSync eingebremst wird. Insofern wäre ich da vorsichtig mit Prozentangaben. Am saubersten sind in jedem Fall die 6S Plus Resultate.

Ailuros
2016-04-15, 07:11:58
Hab ich schon gesehen; eine höhere Zahl an long term Resultaten ist allerdings keine Hilfe bzgl. der Frage, inwieweit speziell das SE im normalen onscreen Test durch VSync eingebremst wird. Insofern wäre ich da vorsichtig mit Prozentangaben. Am saubersten sind in jedem Fall die 6S Plus Resultate.

Ich weiss ja nicht was die Applikation genau anstellt, aber es waere schoen wenn diese Zugang zum Auslesen der Temperaturen haette. Ich kann z.B. ein "kaltes" Geraet durch den test jagen und es wird 20% throttling angezeigt und ich kann das gleiche Geraet schoen aufwaermen mit intensivem Zeug und dann im gleichen Test >30% throttling als Beispiel erreichen. Fuer das SE da es ein relativ kleines smartphone ist fuer heutige Verhaeltnisse wuerden mich =/>30% throttling Faelle bei einer so ueberdimensionierten GPU nicht ueberraschen.

Waere auch nutzvoll fuer Faelle wie beim Xiaomi Mi5 wo es bei den Resultaten aussieht dass das Geraet nicht throttelt, es aber trotz allem verdammt heiss wird. Es ist ja nicht so dass SoCs keine Temperatur-Sensoren haben und man kann ja auch jederzeit parallel die CPU Temperaturen mit diversen Android-Apps in ms Intervallen auslesen lassen.

Nebenbei scheinen high end Malis neue Rekorde zu brechen: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=ARM%20Mali-T880&did=29889191&D=Samsung%20Galaxy%20S7%20edge%20%28Mali-T880%2C%20SM-G935x%29

-59% ist wohl wirklich ein Witz; wobei ich mich frage was Huawei beim P9 angestellt hat dass es nur -30% sind.

https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=ARM%20Mali-T760%20MP8%20%28octa%20core%29&did=23147698&D=Samsung%20Galaxy%20S6%20Edge%20%28SM-G925x%2C%20SC-04G%2C%20SCV31%2C%20404SC%29

-73% WTF? Meine low end GPU im smartphone erreicht da fast doppelt so viel Leistung.....

Ailuros
2016-04-27, 15:11:18
Α9Χ - iPad PRO long term Resultate:

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9X%20GPU&did=27138730&D=Apple%20iPad%20Pro

Zwischen 10 und 35% schwanken die 3 bisherige Resultate, ein eigentlicher Durschnitt von -23%.

Nebenbei hab ich jetzt erst bemerkt wie brutal die A9X GPU vor der A8X GPU im Driver Overhead 2 test liegt. Ein Unterschied von fast 6x Mal, wobei ich schnell nachgeschaut habe was zum Henker der test genau anstellt:

This is an enhanced version of the original Driver Overhead test found in Gfxbench 3.0 and approximates the graphics driver's CPU load when running the Manhattan high level test. It renders the same amount of geometry twice to add a glow effect, using lots of draw calls, changing rendertargets, vertex formats and shaders as well. The test also alters graphics states like depth test and blending between blocks of draw calls. Required minimum API: OpenGL_ES 3.0 / OpenGL 4.1.

Ailuros
2016-05-23, 20:29:44
Manhattan3.1.1 unter 1440p:

https://gfxbench.com/result.jsp?benchmark=gfx40&test=754&order=score&base=device&ff-check-desktop=0

A9 vs. A8 ein Unterschied von Faktor 4.0. Imposant wie gut alle heutigen high end smartphones generell in diesem test abschneiden.

smalM
2016-07-16, 14:28:32
Es soll der erste Geekbench-Wert für den A10 im iPhone 7 aufgetaucht sein.

Angeblich wurde ein Single-Core Score von 3000 erreicht. Keine weiteren Angaben...

Quelle (https://www.techtastic.nl/smartphones/apple-a10-soc-van-iphone-7-net-zo-snel-als-ipad-pro/)

Nightspider
2016-07-16, 15:06:22
Wäre also eine Verbesserung um ~20% pro Kern.

War ja abzusehen das die Entwicklung langsamer wird.

grobi
2016-07-16, 15:13:21
Es bringt ja auch fast nichts mehr Leitung zu haben. Oder was für seltene Spezialfälle gibt es auf solchen Geräten?

lumines
2016-07-16, 15:32:45
Oder was für seltene Spezialfälle gibt es auf solchen Geräten?

Den Spezialfall eine Webseite mit JavaScript anzusurfen.

grobi
2016-07-17, 09:32:37
Den Spezialfall eine Webseite mit JavaScript anzusurfen.


Hast du da ein Extrembeispiel für mich? Das würde ich gern mal mit meinem Smartphone testen.

gruß grobi

Rooter
2016-07-17, 11:11:24
https://www.computerbase.de/2016-07/iphone-7-groesserer-akku-und-ipad-pro-leistung/

MfG
Rooter

Ailuros
2016-07-17, 17:18:16
Ich hoere konstant in letzter Zeit dass A10 auf 16FFC+ hergestellt wird. Wenn's stimmt dann beinflusst die A10 Produktion nur indirekt und geringer als bisher geglaubt andere IHVs. Dann muss wohl eher Mediatek Schlange stehen fuer Herstellung und nicht NVIDIA :P

Sunrise
2016-07-17, 18:15:50
Ich hoere konstant in letzter Zeit dass A10 auf 16FFC+ hergestellt wird. Wenn's stimmt dann beinflusst die A10 Produktion nur indirekt und geringer als bisher geglaubt andere IHVs. Dann muss wohl eher Mediatek Schlange stehen fuer Herstellung und nicht NVIDIA :P
Apple A10: 16FF+ mit InFO (hoher Takt, Performance-optimiert, L2-Cache wahrscheinlich wieder dabei)
Apple S2: 16FFC+ (niedrigerer Takt, Laufzeit-optimiert)

lumines
2016-07-17, 18:52:22
Hast du da ein Extrembeispiel für mich? Das würde ich gern mal mit meinem Smartphone testen.

Rufe eben eine Webseite mit JavaScript auf. Jede Webseite ist ein Extrembeispiel. JavaScript profitiert nur von Single-Thread-Leistung.

Du könntest aber ein modernes Forum wie Discourse ausprobieren: https://www.discourse.org/

pixelguy
2016-07-18, 08:56:45
Softbank steht wohl vor dem Kauf von ARM. Mich wundert, dass Apple diesen Schritt zulässt und nicht selbst geboten hat: http://www.golem.de/news/soc-arm-fuer-32-milliarden-us-dollar-nach-japan-verkauft-1607-122162.html

Ailuros
2016-07-18, 09:00:42
Softbank steht wohl vor dem Kauf von ARM. Mich wundert, dass Apple diesen Schritt zulässt und nicht selbst geboten hat: http://www.golem.de/news/soc-arm-fuer-32-milliarden-us-dollar-nach-japan-verkauft-1607-122162.html

Es ist heutzutage um einiges billiger engineering Talent einzukaufen.

pixelguy
2016-07-18, 10:37:24
Naja, die Frage ist, was Softbank vorhat und ob sich Apple von denen Abhängig machen will...

smalM
2016-07-18, 11:13:45
Ich hoere konstant in letzter Zeit dass A10 auf 16FFC+ hergestellt wird.

Einen '16FFC+'-Prozeß kannte ich bisher noch nicht.

Ich kannte bisher nur die Aussage von TSMC, daß es neben dem allgemeinen 16FFC noch einen zweiten Prozeß geben werde, der aber nicht kompakter sei als der 16FF+. Soll das der '16FFC+' sein?

Ailuros
2016-07-18, 11:21:04
Tippfehler (ein + zu viel) ;)

Es waere ziemlich merkwuerdig wenn sie A10 auf einer mainstream Prozess Variante herstellen; Sunrise's Beitrag oben duerfte es klaeren.

robbitop
2016-07-18, 12:30:43
Apple hätte mMn das geringste Problem bzgl der ARM Akquisation. Immerhin hat man HW und SW in einer Hand. Apple hat schon am ehesten die Möglichkeit, die ISA zu wechseln.

smalM
2016-07-18, 12:56:20
Wieso sollte das nötig sein?
Softbank gibt ja keine 23,4 Mrd.£ für ARM aus, um den Laden dann dicht zu machen.

Hmm, irgendwie war mir gerade danach eine alte Genesis Platte zu hören: Selling England by Pound.

Unicous
2016-07-18, 13:47:52
Softbank steht wohl vor dem Kauf von ARM. Mich wundert, dass Apple diesen Schritt zulässt und nicht selbst geboten hat: http://www.golem.de/news/soc-arm-fuer-32-milliarden-us-dollar-nach-japan-verkauft-1607-122162.html

Was will Apple mit ARM? Sie lizensieren doch eh nur die ISA? Bei Imagination Technologies könnte ich es mir vorstellen, aber Apple entwickelt doch seit (sehr erfolgreich)Jahren Custom Cores und braucht ARM dafür nicht.

Ailuros
2016-07-18, 14:00:59
Was will Apple mit ARM? Sie lizensieren doch eh nur die ISA? Bei Imagination Technologies könnte ich es mir vorstellen, aber Apple entwickelt doch seit (sehr erfolgreich)Jahren Custom Cores und braucht ARM dafür nicht.

ISA lizenzieren sie immer noch von ARM; sollte aber nicht heissen dass sie in der Zwischenzeit nicht faehig waeren auch ein ISA zu entwickeln.

Sonst gilt fuer IMG genau das gleiche wie fuer ARM im gegebenen Fall; man stellt so viel wie moeglich engineering Talente von allen Seiten ein. Seit es Geruechte gab dass Apple in Verhandlungen lag um IMG zu kaufen sind so manche grosse und wichtige Namen von IMG zu Apple gewandert.

deekey777
2016-07-18, 14:08:45
Brexit hat den Pfund nach unten gedrückt, also schlug Softbank zu.

http://www.heise.de/newsticker/meldung/ARM-Japans-Telekommunikationskonzern-Softbank-will-den-britischen-Chipdesigner-kaufen-3269264.html

Noch vor Öffnung der Börse in London am Montagmorgen bestätigte Softbank den Deal: Man werde ARM für rund 24 Milliarden britische Pfund übernehmen. Das Angebot steht bei rund 17 Pfund pro Aktie, ein Aufschlag von etwa 43 Prozent auf den Schlusskurs aus der vergangenen Woche. Softbank gab im Zuge der Verkündung der ARM-Übernahme eine Kreditlinie bekannt, die knapp ein Drittel des Kaufpreises abdeckt. Das Unternehmen hat bereits Schulden von über 100 Milliarden Dollar.


Die Softbank-Aktie leidet unter dem Kauf. http://kurse.boerse.ard.de/ard/kurse_einzelkurs_uebersicht.htn?sektion=portrait&i=125800&seite=aktien&chartzeitraum=7

Unicous
2016-07-18, 14:11:55
@Ailuros

Nur hängt bei GPUs da noch ein ganzer Rattenschwanz an Patenten hintendran. Die müssten sie also dennoch von IMG oder gar Nvidia/AMD patentieren. (Ich glaube nicht, dass sie Mali haben wollen... darf man den eigentlich lizensieren und umbauen... habe ich noch nie etwas von gehört?)

Aber generell hast du Recht: Apple hat den "Style und das Geld", wie wir coolen Gangsterrapper sagen:freak:, sich eine eigene GPU zusammenzubasteln.

deekey777
2016-07-18, 14:24:19
Sie können doch Geforce von Nvidia lizensieren, schließlich ist Nvidia ein Software-Unternehmen.

Wie viele GPU-Lizenzen hat Nvidia eigentlich schon verkauft? :weg:

Sunrise
2016-07-18, 16:26:26
Sieht so aus als hat Apple sich jetzt auch für 10nm recht klar positioniert, u.a. aufgrund von TSMCs überlegener Packaging-Technologien (InFO) und 10nm-Fortschritten:
http://www.digitimes.com/news/a20160718PB201.html

Es kommt also nicht nur der A10 exklusiv von TSMC, sondern auch der A11. Ebenso sieht es bei 7nm nicht gut aus für Samsung, da TSMC scheinbar wieder die besseren Grunddaten (Power, Performance, Area) ggü. Samsung haben wird und TSMC weiter sehr stark in fortschrittliche Packaging-Technologien investiert, was in in Summe Samsung ziemlich massiv unter Druck setzt und Apple das natürlich nutzen wird, da sie dadurch ihre Produkte immens verbessern können. Da gibt man sich natürlich nicht mit zweitklassiger Produktion ab, wenn es nicht sein muss.

TSMC sollte aktuell ziemlich stark an Kapazität aufgebaut haben, während Samsung wohl immer mehr Geschäft von der Konkurrenz bekommen sollte. Das hat natürlich wieder sehr starke Auswirkungen auf andere Firmen, die dort produzieren wollen und jetzt aufgrund von Kapazitätsengpässen auf absehbare Zeit Samsung wählen müssen.

deekey777
2016-07-18, 16:45:32
Ist TSMC jetzt weiter als Intel?

Ailuros
2016-07-18, 17:57:11
@Ailuros

Nur hängt bei GPUs da noch ein ganzer Rattenschwanz an Patenten hintendran. Die müssten sie also dennoch von IMG oder gar Nvidia/AMD patentieren. (Ich glaube nicht, dass sie Mali haben wollen... darf man den eigentlich lizensieren und umbauen... habe ich noch nie etwas von gehört?)

Aber generell hast du Recht: Apple hat den "Style und das Geld", wie wir coolen Gangsterrapper sagen:freak:, sich eine eigene GPU zusammenzubasteln.

Fundamental umbauen kann man bei keiner GPU IP. Das einzige was bis jetzt Apple mit PowerVR IP anstellt ist eine freie Anzahl von clusters zu benutzen und afaik erhalten sie nur den compiler von IMG und schreiben darauf basierend und dem Referenz-Treiber ihre eigenen Treiber.

Mit den Patenten hast Du zwar recht, aber Mali waren anfangs auch nur eine handvoll Studenten und trotzdem hat sich die GPU IP problemlos nach der Aufnahme von ARM zu einer der groessten GPU IP Schmieden im Markt entwickelt. Gut es ist ein tile based IMR, aber wieviel Kunst braeuchte es wirklich eine aehnliches Dingsda zu entwickeln ohne irgendwelche Patente von weiss der Geier welcher Schmiede zu verletzen? Wie MfA@B3D schon sagte: every idea worth a damn, has been patented....twice.

Mag sein dass die heutigen Bifrost Mali Daten-Verwerfungs-Methoden gerade noch so gut sind wie die im alten Dreamcast, aber wer scheisst gerade noch darauf wenn ARM mit Mali locker die Haelfte (wenn nicht mehr) von GPU IP im ULP SoC Markt kapituliert? Apple ist gross und genuegend unverschaemt, dass es bei ihnen locker klappen koennte wenn sie es nur wollten. Lohnt es sich momentan? Die Antwort ist eher negativ. Koennten sie es schaffen zumindest gleich gut wenn nicht besser als Mali zu machen? Die Anwort ist definitiv positiv.

Ich hab mehr als eine handvoll wichtige Namen die zu Apple ruebergewandert sind. Eines dieser lag sogar unter den Gruendern von Videologic so wie IMG anfangs hiess und bis vor kurzem noch COO bei IMG.

Hat zwar geschichtlich keinen Wert mehr aber Apple hat angefangen custom cores basierend auf ARM ISA zu entwickeln als sie den ex lead enginner der Eagle Architektur ARM aus der Hand schnappten.

Die_Allianz
2016-08-17, 08:58:17
Weil die Stückzahlen bei TSMC, auch ohne Apple, steigen. Bei Intel wird die Auslastung in den nächsten Jahren eher zurückgehen. PC und Notebook-Verkäufe gehen im Moment zurück wie nix anderes!


Intel fertigt ARM-Produkte in 10 nm... war ja abzusehen:

https://www.computerbase.de/2016-08/idf-2016-intel-10-nm-fertigung-arm/

Sunrise
2016-08-17, 09:19:25
Interessante Trendwende bei Intel. Wenn das so weitergeht und man die Nötigkeit sieht, sowohl die eigenen Fabs besser auszulasten als auch die Konkurrenz zu schwächen (weniger Aufträge, weniger Einnahmen), die ja unlängst sehr gut aufgeholt hat (aufgrund der gigantischen Bestellung von SoCs im Mobile-Markt), wird hier ordentlich Konkurrenz entstehen. Hoffen wir mal, dass Intel sich da keinen unlauteren Methoden bedienen wird, wie schon öfter vorgekommen.

Was ARM angeht, so kann das eigentlich nur von Vorteil sein, nur leider ersetzt ja das eine bekanntlich nicht das andere. Auch ein Grund, warum Intel das natürlich zulässt.

Ailuros
2016-08-17, 09:30:18
Intel fertigt ARM-Produkte in 10 nm... war ja abzusehen:

https://www.computerbase.de/2016-08/idf-2016-intel-10-nm-fertigung-arm/

Ausser es hat sich kurzfristig etwas geaendert, hat Apple nach insider Aussagen nicht vor Intel als foundry zu benutzen.

Sunrise
2016-09-06, 16:02:07
Es gibt einen ersten Apple A10-Geekbench:
http://browser.primatelabs.com/v4/cpu/146939

Single-Core Score 3379 und Multi-Core Score 5495

Taktfrequenz des A10 soll laut diverser Meldungen bei bis zu ca. 2,4GHz liegen (genauer: 2,37-2,4GHz).

Das wäre etwa 10% schneller als der A9X im iPad Pro 12,9 Zoll bei wohl optimierter TSMC 16nm FF+-Fertigung und InFo-Packaging und etwa 30-35% schneller als der A9 was die CPU-Leistung angeht. Bei der GPU-Leistung erwarte ich Ähnliches (höhere Taktraten).

Ist jetzt keine sonderliche Überraschung, aber was Apple da immer wieder aus aktueller Fertigung rausholt (bei quasi identischem Design) ist schon ziemlich brutal. Der A10 wird wohl alles bisher Dagewesene weit deklassieren, vor allem weil die Single-Core-Leistung so unglaublich stark wird.

Kallenpeter
2016-09-06, 18:52:17
Fragt sich ob es auch einen A10X geben wird und wie der dann aussehen wird.

Noch beeindruckender ist das ganze wenn man bedenkt das das iPhone 6s immer noch ungeschlagen ist. Apple entthront sich praktisch selbst.

Ailuros
2016-09-06, 19:26:42
Es gibt einen ersten Apple A10-Geekbench:
http://browser.primatelabs.com/v4/cpu/146939

Single-Core Score 3379 und Multi-Core Score 5495

Taktfrequenz des A10 soll laut diverser Meldungen bei bis zu ca. 2,4GHz liegen (genauer: 2,37-2,4GHz).

Das wäre etwa 10% schneller als der A9X im iPad Pro 12,9 Zoll bei wohl optimierter TSMC 16nm FF+-Fertigung und InFo-Packaging und etwa 30-35% schneller als der A9 was die CPU-Leistung angeht. Bei der GPU-Leistung erwarte ich Ähnliches (höhere Taktraten).

Ist jetzt keine sonderliche Überraschung, aber was Apple da immer wieder aus aktueller Fertigung rausholt (bei quasi identischem Design) ist schon ziemlich brutal. Der A10 wird wohl alles bisher Dagewesene weit deklassieren, vor allem weil die Single-Core-Leistung so unglaublich stark wird.

So viel koennen sie eben nicht aus der IPC quetschen ohne den Stromverbrauch zu stark zu beinflussen. Sonst fuer GPU IP, IMG hat zwar mit Absicht diesmal 8XT noch nicht angekuendigt, aber seit Serie6 kam bei jeglichem refresh ein Zusatz von zumindest 50% dazu. Angenommen sie steigern noch bis zu 20% die Frequenz haben sie wohl schon einen Unterschied von 70% pro cluster im Vergleich zum GT7600@450MHz im A9.

Wenn ich jetzt aber wieder die Frage stelle fuer was auch Apple die Leistung konstant aufpumpt werde ich wieder gelyncht. Mir scheinen nach wie vor die wirklich anspruchsvollen Applikationen zu fehlen die solche brutale Leistung im Kleinformat erstmal anstaendiger ausnuetzen koennen.

Kallenpeter
2016-09-06, 20:09:06
Wenn ich jetzt aber wieder die Frage stelle fuer was auch Apple die Leistung konstant aufpumpt werde ich wieder gelyncht. Mir scheinen nach wie vor die wirklich anspruchsvollen Applikationen zu fehlen die solche brutale Leistung im Kleinformat erstmal anstaendiger ausnuetzen koennen.

Beim iPhone ist es sicherlich eine Mischung aus höherer "Responsiveness", Eigenwerbung und mehr Power für Spiele. Noch dazu dürften sich die Kosten hierfür in Grenzen halten.

Beim iPad gebe ich dir recht, das benötigt meines Erachtens dringend mehr Funktionen bzw. muss sich dem Desktop mehr annähern. Die Leistung sollte ja ausreichen.

Ailuros
2016-09-07, 11:17:27
Beim iPhone ist es sicherlich eine Mischung aus höherer "Responsiveness", Eigenwerbung und mehr Power für Spiele. Noch dazu dürften sich die Kosten hierfür in Grenzen halten.

Beim iPad gebe ich dir recht, das benötigt meines Erachtens dringend mehr Funktionen bzw. muss sich dem Desktop mehr annähern. Die Leistung sollte ja ausreichen.

Wenn man Entwickler fuer's letzte animiert, dann kann man auch fuer die iPhones der gleichen Generation mitentwickeln eben mit niedrigeren Anspruechen.

Mir ist schon klar dass keiner der Konkurrenten fuer high end smartphone irgendwo nachlassen koennen und einfach so von der Konkurrenz ueberholt werden, aber irgendwo ist ohne Aussnahmen anspruchsvollere sw faellig.

Sunrise
2016-09-07, 11:48:19
...Wenn ich jetzt aber wieder die Frage stelle fuer was auch Apple die Leistung konstant aufpumpt werde ich wieder gelyncht. Mir scheinen nach wie vor die wirklich anspruchsvollen Applikationen zu fehlen die solche brutale Leistung im Kleinformat erstmal anstaendiger ausnuetzen koennen.
Kommt darauf an, was du mit "anspruchsvollen Applikationen" genau meinst. Ansonsten ist das doch die übliche Vorgehensweise, wenn man etwas verkaufen will. Natürlich rechtfertigt sich nicht, neue HW zu kaufen, wenn keine leistungsfressende Software vorhanden ist, welche die Leistung überhaupt benötigt.

Damals und auch heute wird die stetige HW-Entwicklung doch nur davon getrieben, dass Firmen etwas verkaufen wollen und Argumente benötigen, und oft waren es eben Anwendungen wie Spiele, Rendering usw. welche die Leistung überhaupt benötigten und die HW-Entwicklung anstießen. Wirklich sinnvolle Entwicklungen sind leider die Ausnahme.

Auf einem Smartphone schließt sich "anspruchsvoll" eben schon grundsätzlich aus, denn selbst wenn du die Leistung hast, dann steht sie dir nur für einen Bruchteil der Zeit zur Verfügung.

Und was lernen wir daraus? Ein Handy ist kein Ersatz für eine kabelgebundene Maschine, zumindest nicht in dem Maße, wie man es sich vielleicht wünschen würde. Und daran ändert natürlich auch ein neues iPhone mit noch mehr Leistung herzlich wenig, das "Problem" wird eher dadurch verschärft, dass theoretisch noch mehr Peakleistung da ist, sofern die Akku-Technologien nicht hinterher kommen.

Dass Apple bei den iPads neue Möglichkeiten finden muss, sie zu nutzen, um Upgrades zu rechtfertigen wissen wir ja. Deshalb nannte man sie ja um in "iPad Pro" und erweiterte etwas deren Funktionen, im Grunde aber ist genau der gleiche Untersatz (iOS) das, was bei einem Tablet stark limitierend ist und dieses Thema wird (wenn Apple nicht aufpasst) auch bald die iPhones betreffen.

Insofern gibt es da eigentlich keinen Grund dich zu lynchen, denn das sind ganz normale Überlegungen und mir konnte auch noch keiner erklären, für was ich diese Leistung eigentlich benötige. Der A10 wird so brutal schnell, dass man damit wohl problemlos ein Desktop-System bedienen könnte, aber genau das will Apple ja nicht.

Ailuros
2016-09-07, 12:22:18
Frueher als spaeter rennen auch ULP SoCs gegen die Herstellungs-Prozess-Problematik. Leistung wird auch hier nicht langfristig skalieren koennen. Die Frage ist dann eben auch ob man langsam in kleinen Portionen nachlaesst oder ob man die ganze Geschichte einfach gegen die Wand rennen laesst.

Ja natuerlich wird in relativem Sinn A10 brutal schnell sein, es bleibt aber nach wie vor die Frage wieviel davon ein iPhone6S User in Echtzeit wirklich bemerken wird? Schoen sagen wir mal dass die A10 GPU in etwa die Leistung der A9X GPU im 9.7" auflegt. Mit welchem lowest common denominator entwickeln mobile ISVs fuer iOS genau?.... eben.... :rolleyes:

deekey777
2016-09-07, 20:38:19
Tatsächlich Großklein-Chip.

Sechskern-GPU.

Ailuros
2016-09-08, 09:02:36
Tatsächlich Großklein-Chip.

Sechskern-GPU.

N-kern = wurscht fuer beide Faelle. Prioritaet = Sparmassnahmen und ja es war/ist nur ein reines Bauchgefuehl aber es war hoechste Zeit dass endlich mal etwas gebremst wird mit dem Stromverbrauch. Irgend etwas in der Richtung big.LITTLE war schon lange faellig fuer Apple und die GPU (ich fress einen Besen wenn es nicht Series8XT sein sollte) ist eigentlich die A9 GPU "done right" (der Stromverbrauch war einfach zu ueberdimensioniert fuer ein smartphone ueberhaupt fuer die kleineren iPhones).

Falls sie den GPU Takt erhoeht haben dann nur irgendwo im =/<20% Bereich. Manhattan3.0 Leistung wohl bei ~63-64 fps ( A9-150%, A8-300% http://www.theverge.com/2016/9/7/12746884/apple-a10-fusion-processor-iphone-7-specs-comparison ).

Sunrise
2016-09-08, 09:49:45
@deekey777:
Bereits das 6s/6s Plus hatte eine 6-Cluster GPU, das aktuelle iPad hat das Ganze mal zwei. Ich bemerke das nur nebenbei, weil viele Seiten jetzt natürlich wieder Apples Marketing-Sprache übernehmen und mit einer 6-Kern GPU werben, wenn tatsächlich der A9 bereits eine hatte.

...und die GPU (ich fress einen Besen wenn es nicht Series8XT sein sollte) ist eigentlich die A9 GPU "done right" (der Stromverbrauch war einfach zu ueberdimensioniert fuer ein smartphone ueberhaupt fuer die kleineren iPhones).

Falls sie den GPU Takt erhoeht haben dann nur irgendwo im =/<20% Bereich.
Wenn es wirklich Series 8XT sein sollte, wäre das sehr komisch. Normalerweise hatte IMGTec vorher 8XT immer angekündigt und die Video-IP (nicht zu verwechseln mit dem ISP der Kamera) vom A10 Fusion ist zumindest laut Apple ggü. dem A9 _nicht_ verbessert worden (weiterhin 4K, 30fps max.). Das war schon in der Vergangenheit ein Zeichen dafür, dass man nur höheren Takt angelegt hat. Allerdings würde das wiederum nicht den geringeren Stromverbrauch erklären, der muss ja auch irgendwo herkommen und Series 8XT wäre in diesem Fall dann wieder wahrscheinlicher.

Mal abwarten, bis mehr Details ans Licht kommen.

Ailuros
2016-09-08, 09:52:35
Apple lizenziert video IP getrennt von IMG. Klar dass es der gleiche decoder sein wird https://imagination-technologies-cloudfront-assets.s3.amazonaws.com/documentation/PowerVR_Video_Decoder_IP_Core_Family_%5B2.6%5D.pdf wenn IMG nichts neueres anbietet. Wird ja sowieso von Apple gedrosselt um Strom zu sparen.

Dieses hat ueberhaupt nichts mit GPU IP zu tun. Zwar nur die Series8 Zwerge https://imgtec.com/powervr/graphics/series8xe/ aber lies mal das Marketing-Gewaesch vorsichtig durch.

Performance/mm2 improvement over equivalent Series7XE cores.

A10 ist ja "nur" 3.3 Mrd. Transistoren gross ;)

deekey777
2016-09-08, 10:00:37
@deekey777:
Bereits das 6s/6s Plus hatte eine 6-Cluster GPU, das aktuelle iPad hat das Ganze mal zwei. Ich bemerke das nur nebenbei, weil viele Seiten jetzt natürlich wieder Apples Marketing-Sprache übernehmen und mit einer 6-Kern GPU werben, wenn tatsächlich der A9 bereits eine hatte.


.
Es kann sein, dass ich mich verhört habe, schließlich waren wir irgendwo bei Nr. 9 oder 10... Die einzige Neuigkeit ist, dass der Chip A10 Fusion heißt. Da klaut man von AMD das "A" und jetzt auch noch "Fusion".

A10 steht für AMD.

Hier ist der Binärcode für ein m: 01101101
Und hier für d: 01100100


@Ail:

Das war ein Witz!

Ailuros
2016-09-08, 10:05:49
Es kann sein, dass ich mich verhört habe, schließlich waren wir irgendwo bei Nr. 9 oder 10... Die einzige Neuigkeit ist, dass der Chip A10 Fusion heißt. Da klaut man von AMD das "A" und jetzt auch noch "Fusion".

A10 steht für AMD.

Hier ist der Binärcode für ein m: 01101101
Und hier für d: 01100100

Das A fuer den SoC Namen haben sie schon seit etlichen Jahren/Generationen https://en.wikipedia.org/wiki/Apple_A4

Sonst wurde fusion als marketing-Bums-Name schon so oft geschichtlich benutzt dass ich mich wirklich wundere was Du genau meinst.

***edit fuer's Ninja-edit: als Witz durchaus ok ;)

Ailuros
2016-09-16, 15:45:14
https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=28447322&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+A10+GPU&did2=25701346&os2=iOS&api2=metal&hwtype2=GPU&hwname2=Apple+A9+GPU

Erste A10 Gfxbench Resultate. Noch zu merkwuerdig ergo mit etwas Vorbehalte. Unterschiede von irgendwo +30% bis zu +100% je nach Fall. Falls sich nichts an den TMUs selber geaendert hat, wuerde ich eine Frequenz von 633MHz fuer das 6 cluster config schaetzen. Der Battery Lifetime score von nur 50Minuten macht mir nur Sorgen, aber da es sich nur um einen einzigen run handelt abwarten und Tee trinken.

Sonst was zum Teufel ist eine "G9 GPU" neben der "A10 GPU"? :|

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&D=Apple+iPhone+7&testgroup=info

iuno
2016-09-16, 16:29:22
big.LITTLE GPU config? :ulol: scnr
Es gab ja mal Geruechte, Apple wuerde auch eigene GPU IP entwickeln und Img rausschmeissen. Womoeglich haben sie tatsaechlich damit begonnen irgendwas eigenes einzubauen? Ich weiss nicht wie "modular" die PowerVR sind, kann es sein, dass Apple daran gebastelt hat?

pixelguy
2016-09-16, 16:37:41
Ich stelle mir ja schon länger die Frage, warum Apple seine Macs nicht richtig updated. Der Mac Pro ist jetzt über 1000 Tage unverändert. Die Macbooks sind auch schon ziemlich lange auf dem Markt.

Wäre es ggf. denkbar, dass Apple sich da etwas Richtung ARM überlegt? Wo lägen die Grenzen des Machbaren? Der Mac mini ist ja von der Performance ohnehin quatsch. Das sollte auch ein ARM schaffen, oder? Gleiches gilt eigentlich für die kleinen MacBooks.

Was wäre, wenn Apple ein paar ARM Kerne neben einen Intel packt? Quasi als big.LITTLE für Macs? Solange nur im Netz gesurft oder Mails abgerufen werden, reichen ein paar ARMs?

Oder wäre auch mehr denkbar in Richtung iMac oder MacBook Pro? Apple überrascht in Sachen Performance ja schon immer wieder mit den ARM Chips...

Sunrise
2016-09-16, 17:03:33
https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=28447322&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+A10+GPU&did2=25701346&os2=iOS&api2=metal&hwtype2=GPU&hwname2=Apple+A9+GPU

Erste A10 Gfxbench Resultate. Noch zu merkwuerdig ergo mit etwas Vorbehalte. Unterschiede von irgendwo +30% bis zu +100% je nach Fall. Falls sich nichts an den TMUs selber geaendert hat, wuerde ich eine Frequenz von 633MHz fuer das 6 cluster config schaetzen. Der Battery Lifetime score von nur 50Minuten macht mir nur Sorgen, aber da es sich nur um einen einzigen run handelt abwarten und Tee trinken.

Sonst was zum Teufel ist eine "G9 GPU" neben der "A10 GPU"? :|

https://gfxbench.com/device.jsp?benchmark=gfx40&os=iOS&api=metal&D=Apple+iPhone+7&testgroup=info

Mein iPhone 7 liegt schon zuhause bereit. Falls ich es zeitlich schaffe, mache ich heute mal ein paar Benches. Irgendwelche Wünsche, vor allem wegen der GPU? :D

Ich stelle mir ja schon länger die Frage, warum Apple seine Macs nicht richtig updated.
Scheinbar steht wieder ein größeres Re-Design an. Mit Kaby Lake und Polaris und neuem MacOS hat Apple da wohl alle Hände voll zu tun. Zudem scheinen sie zu überlegen, den Kopfhörer-Anschluss auch hier zu entfernen.

YfOrU
2016-09-16, 17:38:37
Ich stelle mir ja schon länger die Frage, warum Apple seine Macs nicht richtig updated. Der Mac Pro ist jetzt über 1000 Tage unverändert. Die Macbooks sind auch schon ziemlich lange auf dem Markt.

Dafür müssen sowohl AMD als auch Intel liefern können. Mangels 20nm war bei AMD bis Polaris (14nm) nahezu Stillstand und Intel hat sich mit den von Apple gewünschten 2C+GT3e und 4C+GT4e SKUs (Skylake) in Relation zu 2C/4C+GT2 teilweise sehr viel Zeit gelassen. Hinzu kommt das mit TB3 und USB-C größere Änderungen an der gesamten Produktpalette (inkl. Zubehör) anstehen.

Sollte Apple dieses Jahr ein Update der Macs bringen wird es ziemlich sicher nicht Kaby Lake werden. Die GT3e SKUs kommen erst 2017.

Kallenpeter
2016-09-16, 18:14:40
Wäre es ggf. denkbar, dass Apple sich da etwas Richtung ARM überlegt? Wo lägen die Grenzen des Machbaren? Der Mac mini ist ja von der Performance ohnehin quatsch. Das sollte auch ein ARM schaffen, oder? Gleiches gilt eigentlich für die kleinen MacBooks.

Performancetechnisch könnte man inzwischen wohl die meisten Macs mit eignen ARMs ausrüsten. Ein deutlich aufgebohrter A10(x) würde wohl für 80% der verkauften Macs reichen. Ich habe aber keine Ahnung in wie weit man an die Top Performer von Intel rankommen könnte. Nur ein aufgebohrter A10 würde da wohl nicht mehr reichen. Performance wäre also das erste Problem, aber es ist nicht unlösbar.

Das Zweite ist die Kompatibilität von bestehender Software, aber auch das wäre lösbar und ich würde behaupten das wäre das kleinste Problem.

Schwierig würde es bzgl. Windowsunterstützung. Würde Microsoft sich darauf einlassen Windows auch auf ARM Macs zu bringen? Wenn sie es nicht tun, wie schwer wiegt das für Apple?

Was wäre, wenn Apple ein paar ARM Kerne neben einen Intel packt? Quasi als big.LITTLE für Macs? Solange nur im Netz gesurft oder Mails abgerufen werden, reichen ein paar ARMs? Ich bin kein Experte, aber zwei Architekturen parallel in einer Maschine? Niemals, zumindest nicht so wie du es beschreibst.

lumines
2016-09-16, 18:30:11
Was wäre, wenn Apple ein paar ARM Kerne neben einen Intel packt? Quasi als big.LITTLE für Macs? Solange nur im Netz gesurft oder Mails abgerufen werden, reichen ein paar ARMs?

Da würde der RAM ja platzen, wenn man alles für ARM und x86 gleichzeitig im RAM halten müsste. Vom Platz auf dem Flashspeicher braucht man gar nicht anfangen. Apple war sicher froh, als sie die Kompatibilität zu PPC ausmisten konnten. Das werden sie jetzt sicher nicht wiederholen für einen sehr fragwürdigen Laufzeitgewinn.

pixelguy
2016-09-16, 21:01:04
Stimmt, klingt einleuchtend :-)

Die Performance-Möglichkeiten finde ich aber echt interessant. Es würde zu Apple passen, auch dort wieder auf eigene Lösungen zu setzen.

xL|Sonic
2016-09-16, 22:44:28
http://cdn.macrumors.com/article-new/2016/09/a10_die_shot.jpg?retina

http://www.chipworks.com/about-chipworks/overview/blog/apple-iphone-7-teardown

smalM
2016-09-18, 16:37:31
MMn eine Quad-Core-CPU (man beachte den zweiten Cache-Block in der Mitte der CPU). Zumindest die untere der eingezeichneten Dual-Core-CPUs (little) ist sicher was anderes, dieses Pärchen gibt es nämlich schon seit dem A7. Mittig am unteren Rand ist der 'M10'.

Insgesamt kommt es mir so vor, als hätte der Nicht-CPU- und Nicht-GPU-Bereich zugenommen.

Auch wenn es schön ist, einen Dieshot zur Verfügung zu haben, so ist doch leider die Auflösung nur ein ¼ von dem, was für den A9 zur Verfügung stand und der Kontrast ist auch nicht gerade berauschend. Hoffentlich wird noch was besseres nachgeliefert...

PS:
Zum ausbleibenden Mac Pro: Wahrscheinlich hat Apple nicht nur auf AMD Polaris gewartet, sondern eher noch auf Skylake-W und den Nachfolger des PCH Wellsburg. Sie haben dringenden Bedarf an mehr I/O-Kapazität.

Ailuros
2016-09-19, 12:28:02
Mein iPhone 7 liegt schon zuhause bereit. Falls ich es zeitlich schaffe, mache ich heute mal ein paar Benches. Irgendwelche Wünsche, vor allem wegen der GPU? :D


Falls Du ein gleichgrosses iPhone 6S noch hast, wuerde mich alles in Richtung Stromverbrauch (nicht nur der GPU) im Normalgebrauch generell interessieren.

Nightspider
2016-09-19, 12:32:29
Der A10 ist jetzt aber wirklich schneller als Xbox One und PS4 oder?

Ailuros
2016-09-19, 12:54:34
Der A10 ist jetzt aber wirklich schneller als Xbox 360 und PS4 oder?

Wenn man ein Auge fuer die fehlende Bandbreite und ein Auge fuer den Stromverbrauch zudrueckt dann war es wohl schon vor einiger Zeit so weit. Was ich sagen wuerde: wenn man einen A10 in eine set top box bzw. Konsole steckt mit vergleichbarer Bandbreite (selbst die geringste der beiden oben) und einem Stromstecker dann definitiv ja. Gilt aber ebenso fuer andere Faelle wie z.B. Tegra K1 und co.

pixelguy
2016-09-19, 13:13:17
Wäre es denn von der Leistung her denkbar, dass Apple mit dem Apple TV mehr Richtung Gaming geht? Also von der Leistung schon in die Richtung einer PS4...?

Ailuros
2016-09-19, 13:17:49
Wäre es denn von der Leistung her denkbar, dass Apple mit dem Apple TV mehr Richtung Gaming geht? Also von der Leistung schon in die Richtung einer PS4...?

Bis jetzt sind ihre set top boxes generell eine Generation hinter den neuesten SoCs in smartphones. Denkbar schon, aber bis jetzt scheint Apple nichts zu sehen dass eine hoehere Investition wert waere. Wenn dann waere es mir lieber wenn sie so etwas durch einen high end smart TV anstellen.

Nightspider
2016-09-19, 14:13:28
Wenn man ein Auge fuer die fehlende Bandbreite und ein Auge fuer den Stromverbrauch zudrueckt dann war es wohl schon vor einiger Zeit so weit. Was ich sagen wuerde: wenn man einen A10 in eine set top box bzw. Konsole steckt mit vergleichbarer Bandbreite (selbst die geringste der beiden oben) und einem Stromstecker dann definitiv ja. Gilt aber ebenso fuer andere Faelle wie z.B. Tegra K1 und co.

Apropos, nutzen die SoCs eigentlich auch Delta Color Compression?

Dann könnte eventuell ja schon ein A10X mit Dual Channel schneller schneller sein als die Xbox One, vielleicht sogar PS4.

Aber wie ich eben gelesen habe soll der A10 auch schon sehr heiß werden bei Dauerlast. Hier zeigen sich jetzt also auch die Grenzen bei Apple.
Dennoch hätte ich den A10 gerne in einem Android Smartphone. *seufz*

Ailuros
2016-09-19, 14:22:33
Apropos, nutzen die SoCs eigentlich auch Delta Color Compression?

Dann könnte eventuell ja schon ein A10X mit Dual Channel schneller schneller sein als die Xbox One, vielleicht sogar PS4.

Aber wie ich eben gelesen habe soll der A10 auch schon sehr heiß werden bei Dauerlast. Hier zeigen sich jetzt also auch die Grenzen bei Apple.
Dennoch hätte ich den A10 gerne in einem Android Smartphone. *seufz*

Keine Ahnung ueber DCC, aber wenn nicht wird so viel und so brutal viel komprimiert in dem Markt dass es keine Sorgen machen sollte. Im Gegensatz waere es fuer die Entwickler ein Segen wenn auch desktop GPUs langsam ASTC unterstuetzen wuerden fuer Texturen.

Wenn man sich auf FP16 peak FLOP Werte konzentriert reicht eine A9 GPU im iPhone6S auf 346 GFLOPs.

Sonst werden alle mobile Geraete heiss auf Dauerlast welches wohl auch im Weg steht dass irgendwelche ISV interessiert waeren ein wirklich anspruchsvolles Spiel fuer diese zu entwickeln. Einen A10 wird es fuer Android nicht geben, aber irgendwo in der Region wird ein Mediatek Helio X35 irgendwo H2 17' in Geraeten wohl liegen mit den wirklichen high end SoCs von QCOM bzw. Samsung der Zeit noch ein Stueck hoeher.

pixelguy
2016-09-19, 15:30:29
Dann könnte eventuell ja schon ein A10X mit Dual Channel schneller schneller sein als die Xbox One, vielleicht sogar PS4.


Du meinst CPU Performance, oder?

Wie sieht es mit der Gesamtleistung aus? Könnte Apple da etwas vergleichbares hinstellen ohne auf GPUs von AMD/nvidia zurückgreifen zu müssen?

robbitop
2016-09-19, 17:32:57
Die Apple SoCs haben (bis auf A9X) noch einen SRAM Cache (4 MiB), der die Bandbreite etwas entlastet. Dank Tilecache (TBDR) sind die IMG GPUs in den SoCs sowieso relativ bandbreitenschonend.

Ein Stück weit hat NV sich hier an TBDRs und und TB-IMRs aus dem mobile Markt orientiert. Seit Maxwell schreibt, sortiert und cullt man Geometrie in einen Tilecache. Da kommt IMO der Löwenanteil des Bandbreitenvorteils ggü seinem Vorgänger Kepler her.

Ich denke, dass das Tiling Maxwell deutlich mehr Bandbreitenvorteil brachte als DCC:

- NV hat mit der DCC eigentlich 2 Generationen lang keinen großen Wind darum gemacht, bis AMD damit warb. Bei großen Vorteilen wäre das unlogisch.
- So viel brachte es zur Einführung bei Tonga und Carrizo nicht. Gerade letzterer ist ja sehr bandbreitenlimitiert.

Aber ob Series8XT (ich nehme an, die ist in A10/A10X verbaut) auch DCC beherrscht, weiß ich nicht. Ich würde darauf tippen, dass es zumindest bis Series 7XT nicht der Fall war. Zumindest vermarktete IMG es nicht.

iuno
2016-09-19, 17:52:07
Aber ob Series8XT (ich nehme an, die ist in A10/A10X verbaut)
Ist es ueblich, dass Apple das Zeug verbaut bevor es offiziell ist?
Waere nicht erstmal 7XT+ dran oder habe ich was verpasst?
Ansonsten glaube ich auch, dass viele hier DCC ueberbewerten.


Wie sieht es mit der Gesamtleistung aus? Könnte Apple da etwas vergleichbares hinstellen ohne auf GPUs von AMD/nvidia zurückgreifen zu müssen?
Fuer stationaeren Einsatz?
Die groessten PowerVR GPU leistet um ~1 TFLOP, die der xbone 1,3 und die der ps4 ~1,8 (Neo ~4). Und dann fehlt es wie schon angesprochen an Bandbreite. Man koennte es theoretisch schon hinbekommen, ich sehe aber auch keinen Grund, wieso Apple da derart investieren sollte. Eine Konkurrenz zu den aktuellen Konsolen werden sie auch kaum versuchen wollen durchzudruecken, ansonsten blieben wohl auch mit einem neuen Apple TV wohl die mobilen Geraete das primaere Target.
Also warum sollte man das machen oder worauf willst du hinaus?

robbitop
2016-09-19, 18:02:54
@iuno
Es ist unüblich - aber im A10 ist auch nur ein 6C verbaut (A9 auch). Für etwas mehr Takt ist das Ding zu schnell und vor allem nicht homogen in allen Tests um einen konstanten Offset schneller (was man bei rein mehr Takt erwarten könnte).

Man darf nicht vergessen, dass Apple der größte Kunde von IMG ist. Die können vermutlich haben, was sie wollen.

pixelguy
2016-09-19, 20:13:18
Also warum sollte man das machen oder worauf willst du hinaus?

Reines Interesse. Wollte auf nichts raus.
Glaube auch kaum das Apple an Konsolen Interesse hat. Die Margen sind für Apple viel zu gering.

Daredevil
2016-09-19, 20:42:17
Dafür, dass sie anpreisen, dass das iPhone die Weltweit bekannteste Handheld Spiele Konsole ist, scheint das ganze ja nicht unbedingt so egal zu sein.

pixelguy
2016-09-19, 21:07:34
Naja, sie sagen auch auf der Keynote, dass sie 500.000 Spiele im App Store haben. Das zeigt den Qualitätsanspruch...

Kallenpeter
2016-09-19, 21:11:27
Man muss ja nicht genauso schnell sein wie XBox oder Playstation um im Konsolengeschäft aktiv zu sein.

pixelguy
2016-09-19, 21:36:47
Das ist aber der Anspruch von Apple. Entweder vorne dabei oder nicht.
Und das Apple TV ist ja kein Mitbewerber von PS/Xbox. Genausowenig die iOS Geräte

robbitop
2016-09-20, 08:07:57
Hier geht es um ARM SoCs. Wechselt bitte mit dem OT den Thread.

Ailuros
2016-09-20, 11:01:47
Ist es ueblich, dass Apple das Zeug verbaut bevor es offiziell ist?
Waere nicht erstmal 7XT+ dran oder habe ich was verpasst?
Ansonsten glaube ich auch, dass viele hier DCC ueberbewerten.

Rogues komprimieren so https://imgtec.com/powervr/graphics/architecture/ (siehe Mitte der Seite)

Fuer stationaeren Einsatz?
Die groessten PowerVR GPU leistet um ~1 TFLOP, die der xbone 1,3 und die der ps4 ~1,8 (Neo ~4). Und dann fehlt es wie schon angesprochen an Bandbreite. Man koennte es theoretisch schon hinbekommen, ich sehe aber auch keinen Grund, wieso Apple da derart investieren sollte. Eine Konkurrenz zu den aktuellen Konsolen werden sie auch kaum versuchen wollen durchzudruecken, ansonsten blieben wohl auch mit einem neuen Apple TV wohl die mobilen Geraete das primaere Target.
Also warum sollte man das machen oder worauf willst du hinaus?

Theoretisch reicht die Latenz des Rogue Designs bis zu 8 TFLOPs FP32 wenn einem Stromverbrauch egal waere; ist zwar nur eine theoretische Ziffer, aber wenn ein jeglicher Partner Lust haette steht nirgends dass er bei 16 clusters halt machen muss oder soll.

Die letzte Apple set top box an die ich mich erinnern kann hatte einen bescheidenen A8 als SoC. Apple hat wohl sicher das Thema im Hintergrund analysiert, aber bis jetzt gibt es keine wirklichen Indizien dass sie etwas aggressiveres fuer eine set top box oder smartTV planen.

Sunrise
2016-09-20, 11:07:03
Falls Du ein gleichgrosses iPhone 6S noch hast, wuerde mich alles in Richtung Stromverbrauch (nicht nur der GPU) im Normalgebrauch generell interessieren.
Ich teste heute über Nacht mal den Battery Test von Geekbench 3 auf beiden (ja, ich habe zum Glück noch mein 6s) und morgen kann ich dann gerne auch mal GFXBench-Resultate beisteuern, sofern ich die Zeit finde. Noch weitere Wünsche?

Für den "Normalverbrauch" habe ich aktuell noch keine Werte, denn ich hatte mich bis gestern noch mit einem Fehler in meinem Backup herumschlagen müssen, weil mein 7er genauso wie mein 6s immer auf 100% CPU war, was ich durch wiederholtes Deaktivieren so ziemlich aller Funktionen und diversen Backups/Restores auf 6s und 7er (hat mich gestern 5 Std. gekostet) jetzt gelöst bekommen habe.

Was aber schonmal klar ist, der A10 Fusion ist nicht nur merkbar schneller als der A9, sondern auch deutlich sparsamer, das merkt man vor allem dann, wenn man den Low-Power-Modus aktiviert, der bei mir gestern beim Google Maps-Navigieren über ca. 30km gerademal 4% Akku gekostet hat, was beim 6s vorher so um die 10-12% Akku waren, wohlgemerkt bei aktiviertem WLAN (wegen der Ortungsgenauigkeit) und LTE auf der identischen Strecke! Es kann natürlich auch zum großen Teil neuen am Intel- bzw. Qualcomm-Modem liegen, denn es ist auffällig, dass Apple vor allem bei 3G und LTE-Laufzeiten 2 Std. mehr ggü. dem 6s in den Specs angegeben hat. Denn wenn die Performance Cores auf Volllast sind, denke ich, wird man etwa die gleiche Laufzeit erhalten (aber das muss ich erst testen).

smalM
2016-09-20, 21:56:44
Die letzte Apple set top box an die ich mich erinnern kann hatte einen bescheidenen A8 als SoC. Apple hat wohl sicher das Thema im Hintergrund analysiert, aber bis jetzt gibt es keine wirklichen Indizien dass sie etwas aggressiveres fuer eine set top box oder smartTV planen.

Diese Box kam erst vor einem Jahr heraus, die Abstände zu den jeweiligen Vorgänger betrugen 3½ Jahre, 1½ Jahre und 4 Jahre. Apple hat beim letzten Mal einen heftigen Sprung vom kleinsten A5 (mit 1x Cortex-A9, SGX543 & 0,5GB RAM) zum A8 (mit 2GB RAM) gemacht und damit dem AppleTV deutlich mehr Aufmerksamkeit geschenkt als in allen Jahren vorher.
Auch mag es sein, daß Apple durch die Öffnung des AppleTV zum App-Store einen Bedarf zu häufigerem Update der Box sieht als bisher, da damit dessen Rolle stark ausgeweitet wurde.

Mit einem A8 versehen haben wir ansonsten noch das iPod touch 6 und das iPad mini 4. Wirtschaftlich sinnvoll wäre ein Update noch vor Ende November, aber mit dem iPad Pro 9.7 hat sich Apple ja auch reichlich Zeit gelassen...

PS:
Ich frage mich, ob Apple vom APL1022 A9 noch eine Revision auflegt.
Die erste Version war ja größer als Samsungs APL0898 in 14FF LPE, da gäbe es bestimmt noch einiges Potential und genügend Stückzahlen werden ja auch benötigt. Lohnte sich das für Apple oder gilt bereits alle Konzentration den Generationen nach A10?

Ailuros
2016-09-21, 13:06:33
Ich teste heute über Nacht mal den Battery Test von Geekbench 3 auf beiden (ja, ich habe zum Glück noch mein 6s) und morgen kann ich dann gerne auch mal GFXBench-Resultate beisteuern, sofern ich die Zeit finde. Noch weitere Wünsche?

Für den "Normalverbrauch" habe ich aktuell noch keine Werte, denn ich hatte mich bis gestern noch mit einem Fehler in meinem Backup herumschlagen müssen, weil mein 7er genauso wie mein 6s immer auf 100% CPU war, was ich durch wiederholtes Deaktivieren so ziemlich aller Funktionen und diversen Backups/Restores auf 6s und 7er (hat mich gestern 5 Std. gekostet) jetzt gelöst bekommen habe.

Was aber schonmal klar ist, der A10 Fusion ist nicht nur merkbar schneller als der A9, sondern auch deutlich sparsamer, das merkt man vor allem dann, wenn man den Low-Power-Modus aktiviert, der bei mir gestern beim Google Maps-Navigieren über ca. 30km gerademal 4% Akku gekostet hat, was beim 6s vorher so um die 10-12% Akku waren, wohlgemerkt bei aktiviertem WLAN (wegen der Ortungsgenauigkeit) und LTE auf der identischen Strecke! Es kann natürlich auch zum großen Teil neuen am Intel- bzw. Qualcomm-Modem liegen, denn es ist auffällig, dass Apple vor allem bei 3G und LTE-Laufzeiten 2 Std. mehr ggü. dem 6s in den Specs angegeben hat. Denn wenn die Performance Cores auf Volllast sind, denke ich, wird man etwa die gleiche Laufzeit erhalten (aber das muss ich erst testen).

Apple behauptete dass die A10 GPU im Vergleich zur A9 GPU um 50% schneller ist und gleichzeitig 2/3 des Stroms der letzten verbraucht. Das erste kann man schon in oeffentlichen benchmarks schon nachweisen und ich hab auch keine besonderen Zweifel fuer's zweite. Ich koennte mir locker vorstellen dass sie relativ wenig angestellt haben, in etwa die Frequenzen um =/>40% erhoeht, etwas stellenweise an Effizienz gedreht und durch Prozess-relevante Optimierungen teilweise zum geringeren Verbrauch gekommen sind.

Irgendwelche neue extensions fuer die A10 GPU konnte ich bis jetzt nirgends sehen.

Diese Box kam erst vor einem Jahr heraus, die Abstände zu den jeweiligen Vorgänger betrugen 3½ Jahre, 1½ Jahre und 4 Jahre. Apple hat beim letzten Mal einen heftigen Sprung vom kleinsten A5 (mit 1x Cortex-A9, SGX543 & 0,5GB RAM) zum A8 (mit 2GB RAM) gemacht und damit dem AppleTV deutlich mehr Aufmerksamkeit geschenkt als in allen Jahren vorher.
Auch mag es sein, daß Apple durch die Öffnung des AppleTV zum App-Store einen Bedarf zu häufigerem Update der Box sieht als bisher, da damit dessen Rolle stark ausgeweitet wurde.

Mit einem A8 versehen haben wir ansonsten noch das iPod touch 6 und das iPad mini 4. Wirtschaftlich sinnvoll wäre ein Update noch vor Ende November, aber mit dem iPad Pro 9.7 hat sich Apple ja auch reichlich Zeit gelassen...


Mein Punkt war dass der Abstand einer A8 zu heutigen A10 GPUs schon ziemlich gross ist. Nimmt man den anspruchsvollsten Gfxbench3.1 benchmark liegt die A10GPU um einen Faktor 5.0 vor der A8GPU https://gfxbench.com/result.jsp?benchmark=gfx40&test=631&order=score&base=gpu&os-check-Android_gl=0&os-check-custom_gl=0&os-check-Linux_gl=0&os-check-OS_X_gl=0&os-check-OS_X_metal=0&os-check-Windows_dx=0&os-check-Windows_gl=0&ff-check-desktop=0

Ein update des AppleTV mit einem A9 waere schon lange faellig.

smalM
2016-09-21, 20:14:40
Ein update des AppleTV mit einem A9 waere schon lange faellig.

Ich glaube, daß aus Apples Sicht mit dem Erscheinen des A10 und dem Verschwinden des iPhone 6 sich überhaupt erst die Möglichkeit eines Upgrades ergibt.

Rooter
2016-09-24, 17:49:44
Der A10 ist jetzt aber wirklich schneller als Xbox One und PS4 oder?Wie kann man auf die Idee kommen, dass ein 2x2cm großer SoC in einem handgroßen Mobilgerät schneller sein könnte, als die aktuelle Spielekonsolengeneration, die ein fettes Kühlsystem haben weil sie 120W aus der Stockdose ziehen? :uconf3:
Sorry falls wir gerade aneinander vorbei reden...!?

MfG
Rooter

Ailuros
2016-10-12, 12:40:35
http://www.anandtech.com/show/10685/the-iphone-7-and-iphone-7-plus-review/4

The use of a six core GPU is interesting because there's not much choice for Apple given that A9 also used the six core PowerVR GT7600. It really boils down to three possibilities. The first is that Apple has actually continued using the exact same GT7600 microarchitecture as on the A9, albeit with an improved layout on the die. The second is that Apple has moved to PowerVR GT7600 Plus, which brings some improvements to integer compute performance, and memory bandwidth optimizations. And the third is the wildcard option - that Apple has put to use its significant GPU engineering resources on a more customized design; something that's still using the PowerVR architecture, but more custom than ever before. This is a longer discussion to have in our full deep dive, but Ryan's of the opinion that this is somewhere between options two and three, that Apple has done some significant work to produce a highly optimized version of the PowerVR GT7600 Plus.

AnarchX
2016-10-26, 19:07:16
Laut RealWorldTech soll Apple seit dem A8 (iP6) eine Custom-GPU verbauen: http://www.realworldtech.com/apple-custom-gpu/ ... insofern liefert da IMG wohl möglich nur noch Low-Level-Ideen?

Ailuros
2016-10-27, 09:55:28
Laut RealWorldTech soll Apple seit dem A8 (iP6) eine Custom-GPU verbauen: http://www.realworldtech.com/apple-custom-gpu/ ... insofern liefert da IMG wohl möglich nur noch Low-Level-Ideen?

Wobei die Mehrzahl des Inhalts eigentlich nur Resultate von einer Reihe basislosen Bauchgefuehlen sind. Es gibt eine relevante Debatte bei B3D und ja natuerlich NEIN zum letzten.

Sunrise
2016-10-27, 11:46:40
Laut RealWorldTech soll Apple seit dem A8 (iP6) eine Custom-GPU verbauen: http://www.realworldtech.com/apple-custom-gpu/ ... insofern liefert da IMG wohl möglich nur noch Low-Level-Ideen?
Die Custom-GPU ab A8X machte auch nach außen recht deutlich, dass man nicht einfach alles nur kopiert, sondern hier eigene Wege geht.

Und vor allem beim A10 Fusion merkt man eben, wie verdammt effizient und leistungsstark die GPU ist, ggü. dem A9, der ohne Ende am Akku gesaugt hat, wenn man auch nur "simple" grafische Dinge wie z.B. Google Maps mit 2D-Maps nutzte. Sollte Apple die GPU vom A10 beim A10X wieder verdoppeln, dann kann man sich jetzt schon die enorme Leistung bei sehr hoher Effizienz vorstellen. Die Leistung also mal außen vor gelassen, es ist vor allem die enorme Energieeffizienz (nach wie vor auf 16nm TSMC FF+), die hier beeindruckt.

Einige der angesprochenen technischen Daten sind also durchaus nicht völlig aus der Luft gegriffen und so vorstellbar, sie sind ja auch nicht wirklich neu (Fokus auf half-precision, da für viele Anwendungsbereiche vollkommen ausreichend). Apple baut eben genau das ein, was für sie sinnvoll ist und lässt das weg, was sie sowieso nicht benötigen. Sie benötigen weder Kompatibilität zu DirectX, noch brauchen sie auf andere Szenarien Rücksicht zu nehmen. Sie haben eben eigene Designziele und mussten sich möglichst unabhängig machen.

Sich diverse Dinge bei IMG weiterhin zu lizensieren, solange diese noch ordentliche Designs mit für Apple interessanten Teilen bauen, ergibt weiterhin Sinn, aber dass das nur noch Low-Level-Ideen sind, will ich mal bezweifeln.

Selbst bei IMGTecs Encoder-/Decoder-Einheiten könnte Apple theoretisch Platz sparen, denn Apple benötigt eigentlich nur noch AVC/H.264-Unterstützung aktuell, während die PowerVR Encoder/Decoder weit mehr Formate und Varianten können, die aber für Apple vollkommen unnötig sind.

Ailuros
2016-10-27, 13:46:40
Die decoder/encoder IP Bloecke sind relativ zu klein dass jemand ernsthaft Zeit verschwenden koennte da etwas rauszuschlachten.

Sonst zu dem FP16/32 Schwachsinn: https://forum.beyond3d.com/posts/1950121/ (auch den quote durchlesen). Ja conversion kostet, aber es kostet nur relativ wenig.

pixelguy
2017-01-03, 19:58:10
Wie schauts eigentlich eurer Meinung nach mit ARM Chips für Desktop Macs aus?
Ist so etwas mit Blick auf die Chip-Fortschritte beim iPhone realistisch?

Vielleicht liegt es ja daran, dass die Desktop Macs so lange auf sich warten lassen :)

=Floi=
2017-01-03, 22:25:47
da liegt ein zu großer unterschied. Die arm chips sind für mobile wirklich super, aber im desktop bereich braucht man noch immer ein zwei stufen höher. gerade, weil auch dort der stromverbrauch nicht ins gewicht fällt.
bei den preisen, welche apple abruft sehe ich kein potential.

die entwicklung wird immer teurer. darunter fallen die chips und ebenso die software gleichermaßen. Da macht es noch weniger sinn nicht einfach noch die nächsten 20 jahre intel prozessoren zu verbauen.

robbitop
2017-01-03, 22:42:07
Naja. Apples CPU Abteilung gehört mit zu den besten der Industrie. Die IPC der jeweils aktuellen mArch aus dem mobile Bereich braucht sich nicht zuverstecken. Man müsste nur ein entsprechendees Desktoppendant mit 4-8 dieser Kerne auflegen und entsprechendes IO vorsehen. Aufgrund völlig anderer TDP werden sicher auch halbwegs konkurrenzfähige Taktraten entstehen. Apple hat die besten Leute der Industrie und eine bis zum Brechen gefüllte Kasse. Möglich wäre es schon. Die Frage ist, ob die Gewinnspanne ausreichend hoch bei der jeweiligen Stückzahl wäre, den extra Aufwand zu rechtfertigen. Außerdem kann man dann x86 und somit Bootcamp Lebewohl sagen.

pixelguy
2017-01-03, 23:26:47
Ich denke, dass man gerade beim iMac als auch bei einem ggf. neuem Mac mini, nicht unbedingt die Leistungsspitze erreichen muss. Und bootcamp interessiert doch in Zeiten von parallels und VMware kaum noch jemanden.

deekey777
2017-01-03, 23:34:08
Naja. Apples CPU Abteilung gehört mit zu den besten der Industrie. Die IPC der jeweils aktuellen mArch aus dem mobile Bereich braucht sich nicht zuverstecken. Man müsste nur ein entsprechendees Desktoppendant mit 4-8 dieser Kerne auflegen und entsprechendes IO vorsehen. Aufgrund völlig anderer TDP werden sicher auch halbwegs konkurrenzfähige Taktraten entstehen. Apple hat die besten Leute der Industrie und eine bis zum Brechen gefüllte Kasse. Möglich wäre es schon. Die Frage ist, ob die Gewinnspanne ausreichend hoch bei der jeweiligen Stückzahl wäre, den extra Aufwand zu rechtfertigen. Außerdem kann man dann x86 und somit Bootcamp Lebewohl sagen.

Wieso Lebewohl? Es wird halt Windows 10 ARM installiert - zusammen mit Win32-Emu. X-D

robbitop
2017-01-04, 06:45:29
Stimmt. Aber ob damit alles immer und gut läuft? Zumal x86-64 Programme noch nicht abgedeckt sind. Klingt nett aber unvollständig. Will man das den Kunden so zumuten?

pixelguy
2017-01-04, 08:23:52
Stimmt. Aber ob damit alles immer und gut läuft? Zumal x86-64 Programme noch nicht abgedeckt sind. Klingt nett aber unvollständig. Will man das den Kunden so zumuten? also ich glaube nich, dass Apple solche Entscheidungen von bootcamp abhängig macht.

deekey777
2017-01-04, 09:40:31
Stimmt. Aber ob damit alles immer und gut läuft? Zumal x86-64 Programme noch nicht abgedeckt sind. Klingt nett aber unvollständig. Will man das den Kunden so zumuten?
Mit diesem X-D-Smiley wollte ich ausdrücken, dass das nicht ganz ernstgemeint ist.

Die fehlende x64-Unterstützung wird auf Lizenzprobleme zurückgeführt. Man kann davon ausgehen, dass Apple längst ein macOS hat, das mit ARM-Architektur läuft, auch wäre es nicht der erste Reset. Nur könnte Apple vor den gleichen Problemen stehen wie Microsoft mit Windows 10 ARM (nebenbei: Erinnert sich einer noch an die Initiative von Microsoft Android-Apps auf Windows zu bringen?).

steve.it
2017-01-04, 09:50:05
Nur könnte Apple vor den gleichen Problemen stehen wie Microsoft mit Windows 10 ARM (nebenbei: Erinnert sich einer noch an die Initiative von Microsoft Android-Apps auf Windows zu bringen?).
Ein Switch von x86_64 auf ARM wäre ein "Kinderspiel" und ungleich einfacher gegenüber dem Switch von PPC auf x86. Die ganzen Altlasten, die es damals noch gab, sind mittlerweile schon lange aus macOS entsorgt, so dass man in Xcode letztendlich einfach nur ein Häkchen bei arm64 setzen müssten und fertig wären alle echten Mac-Anwendungen für ARM. OK, SIMD Befehlssatzerweiterungen sind CPU spezifisch. Bei solchen Anwendungen wäre das schon mehr Aufwand. Aber es ist nicht so, dass die Mac Anwendungen von uralten Dingen abhängig wären und ein neues Framework oder sonst was benutzen müssten. Das ist alles schon da und wird schon ewig genutzt. Hier hat halt Apple schon lange alte Zöpfe abgeschnitten und schleppt den Kram überhaupt nicht mehr mit, so dass es hier kein "Win32"-Problem oder so gibt.

BlackBirdSR
2017-01-04, 09:58:42
Hätte Apple einen kurz- oder mittelfristigen Vorteil davon, würde man es auch umgehend umsetzen.

So steht immer noch etwas etwas dazwischen.
Die Möglichkeiten sind vielfältig.

- Unsicherheit, wie sich der eigene ARM-Core behaupten kann
- Unzulänglichkeit der aktuellen ARM-Prozessoren für Mac Pro Bereiche, dann teuere Entwicklung eines 2. Cores-
- Option offen halten, zukünftige deutlich bessere Lösungen von Intel oder AMD einzusetzen.
- Möglichkeiten, dedizierte GPUs einzusetzen
-...

deekey777
2017-01-04, 10:01:38
Ein Switch von x86_64 auf ARM wäre ein "Kinderspiel" und ungleich einfacher gegenüber dem Switch von PPC auf x86. Die ganzen Altlasten, die es damals noch gab, sind mittlerweile schon lange aus macOS entsorgt, so dass man in Xcode letztendlich einfach nur ein Häkchen bei arm64 setzen müssten und fertig wären alle echten Mac-Anwendungen für ARM. OK, SIMD Befehlssatzerweiterungen sind CPU spezifisch. Bei solchen Anwendungen wäre das schon mehr Aufwand. Aber es ist nicht so, dass die Mac Anwendungen von uralten Dingen abhängig wären und ein neues Framework oder sonst was benutzen müssten. Das ist alles schon da und wird schon ewig genutzt. Hier hat halt Apple schon lange alte Zöpfe abgeschnitten und schleppt den Kram überhaupt nicht mehr mit, so dass es hier kein "Win32"-Problem oder so gibt.

Und was ist mit bestehenden Anwendungen? Sie müssen doch bei einem Wechsel auch irgendwie laufen, bis eine native ARM-Anwendung kommt oder nicht kommt.


Das Win32-Problem ist, dass mit Windows 10 ARM nur x32-Anwendungen emuliert werden können, nicht aber x64er. Die Vermutung ist, dass es rechtliche Probleme gibt. Wenn diese Vermutung aber nicht zutrifft, zumindest im Falle von macOS, dann steht einer vollwertigen emulation von x86-64-bit-Anwendungen nichts im Weg.

BTB
2017-01-04, 10:04:13
Was würde es Apple bringen, ausser viel Aufwand und Kosten? Sehe da keinen Grund warum Apple das tun sollte, auch wenn es ginge.

deekey777
2017-01-04, 10:14:59
Was würde es Apple bringen, ausser viel Aufwand und Kosten? Sehe da keinen Grund warum Apple das tun sollte, auch wenn es ginge.

Einzigartigkeit? Mehr Kosten und damit weniger zu versteuernden Gewinn.

Als Apple damals von PowerPC zu x86 wechselte, verloren viele ihren Glauben, denn damit wurden Macs zu normalen PCs, auf denen offiziell Windows läuft.

Nüchtern betrachtet, bringt das Apple wenig. Die mobilen Macs laufen nicht viel kürzer als Tablets und bringen deutlich mehr Leistung. Wo Apple aber den Trend verpennt, sind 2in1-Geräte. Das ist eher eine Baustelle als ARMe Macs.

steve.it
2017-01-04, 10:18:24
Und was ist mit bestehenden Anwendungen? Sie müssen doch bei einem Wechsel auch irgendwie laufen, bis eine native ARM-Anwendung kommt oder nicht kommt.
Bei dem letzten Switch (und den anderen davor ebenso) ging es doch auch, z.B. mit Rosetta.
Zudem wenn Apple so etwas machen würde, würde das evtl. auf einer WWDC angekündigt werden, so dass die Entwickler ein paar Monate Vorlaufzeit vor Markteinführung hätten und zum Marktstart von ARM-Macs ein Großteil der Software auch für ARM vorliegen würde. Da es die ganzen Altlasten nicht mehr gibt, ist das machbar.

Was würde es Apple bringen, ausser viel Aufwand und Kosten? Sehe da keinen Grund warum Apple das tun sollte, auch wenn es ginge.

Apple hat gerne die Kontrolle über möglichst viel. Dann kann Apple die Roadmap weitestgehend selber bestimmen.
Zudem mal die Preise von Intel CPUs gesehen. Da ist die Frage, was günstiger kommt.

Hätte Apple einen kurz- oder mittelfristigen Vorteil davon, würde man es auch umgehend umsetzen.

So steht immer noch etwas etwas dazwischen.
Die Möglichkeiten sind vielfältig.

- Unsicherheit, wie sich der eigene ARM-Core behaupten kann
- Unzulänglichkeit der aktuellen ARM-Prozessoren für Mac Pro Bereiche, dann teuere Entwicklung eines 2. Cores-
- Option offen halten, zukünftige deutlich bessere Lösungen von Intel oder AMD einzusetzen.
- Möglichkeiten, dedizierte GPUs einzusetzen
-...

Was aus dem Mac Pro wird, ist derzeit ohnehin unklar.
http://daringfireball.net/2017/01/von_rospach_apple_airport_mac_pro

Allgemein stoßt Apple momentan vielen Macusern vor den Kopf und man ist unsicher, wie es mit dem Mac weitergeht. iOS und macOS Entwicklerteams sind angeblich zusammen gelegt. Es macht teilweise auch Sinn das Rad nicht zweimal neu zu entwickeln, sondern möglichst viel gemeinsam zu nutzen. Dabei passieren dann aber auch solche Dinge: https://www.heise.de/mac-and-i/meldung/macOS-Sierra-Entwickler-warnen-vor-kaputter-PDF-Integration-3585932.html

Da Apple ziemlich arrogant ist und eine schlechte oder gar keine Kommunikationspolitik fährt, werden viele Macuser, inkl. mir verunsichert - auch wenn dahinter ggf. überhaupt keine negativen Absichten bzgl. Macs seitens Apple stehen.


Es gibt übrigens ARM mittlerweile in Macs => Touch Bar mit Touch ID und Secure Enclave.

Wieviel Sinn die neue Touchbar macht, wird sich zeigen. Unabhängig davon ob es eine Spielerei ist oder Potential hat, hat wohl Apple (wie ich gelesen habe), dort sehr viel Ressourcen reingepumpt und richtig gute Leute rangelassen. Softwareseitig ist da auch sehr viel angepasst. Das klingt aus der Perspektive dann wieder nicht so, als wenn der Apple der Mac egal ist.


Wo Apple aber den Trend verpennt, sind 2in1-Geräte. Das ist eher eine Baustelle als ARMe Macs.
Das wird sich zeigen, ob Apple hier wirklich etwas verpennt. So hieß es damals auch bei Netbooks... und wo sind die Netbooks heute?

BTB
2017-01-04, 10:28:17
Apple wird wohl irgendwann auf den Zug der 2in1 Geräte aufspringen müssen, wenn sie mit OSX nicht komplett ins Hintertreffen gelangen wollen. Denke schon, dass die intern da rum wurschteln um das anzugehen. Ob die CPU nun einen i5 oder einen Arm Kern hat, ist dem User eigentlich völlig wumpe. Der Entwicklungsaufwand wäre für Apple aber enorm (teuer) wenn sie auf ARM gehen würden. Der Wechsel von PPC auf x86 hatte ja andere Gründe und auch einen komplett anderen Backround bei Apple, da waren die noch viel kleiner und OSX wichtiger. Wenn OSX das Zugpferd wäre, könnte ich mir das vorstellen, aber nicht aktuell. Das schippert ja fast nur noch als Beiboot mit.

Touch kann man den Usern dann als "Abfallprodukt" einer tollen Stifttechnik verkaufen. Focus auf Stift, aber natürlich geht auch Touch.

Und wenn ich ehrlich bin, hoffe ich darauf. Die bekommen das in Summe bestimmt besser hin als das Windows10 gekrampfe. Dann würde ich mir wohl auch mein erstes OSX Notebook zulegen.

deekey777
2017-01-04, 10:46:39
@steve.it:

Netbooks sind nach nach wenigen Generationen fett geworden. Durch sinkende Preise "echter" Notebooks verloren sie ihre Daseinsberechtigung. Nur sind sie längst zurück und zwar in Form der günstigen 2in1-Geräte, angefangen mit Acer Iconia-Serie, mit Baytrails kam auch mehr Performance.

steve.it
2017-01-04, 10:57:35
@steve.it:

Netbooks
Die ursprünglichen Netbooks hatten im Gegensatz zu Subnotebooks/Ultrabooks miese und enge Tastaturen (viel Spass mit großen Händen) und schlechte Bildschirmauflösungen.
Zudem richtig langsame Hardware. Eben Hauptsache billig.
Passt alles nicht zu Apple.

Von 2in1 bin ich bis jetzt auch nicht überzeugt. Mir scheint der Apple weg besser und sinnvoller zu sein. Desktop-OS bleibt Desktop-OS. Dafür aber Touchpad-Gesten einbauen und jetzt die Touchbar.
Aber vielleicht sehe ich das auch falsch.

Denke allerdings, dass das ein Thema ist, was nicht in diesen Thread gehört.

Ailuros
2017-01-04, 12:08:48
Afaik wird es keine besonderen Aenderungen geben fuer die absehbare Zukunft was die Landschaft zwischen iOS/MacOS bzw. jeweilige hw betrifft.

pixelguy
2017-01-04, 13:57:53
Meinst du damit die CPUs oder die Geräte an sich?

Ailuros
2017-01-05, 11:09:21
Meinst du damit die CPUs oder die Geräte an sich?

Ich hoerte vor sehr langer Zeit dass iOS und die unterliegende hw "erwachsener" werden wird. High end ultra thin tablets sind groesser geworden und die Leistung ist in relativem Sinn schon im unteren desktop Leistungs-Bereich. Fuer die absehbare Zukunft scheint es keine Plaene zu geben dass sich daran etwas fundamentales aendert, weder auf hw noch auf sw Ebene.

Ob direkt oder indirekt, ob es Apple eingestehen will oder nicht, >12" iOS tablets sind als Antwort fuer Surface Pro- artige tablets gedacht. Fuer alles groesseres gibt es die existierenden Loesungen und das entsprechende desktop OS. Wenn es irgend eine Aenderung geben wuerde fuer die letzten Geraete dann lediglich alternative x86 desktop SoCs.

Kallenpeter
2017-01-05, 11:21:42
Ob direkt oder indirekt, ob es Apple eingestehen will oder nicht, >12" iOS tablets sind als Antwort fuer Surface Pro- artige tablets gedacht.
Nur sehe ich das iPads als ungeeignet dafür. Klar gibt es viele Anwendungen für die sie auch im Pro-Bereich sehr gut sind, aber es fehlt eben doch Maus, vernünftiges Multitasking und Dateimanagement.

Was allerdings die Leistung angeht, so gleichen sich die iPad Pros immer mehr den Einsteiger Laptops an. Wenn Apple wollte, könnte man mit aufgebohrten ARMs schon die meisten Macs bedienen. Lediglich beim Mac Pro und den besseren MacBook pros und iMacs siehts anders aus. Das Problem ist halt, dass sich ein Aufsplitten der Mac Plattform nicht gut bewerkstelligen lässt.

Ich würde eine zunehmende Verknüpfung und iOS und MacOS schon als Sinnvoll erachten.

pixelguy
2017-01-05, 11:27:38
Gab es nicht mal Gerüchte, dass AMD auch ARM SoC bauen will? Wäre da eine Kombination ggf. denkbar?

deekey777
2017-01-05, 11:30:46
Gab es nicht mal Gerüchte, dass AMD auch ARM SoC bauen will? Wäre da eine Kombination ggf. denkbar?
Gibt es nicht schon ARM-Opterons? Vielleicht irre ich mich, aber uralte ARM-Kerne wurden bei der Puma-Generation verbaut.

http://www.anandtech.com/show/7974/amd-beema-mullins-architecture-a10-micro-6700t-performance-preview/2 Ganz unten.

pixelguy
2017-01-05, 14:19:09
Ah interessant!

Die Frage ist nur, ob eine Kombination aus X86/ARM überhaupt in irgendeiner Weise sinnvoll ist :D

Unicous
2017-01-05, 14:25:38
Der ARM-Kern in den APUs ist lediglich für TrustZone zuständig, also mit eigenem Security Kernel. Und ja es gibt Seattle einen Chip mit 8 A57 Kernen der nicht wirklich über die Dev Kit Phase hinaus gegangen ist, so wie es scheint.

Aber bislang keinen "Hybriden". Und auf kurze Sicht wird es das auch nicht geben und momentan scheint es eher nicht so, dass AMD die ARM-Projekte wiederaufnehmen wird. Aber mal schauen, sie müssen ja auch die roadmap für 2017 langsam mal bekannt geben.

dildo4u
2017-02-01, 22:40:28
Apple Developing New Mac Chip in Test of Intel Independence

Apple engineers are planning to offload the Mac’s low-power mode, a feature marketed as "Power Nap," to the next-generation ARM-based chip. This function allows Mac laptops to retrieve e-mails, install software updates, and synchronize calendar appointments with the display shut and not in use. The feature currently uses little battery life while run on the Intel chip, but the move to ARM would conserve even more power, according to one of the people.

https://www.bloomberg.com/news/articles/2017-02-01/apple-developing-new-mac-chip-in-test-of-intel-independence

pixelguy
2017-02-01, 22:50:15
sehr interessant... aber wie läuft das dann OS-seitig? macOS müsste ja dann auf beiden Chips parallel laufen, oder wie kann man sich das vorstellen?

deekey777
2017-02-01, 23:23:25
Danach wäre Apple A10 der Anfang.

steve.it
2017-02-02, 09:10:41
sehr interessant... aber wie läuft das dann OS-seitig? macOS müsste ja dann auf beiden Chips parallel laufen, oder wie kann man sich das vorstellen?

Grubers Spekulation:
"My guess is that Mac apps (and OS services) that want to take advantage of it would do so via small extensions, compiled both for ARM (for these future MacBooks) and x86 (for all other Macs)."

Rooter
2017-02-05, 14:56:08
Der Chip könnte doch einfach(?) auf das Dateisystem zugreifen um z.B. Software zu installieren oder neue Mails abzulegen.

MfG
Rooter

robbitop
2017-02-05, 15:32:58
Bei der PS4 ist es auch so afaik. Der ARM Chip bedient das OS und vor allem die Standbyfunktion und Updatedownloads und Installation im Hintergrund und der x86 SoC bedient die Spiele und Apps.

deekey777
2017-03-21, 10:27:30
Der Onlinestore von Apple ist weltweit seit einigen Stunden nicht verfügbar. In letzter Woche gab es Spekulation, dass zumindest das kleinere iPad Pro den A10 bekommt (oder gar einen A10X?). iPhone SE soll auch 128 GB Version bekommen.

In den Pros steckt ja noch der A9X, es wird vermutet, dass im April wirklich neue iPads kommen, eine Version mit 10,5'' wird vermutet. Besinnt sich Apple und bringt wieder erst iPads mit neuen SoCs wie bei den ersten iPads?

Ail, weißt du was?

urpils
2017-03-21, 10:45:40
Der Onlinestore von Apple ist weltweit seit einigen Stunden nicht verfügbar. In letzter Woche gab es Spekulation, dass zumindest das kleinere iPad Pro den A10 bekommt (oder gar einen A10X?). iPhone SE soll auch 128 GB Version bekommen.

In den Pros steckt ja noch der A9X, es wird vermutet, dass im April wirklich neue iPads kommen, eine Version mit 10,5'' wird vermutet. Besinnt sich Apple und bringt wieder erst iPads mit neuen SoCs wie bei den ersten iPads?

Ail, weißt du was?

in ein paar Stunden werden wir es definitiv wissen...

deekey777
2017-03-21, 10:51:57
in ein paar Stunden werden wir es definitiv wissen...
Für das Spekulationsforum wäre das aber zu langweilig. Und es sind mehr als paar Stunden, mindestens drei.

Sie haben tatsächlich nur dem "alten" iPad Air 2 den A9 verpasst.

Ailuros
2017-03-21, 13:51:26
Der Onlinestore von Apple ist weltweit seit einigen Stunden nicht verfügbar. In letzter Woche gab es Spekulation, dass zumindest das kleinere iPad Pro den A10 bekommt (oder gar einen A10X?). iPhone SE soll auch 128 GB Version bekommen.

In den Pros steckt ja noch der A9X, es wird vermutet, dass im April wirklich neue iPads kommen, eine Version mit 10,5'' wird vermutet. Besinnt sich Apple und bringt wieder erst iPads mit neuen SoCs wie bei den ersten iPads?

Ail, weißt du was?

Ehrlich keine Ahnung. Ich hatte lediglich gehoert dass A10X auf 10FF sein soll (macht auch Sinn) und wenn es stimmt duerfte sich jegliches Geraet damit womoeglich noch etwas Zeit lassen dank beschissener yields fuer 10FF TSMC.

deekey777
2017-03-21, 14:08:56
Ehrlich keine Ahnung. Ich hatte lediglich gehoert dass A10X auf 10FF sein soll (macht auch Sinn) und wenn es stimmt duerfte sich jegliches Geraet damit womoeglich noch etwas Zeit lassen dank beschissener yields fuer 10FF TSMC.

Hat sich eh erledigt. Apple bleibt sich treu. Das iPad Air 2 wurde auf den A9 aktuallisiert, wird sich noch zeigen müssen, ob das nicht ein Rückschritt war, was die Leistung angeht. Das iPad mini 4 ist nur mit 128 GB zu haben.

fizzo
2017-03-21, 14:43:47
Hat sich eh erledigt. Apple bleibt sich treu. Das iPad Air 2 wurde auf den A9 aktuallisiert, wird sich noch zeigen müssen, ob das nicht ein Rückschritt war, was die Leistung angeht....

Das "neue" iPad ist noch dazu signifikant dicker (7,5 zu 6,1mm Air) und schwerer 469g zu 439g. IMHO nicht wirklich sexy...

deekey777
2017-03-21, 14:46:17
Das "neue" iPad ist noch dazu signifikant dicker (7,5 zu 6,1mm Air) und schwerer 469g zu 439g. IMHO nicht wirklich sexy...

Das ist eher kein Problem, aber sie haben beim Display gespart:

https://www.heise.de/mac-and-i/meldung/iPad-Apple-stellt-guenstigeres-Einstiegsmodell-mit-9-7-Zoll-vor-3660190.html

An der Display-Auflösung von 2048 x 1536 Pixel hat sich nichts geändert. Der Hersteller verzichtet nun aber offenbar auf die zusätzliche Beschichtung, die Spiegelungen mindern soll. Der Bildschirm sei jetzt heller, betont der Hersteller. Das Display des billigeren iPad wird nicht mehr als "vollständig laminiert" aufgeführt, beim iPad Air 2 waren LCD, Glasabdeckung und Touch-Sensor erstmals fest miteinander verbunden – so wie auch beim iPad Pro.

Ailuros
2017-03-21, 16:28:05
Hat sich eh erledigt. Apple bleibt sich treu. Das iPad Air 2 wurde auf den A9 aktuallisiert, wird sich noch zeigen müssen, ob das nicht ein Rückschritt war, was die Leistung angeht. Das iPad mini 4 ist nur mit 128 GB zu haben.

Sie haben das 9.7" tablet vereinfacht und bieten es fuer den "Einsteiger-Preis" (stets fuer Apple's Verhaeltnisse) von 399 EUR an. Um ehrlich zu sein gibt es so der so im chinesischen Markt generell selbst tablets mit aehnlichen Preisen die auch nur annaehernd so viel Leistung beiten (CPU und GPU). Die Mehrzahl dort ist sowieso leider in der Zwischenzeit dual boot Kram oder anders "jack of all trades, master of none".

Wer jetzt wirklich fast 2x Mal so viel Leistung (insgesamt) haben will in einem groesserem ultra thin tablet, muss dann wohl schon noch etwas auf das tablet warten dass A10X haben wird. Natuerlich auch mit einem um einiges hoeheren Preis.

deekey777
2017-03-21, 17:43:01
Sollte aber wirklich ein neues 10,5''-Modell kommen, wird das iPad Pro 9,7'' eingestellt. Wie man Apple kennt, wird dieses am Launchtag ausverkauft, so dass man ein gutes Schnäppchen machen könnte. Ist aber rein spekulativ.

Für 120 EUR weniger gibt es zB das Cube Mix Plus, mit Tastatur und einer ganzen MicroSD mit 32 GB für 330. Klar, es kommen ggf. Steuern dazu, aber das ist meiner Meinung nach das bessere Gerät. Obwohl: Wegen des Seitenverhältnisses von 16:9 disqualifiziert es sich von allein.

http://www.gearbest.com/tablet-pcs/pp_590393.html

steve.it
2017-03-23, 10:25:53
Aus iOS und iOS Apps wird 32 Bit komplett verschwinden.

Ist es denkbar, dass ein zukünftiger Apple A SoC als reinrassiger 64 Bit bzw. ARMv8 SoC erscheint?

deekey777
2017-03-23, 21:45:58
Ehrlich keine Ahnung. Ich hatte lediglich gehoert dass A10X auf 10FF sein soll (macht auch Sinn) und wenn es stimmt duerfte sich jegliches Geraet damit womoeglich noch etwas Zeit lassen dank beschissener yields fuer 10FF TSMC.
Es heißt jetzt, dass das vermutete Aprilevent nicht stattfinden wird, https://9to5mac.com/2017/03/23/opinion-ipad-event-10-5-inch-ipad/

@steve.it:
Warum nicht? Aber ARMv8 ist bis auf ARMv5 abwärtskompatibel, denkbar wäre, dass künftige SoCs nur den AArch64-Modus beherrschen und AArch32 entfernt wird.

Semi-OT:
Es gibt neues Patent von Apple, http://appleinsider.com/articles/17/03/23/apple-investigating-accessory-that-turns-iphone-ipad-into-full-fledged-touchscreen-laptop

Ich weiß zwar nicht, was der große Unterschied zu den früheren Asus-Smartphones ist, das in eine Dockingstation gesteckt wurden.Das Konzept mitdem iPhone ist interessant.

smalM
2017-03-24, 01:36:07
Das "neue" iPad ist noch dazu signifikant dicker (7,5 zu 6,1mm Air) und schwerer 469g zu 439g. IMHO nicht wirklich sexy...

Das neue iPad entspricht dem iPad Air 1 in den Dimensionen, Gewicht und Display. Das Air galt übrigens, als es vorgestellt wurde, als überaus dünn und leicht :wink:

deekey777
2017-03-24, 08:59:03
Der Zweck des "günstigen" iPad 9,7'' ist neue Kunden zu gewinnen, alte Kunden zu behalten, die nicht bereit sind für ein iPad dieser Größe mehr als 400,00 Euro zu zahlen. Natürlich darf man nicht vergessen, dass das iPad Air 2 zum Start des kleineren Pros 439 EUR (16 GB) gekostet hat. Ob die Abstriche beim Display, aber mehr Speicher und ein A9 den Preisnachlass relativieren, wird sich zeigen.

fizzo
2017-03-24, 09:22:49
Das neue iPad entspricht dem iPad Air 1 in den Dimensionen, Gewicht und Display. Das Air galt übrigens, als es vorgestellt wurde, als überaus dünn und leicht :wink:

Ich besitze/benutze das Air 1 nun seit über 3 Jahren. Die Zeiten ändern sich. Seit das Pro auf dem Markt ist, haben sich meine Ansprüche an ein neues Tablett geändert. Das "neue" iPad ist für mich daher keine Option, leider.

smalM
2017-03-24, 11:33:16
Du gehörst mit Deinem Air 1 auch nicht zur Zielgruppe.
Das sind mMn. die Benutzer von ARMv7-iPads sowie der US-Bildungsmarkt.
Für Dich ist ein richtig schön teures Pro vorgesehen :biggrin:

steve.it
2017-04-03, 11:47:34
Shares in Imagination Technologies plunged by nearly 70 percent on Monday, after Apple informed the British firm that it plans to stop using its graphics technology in Apple consumer devices in up to two years' time.

https://www.macrumors.com/2017/04/03/imagination-shares-dive-apple-ends-deal/

Troyan
2017-04-03, 11:55:58
Offizielle Mitteilung von ImgTec: https://www.imgtec.com/news/press-release/discussions-with-apple-regarding-license-agreement/

Mancko
2017-04-03, 12:32:22
So wie es aussieht behält sich IMG vor Apple im Zweifel zu verklagen sollten IMG Patente verletzt werden.

IMG scheint jetzt recht günstig zu sein. Vielleicht sollte Nvidia hier mal überlegen zu kaufen. Die haben so viel Geld aufm Konto das muss auch mal ausgegeben werden. Man bekäme Patente und vor allem Mitarbeiter um das eigene Wachstum nachhaltig mit Personal auch besetzten zu können.

fondness
2017-04-03, 12:49:05
Die spannende Frage ist, welche Grafiktechnologie Apple in Zukunft verwendet.

AffenJack
2017-04-03, 12:58:42
Die spannende Frage ist, welche Grafiktechnologie Apple in Zukunft verwendet.

Bleiben eigentlich nur 2 Möglichkeiten in meinen Augen, entweder Apple entwickelt jetzt alles komplett selber oder man geht zu AMD rüber. Kabylake G wird es auch wegen Apple geben und Apple könnte sein Grafikökosystem mit AMD Technik überall vereinheitlichen wollen. Allerdings scheint der Text bei IMG eher auf eine Eigenentwicklung hinzudeuten:
Imagination believes that it would be extremely challenging to design a brand new GPU architecture from basics without infringing its intellectual property rights, accordingly Imagination does not accept Apple’s assertions.

robbitop
2017-04-03, 12:59:00
Gerade die Patente sollten wertvoll sein. Vieles, was den TBDR ausmacht, ist sicherlich durch Patente geschützt.

Dass Apple sich abnabelt ist IMO absehbar gewesen. Erst baute man eigene CPU custom cores und seit einigen Generationen (seit A8 http://www.realworldtech.com/apple-custom-gpu/) baut man immerhin schon ziemlich massiv veränderte GPUs. Soweit ich weiß, war nur noch die ISA, jedoch nicht mehr die Implementierung von IMG. Der letzte Schritt zur eigenen GPU ist dann nicht mehr weit.


Die spannende Frage ist, welche Grafiktechnologie Apple in Zukunft verwendet.
Ihre eigene. Oder meinst du damit ob IMR / TBR / TBDR?

Ich tippe darauf, dass es bei ihnen eine Evolution ist. Die werden also IMO ähnliche GPUs bauen, wie sonst auch.


Also IMO hat man es spätestens seit dem RWT Artikel kommen sehen:




After years of recruiting graphics architects, Apple has designed its own custom GPU, which is already shipping in the A8, A9, and A10 processors that power the iPhone 6, 6S, and 7. The GPU in Apple’s processors still retains some fixed-function hardware from PowerVR, but based on publicly available evidence it is clear that the shader core in Apple’s GPU is architecturally very different from Imagination Technologies PowerVR line. This further implies that Apple wrote its own Metal and OpenGL ES compiler for its GPUs and almost certainly wrote the entire driver as well.
Given Apple’s history, it is not surprising that they chose to design a custom GPU. The tangible performance benefits are readily apparent. Other benefits such as tighter ecosystem control, better time-to-market, and reducing bugs are difficult to observe, but equally important for Apple.
Going forward, Apple has three options. The status quo is licensing some or all of the fixed-function hardware from Imagination Technologies to complement internally designed components such as the shader core. In this scenario, Apple might eventually upgrade to a newer version of PowerVR, but presumably while negotiating a better deal for licensing and royalties. A second option is simply buying Imagination Technologies, although that would come with considerable extra baggage (e.g., the MIPS processor line) and Apple already passed on this opportunity earlier in 2016. On the other hand, Apple could continue to customize more and more of their GPU – eventually designing out Imagination Technologies. Ultimately Apple will have to decide whether they can do a better job on their own, but so far the company seems to be excellent at developing world-class expertise in new areas.
http://www.realworldtech.com/apple-custom-gpu/2/

AffenJack
2017-04-03, 13:08:21
Ich tippe darauf, dass es bei ihnen eine Evolution ist. Die werden also IMO ähnliche GPUs bauen, wie sonst auch.

Gerade das geht ja nicht, da man sonst viele IMG Patente bräuchte. Das Ding muss fundamental anders sein, als alles was sie gerade haben.

robbitop
2017-04-03, 13:34:21
Das muss ja erstmal jemand beweisen. Oder man findet ein Lizenzabkommen oder zahlt eine einmalige Summe, oder man wartet, dass IMG sie verklagt und man streitet sich Jahre lang vor Gericht und landet am Ende auch bei einem Vergleich. Apple hat Zeit, Geld und Anwälte.

Alternativ kann man auch einen modernen IMR mit Tile Cache und tiled rasterizing bauen. Ich habe mittlerweile das Gefühl, dass ein TBDR ggü einem modernen IMR kaum noch Vorteile bietet. IMGs Design sind bei gleicher Rechenleistung/Bandbreite nicht schneller als die besten der IMR Konkurrenz.
Eben, weil IMRs eine ganze Menge der Vorteile von TBDRs schon mitbringen und auch Spieleengines schon im Gegensatz zu vor 10-15 Jahren schon ziemlich viel Overdraw verhindern. Und sicherlich weil TBDRs auch wieder Nachteile haben (R2T sind sie wohl relativ schwach).

Durch AMD, NV, Intel, S3, Qualcomm und IMG entsteht sowieso eine Landschaft an "Tretminen", so dass man sich mit einigen dieser Firmen einigen muss.
Sicherlich kann man TBDRs auch anders implementieren - siehe Firma Gigapixel (aufgekauft durch 3dfx und nun heute Teil von NV).

Mit irgendjemanden wird man sich jedenfalls einigen müssen. IMO.

pixelguy
2017-04-03, 14:22:05
So einfach kaufen kann Apple IMG aber nicht, oder?
Da waren doch zu viele unterschiedliche Parteien investiert?

EDIT: ach ne, das war ARM... Also, was spräche eigentlich gegen einen Kauf vom IMG?

deekey777
2017-04-03, 14:29:21
Da muss ich gleich an Apples Quartier in Florida denken, wo schon lange vermutet wird, dass sie dort eigene GPUs entwickeln.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=9735549&postcount=753

https://www.heise.de/mac-and-i/meldung/Orlando-GPU-Team-von-AMD-nun-angeblich-bei-Apple-1873394.html

Was gegen den Kauf spricht:
Gegenfrage: Warum hat Intel IMG nicht gekauft?

robbitop
2017-04-03, 14:34:15
2016 gab es das letzte Mal wohl Übernahmegespräche zwischen beiden. Warum man das nicht gemacht hat, weiß wohl niemand.

Unicous
2017-04-03, 14:37:43
Ich finde, AMD sollte IMG Tech aufkaufen, würde sich gut in ihrem Portfolio machen. :up:

Ich könnte mir durchaus vorstellen, dass Apple an den IMG Patenten zu knabbern hat und die GPU neu zu erfinden, nachdem Jensen sie ja persönlich zur Welt gebracht hat:wink:, sehe ich auch eher als ein schwieriges Unterfangen. Apple wird sich mit hoher Wahrscheinlichkeit mit Lizenzen absichern. Möglicherweise dann eben direkt von AMD.

Durch diese Nachricht werden sie jedenfalls zum gefunden Fressen für eine feindliche Übernahme.

deekey777
2017-04-03, 14:45:37
AMD hätte dann zu viel Macht auf dem Markt. Sie sollten lieber Bitboys zurückholen. X-D


Im Ernst:
Das Beispiel Intel zeigt, wie schwer es ist, eine GPU zu bauen, die sich überall behaupten kann - ULP bis Desktop-PCs. Apple hat sich das Knowhow eingekauft, aber bisher ist nichts gekommen, was über ULPs hinaus geht.

Screemer
2017-04-03, 14:48:16
Ich finde, AMD sollte IMG Tech aufkaufen, würde sich gut in ihrem Portfolio machen. :up:

Ich könnte mir durchaus vorstellen, dass Apple an den IMG Patenten zu knabbern hat und die GPU neu zu erfinden, nachdem Jensen sie ja persönlich zur Welt gebracht hat:wink:, sehe ich auch eher als ein schwieriges Unterfangen. Apple wird sich mit hoher Wahrscheinlichkeit mit Lizenzen absichern. Möglicherweise dann eben direkt von AMD.

Durch diese Nachricht werden sie jedenfalls zum gefunden Fressen für eine feindliche Übernahme.
das wärs. adreno abstoßen und img kaufen :ugly:

deekey777
2017-04-03, 14:54:55
das wärs. adreno abstoßen und img kaufen :ugly:

Die Verkäufe von Imageon (Adreno) und Xilleon (an Broadcom) waren aus der finanziellen Not erfolgt, genau wie andere Bereiche. Nachhinein könnte es sogar die richtige Entscheidung gewesen sein: Es gab frisches Geld und man musste sich nicht mit Konkurrenz beschäftigen.

Unicous
2017-04-03, 15:00:44
Adreno hätten sie ja nicht abgestoßen, wenn sie zu der Zeit keine Geldprobleme gehabt hätten... weil sie Ati viel zu teuer übernommen haben.
Wer hätte auch 2006 ahnen können, dass 2007 die Ära des mobile computing beginnt.:freak:

Oder 2005 als sie ihre ihre Flash-Produktion endgültig ausgegliedert haben.
Die IT-Welt könnte heute durchaus anders aussehen, wenn AMD nicht so viele finanzielle Probleme gehabt hätte.:eek:

Aber das können sie ja mit dem Kauf von IMG wieder wettmachen.

Apple scheint ja wenig Interesse zu haben. Die Ingenieure klauen sie sich dann eh nach und nach durch bessere Verträge während IMG mehr und mehr ausblutet. Dass der neue CEO die Kurve bekommt wage ich leider zu bezweifeln.:redface:

=Floi=
2017-04-03, 15:06:22
ich frage mich, welche voteile eine eigenentwicklung haben soll?
dagegen gibt es zig gründe.
-patente
-neue architektur --> auch für die apps
-eigener treiber
-ein großer batzen geld geht in die total unnötige eigenkonstruktion
-keine best case architektur, sondern um patente rumgebaut
-nicht so austauschbar wie bei cpus
-die grundperformance ist aktuell groß genug.
-es gab auch von IMG keinen grund zur beanstandung

deekey777
2017-04-03, 15:10:42
Was soll AMD mit IMG? Welche Vorteile hätten sie? Den ULP-Markt und darunter werden sie kaum aufmischen können, der Markt ist für Neulinge so gut wie dicht. Für alles darüber haben sie eigene Produkte.

Geräte mit PowerVR-Grafik ohne Apfel-Logo muss man heute fast mit Lupe suchen, dabei stecken deren Videoprozessoren wiederum in vielen Unterhaltungsgeräten. Das war vor Jahren anders, nur ist nichts davon übrig geblieben. OMAP? Weg. Intel auch bzw. setzt auf eigene Grafik. Nach Rogue wird anscheinend nichts mehr lizensiert (außer Mediathek).

AffenJack
2017-04-03, 15:18:10
Bei AMD sehe ich auch keinen wirklichen Sinn IMG zu kaufen, dazu hat man da selbst zuviel Knowhow und nicht wirklich Ambitionen groß in Mobile zu gehen bisher. Ich sehe Samsung da als Nr.1 Kandidat, es gab immer wieder Meldungen, dass Samsung GPUs entwickelt, aber gut ist davon anscheinend nix geworden, weil sie nie das Tageslicht gesehen haben. Aber mit IMG könnte man sich da von den ARMs losreißen.

Unicous
2017-04-03, 15:18:56
Sollte das nicht offensichtlich sein? Die Patente, die IP.

Dass IMG Tec de facto so gut wie keinen Kunden mehr im mobile Geschäft ohne Apple hat sollte ja nicht darüber hinwegtäuschen, dass die R&D top notch ist und AMD da sicherlich einige Ideen für ihre Designs nutzen möchte. Die Frage ist doch eher ob sie es bezahlen könnten und das sehe ich eher nicht.:freak:

deekey777
2017-04-03, 15:21:54
Bei AMD sehe ich auch keinen wirklichen Sinn IMG zu kaufen, dazu hat man da selbst zuviel Knowhow und nicht wirklich Ambitionen groß in Mobile zu gehen bisher. Ich sehe Samsung da als Nr.1 Kandidat, es gab immer wieder Meldungen, dass Samsung GPUs entwickelt, aber gut ist davon anscheinend nix geworden, weil sie nie das Tageslicht gesehen haben. Aber mit IMG könnte man sich da von den ARMs losreißen.

Ist wieder so eine Sache:
Wenn Samsung als einer der größten Abnehmer von Mali-IP diese für lau hinterher geworfen bekommt, dann bedarf es sehr guter Gründe von Mali auf IMG umzusteigen, ggf. IMG gar zu kaufen und eigene/Custom-GPUs zu entwickeln.

AffenJack
2017-04-03, 15:31:37
Ist wieder so eine Sache:
Wenn Samsung als einer der größten Abnehmer von Mali-IP diese für lau hinterher geworfen bekommt, dann bedarf es sehr guter Gründe von Mali auf IMG umzusteigen, ggf. IMG gar zu kaufen und eigene/Custom-GPUs zu entwickeln.

Es gibt schon die ganze Zeit Gerüchte, dass Samsung eigene Sachen entwickelt und von Mali weg will, so wie es da ja sogar Gerüchte gab man überlegt AMD oder Nvidia zu lizensieren. Wieviel da dran ist, weiß man nicht, aber ich kann mir gut vorstellen, dass man mit Mali nicht so zufrieden ist und was anderes will. So toll ist Mali nicht gerade.

Mancko
2017-04-03, 16:03:56
Sollte das nicht offensichtlich sein? Die Patente, die IP.

Dass IMG Tec de facto so gut wie keinen Kunden mehr im mobile Geschäft ohne Apple hat sollte ja nicht darüber hinwegtäuschen, dass die R&D top notch ist und AMD da sicherlich einige Ideen für ihre Designs nutzen möchte. Die Frage ist doch eher ob sie es bezahlen könnten und das sehe ich eher nicht.:freak:

Nvidia hätte das Geld dazu. Die haben Ende 2016 erst eine Anleihe oder sowas in der Art ausgegeben und damit den Cash Bestand nochmal saftig erhöht. Aktuell haben die rund 6,8 Mrd. $ auf der Kante. Die Frage ist ob Jensen Bock hat IMG zu kaufen und ob er einen Benefit sieht. Da Nvidia selber in der ARM Welt unterwegs ist würde ich spontan sagen, dass es schon Sinn machen könnte. Was die Patente wert sind kann ich jetzt nicht beurteilen. Wenn es nur um Mitarbeiter geht, dann kann man natürlich das auch billiger machen indem man die einfach abwirbt als eine Firma zu kaufen. Macht Nvidia durchaus gern mal.

Blediator16
2017-04-03, 17:29:51
Ankündigen, dass man bei IMG nichts mehr einkauft -> Kurs sinkt -> billiger Aufkaufen.

Ailuros
2017-04-03, 19:35:33
Es gibt schon die ganze Zeit Gerüchte, dass Samsung eigene Sachen entwickelt und von Mali weg will, so wie es da ja sogar Gerüchte gab man überlegt AMD oder Nvidia zu lizensieren. Wieviel da dran ist, weiß man nicht, aber ich kann mir gut vorstellen, dass man mit Mali nicht so zufrieden ist und was anderes will. So toll ist Mali nicht gerade.

Ja nur war jeglicher Versuch bei Samsung Milliarden-schwere FLOPs. Apple wuerde ich es schon zutrauen, ueberhaupt mit dem engineering Talent die sie in den letzten Jahren gesammelt haben auch u.a. von IMG selber. Erwartet hab ich das Ganze schon, nur eben um ein paar Jahre spaeter.

Sollte das nicht offensichtlich sein? Die Patente, die IP.

Dass IMG Tec de facto so gut wie keinen Kunden mehr im mobile Geschäft ohne Apple hat sollte ja nicht darüber hinwegtäuschen, dass die R&D top notch ist und AMD da sicherlich einige Ideen für ihre Designs nutzen möchte. Die Frage ist doch eher ob sie es bezahlen könnten und das sehe ich eher nicht.:freak:

Pfffff bei dem brutalen Aktien-Sturz sollte IMG froh sein wenn sie etwas mehr als eine halbe Milliarde $ fuer die Bude bekommen. Alleine die Caustic Patente fuer ray tracing waeren fuer jeglichen Kaeufer Gold wert, ueberhaupt fuer jemand der sehr aktiv IP fuer Konsolen besorgt.

Gerade die Patente sollten wertvoll sein. Vieles, was den TBDR ausmacht, ist sicherlich durch Patente geschützt.

Dass Apple sich abnabelt ist IMO absehbar gewesen. Erst baute man eigene CPU custom cores und seit einigen Generationen (seit A8 http://www.realworldtech.com/apple-custom-gpu/) baut man immerhin schon ziemlich massiv veränderte GPUs. Soweit ich weiß, war nur noch die ISA, jedoch nicht mehr die Implementierung von IMG. Der letzte Schritt zur eigenen GPU ist dann nicht mehr weit.



Ihre eigene. Oder meinst du damit ob IMR / TBR / TBDR?

Ich tippe darauf, dass es bei ihnen eine Evolution ist. Die werden also IMO ähnliche GPUs bauen, wie sonst auch.


Also IMO hat man es spätestens seit dem RWT Artikel kommen sehen:




http://www.realworldtech.com/apple-custom-gpu/2/

Es ist eine Apple Eigenentwicklung.

Sonst sollte Kanter ehrlich die Finger davon lassen wenn er schon keine Ahnung von der Materie hat. Den Mist kannst Du beruhigt vergessen, es waren lediglich die marketing Heinis bei IMG zu faul ihre oeffentliche Dokumentation nach dem ersten Rogue IP cores aufs laufende zu bringen. Wurde genuegend bei B3D besprochen dass er nur einen Haufen Scheiss zusammen gereimt hat. Bis zu A9 ist es voll von IMG unterstuetztes GPU IP; A10 hat ein 7XT Design-"derivative" mit hoeheren Frequenzen wofuer IMG keine Unterstuetzung beigetragen hat afaik.

Sonst ja es sind einige von IMG zu Apple umgewandert, aber KEINER dieser war aktiv was engineering bzw. development betrifft. Unter diesen auch John Metcalfe der noch CTO bei IMG war als er noch bei IMG arbeitete. Seit wann entwickelt ein CTO IP in solchen Faellen?

-------------------------------------

https://www.imgtec.com/news/press-release/discussions-with-apple-regarding-license-agreement/

Liest man den Text etwas vorsichtiger hat IMG Apple aufgefordert dass ihre designs keine Patente bzw. Rechte verletzen:

Apple has not presented any evidence to substantiate its assertion that it will no longer require Imagination’s technology, without violating Imagination’s patents, intellectual property and confidential information. This evidence has been requested by Imagination but Apple has declined to provide it.

Apple weigerte sich (der Gegenfall wuerde mich auch wundern....)

Apple’s notification has led Imagination to discuss with Apple potential alternative commercial arrangements for the current license and royalty agreement.

Imagination has reserved all its rights in respect of Apple’s unauthorised use of Imagination’s confidential information and Imagination’s intellectual property rights.

Nach einem Patent-Krieg klingt es sicherlich noch nicht; auf jeden Fall scheinen die beiden darueber zu verhandeln. Was zum Teufel hier verhandelt wird ist mir schleierhaft wenn man nicht weiss wie genau Apple's eigene GPU IP genau aussieht.

smalM
2017-04-03, 23:12:06
Wer immer sich in der Vergangenheit Gedanken um einen Kauf von IMG gemacht hat, seit heute sprechen 460 Millionen Gründe weniger dagegen; bei der Meldung habe ich als erstes an MediaTek gedacht.
Hätte jedenfalls Apple wirklich Interesse an IMG gehabt, wäre die Firma schon längst nicht mehr an der Börse gelistet. Und das Vorgehen von Apple zeigt, daß sie sich sicher sind, in spätestens zwei Jahren selbst was besseres designen zu können als das, was IMG dann zur Verfügung stellen könnte, also den Nachfolger von Series8XT.
Findet Apple etwa IMGs Entwicklungpipeline zu schwach?

Ailuros
2017-04-04, 01:42:17
Wer immer sich in der Vergangenheit Gedanken um einen Kauf von IMG gemacht hat, seit heute sprechen 460 Millionen Gründe weniger dagegen; bei der Meldung habe ich als erstes an MediaTek gedacht.
Hätte jedenfalls Apple wirklich Interesse an IMG gehabt, wäre die Firma schon längst nicht mehr an der Börse gelistet. Und das Vorgehen von Apple zeigt, daß sie sich sicher sind, in spätestens zwei Jahren selbst was besseres designen zu können als das, was IMG dann zur Verfügung stellen könnte, also den Nachfolger von Series8XT.
Findet Apple etwa IMGs Entwicklungpipeline zu schwach?

Irgendwann wird Apple's Vorstellung fuer ihre eigenen GPUs schon klar werden, aber ich werde nach wie vor das Bauchgefuehl nicht los dass Apple langfristig so viel wie moeglich wenn nicht fast alles im Haus entwickeln will. Apple meckert im Hintergrund auch unendlich ueber Intel's iGPUs, ergo muss etwas langfristig ambitionsreicheres dahinter stecken, denn die ~ $70 Mio die sie an IMG pro Jahr fuer royalties bezahlen sind eine laecherliche Summe fuer Apple ueberhaupt im Vergleich was Apple ihr eigenes GPU team pro Jahr kostet.

Anandtech http://www.anandtech.com/show/11243/apple-developing-custom-gpu-dropping-imagination

...und wenn es jetzt noch dazu kommt dass sich die beiden einigen und Apple bezahlt trotz eigener GPU IP immer noch eine kleinere Summe an Gebueren an IMG dann ist der eigentliche Gewinner am Ende IMG, denn selbst kleinere Summen sind immer nett wenn man keinen Fnger dafuer ruehren muss..... Ich kann nur leider schwer glauben dass Apple ueberhaupt so etwas diskuttieren will oder wird, lass mich aber gerne angenehm ueberraschen.

mboeller
2017-04-04, 06:59:46
Ankündigen, dass man bei IMG nichts mehr einkauft -> Kurs sinkt -> billiger Aufkaufen.

und wenn das dann ein Patenttroll ist wird es teuer für Apple.

Ailuros
2017-04-04, 07:34:21
und wenn das dann ein Patenttroll ist wird es teuer für Apple.

Dann waere Apple schoen bloed wenn sie mehr anbieten und IMG doch noch kaufen.

urpils
2017-04-04, 08:18:58
und wenn das dann ein Patenttroll ist wird es teuer für Apple.

ein Patenttroll ist ja IMG per Definition nicht. Die entwickeln und erforschen ja wirklich in dem Bereich seit 20 Jahren... aber egal wie es kommt - ich finde diese Entwicklung sehr spannend :)

Ailuros
2017-04-04, 09:48:33
ein Patenttroll ist ja IMG per Definition nicht. Die entwickeln und erforschen ja wirklich in dem Bereich seit 20 Jahren... aber egal wie es kommt - ich finde diese Entwicklung sehr spannend :)

Ich hab mboeller anders verstanden: wenn ein Patenttroll IMG kaufen wuerde, dann koennte es teuer fuer Apple werden.

So wie es aussieht momentan duftet es verdaechtig danach dass Apple IMG absichtlich in die Ecke draengt um ihnen um einiges geringere royalties zu bezahlen im schlimmsten Fall, einfach weil sie es koennen. Bis jetzt bezahlt Apple im Durschnitt $0.25/core und ja so laecherlich wenig....

pixelguy
2017-04-04, 10:21:35
Warum sollten sie es bei so geringen Royalties riskieren, dass die Bude jemand billig kauft und dann den Zugang für Apple ganz dicht oder deutlich teurer macht?

Ailuros
2017-04-04, 12:23:14
Warum sollten sie es bei so geringen Royalties riskieren, dass die Bude jemand billig kauft und dann den Zugang für Apple ganz dicht oder deutlich teurer macht?

So wie sich die PR von IMG liest scheint sich Apple ziemlich selbstsicher zu sein dass sie keine sehenswerte Probleme haben werden selbst wenn die Affaere vor Gericht gezogen wird. Weiss der Geier was Apple durch die letzten zwei Jahrzehnte an kleinen graphics Schieden gesammelt hat.

Waere der vorige CEO mit IMG nicht so fahrlaessig umgegangen haette er schon seit Jahren PowerVR mit Alternativen fuer Apple gesichtert. Ganz im Gegenteil wurde dank dem Apple deal und Umsatz die Sparte brutal vernachlaessigt und ARM reibte sich regelrecht die Haende wie sich fast jeder GPU IP deal in ihre Richtung spielte. Ich koennte schwoeren dass sie schon damals ueber die Eigenthore IMG's ins Faeustchen lachten.....

pixelguy
2017-04-04, 13:24:30
Wäre es denn denkbar, dass Apple an etwas in Richtung GPU-Computing/GPGPU bastelt?
Die könnten sowas doch eigentlich recht gut durchziehen, oder? Immerhin sind Software und Hardware in einer Hand.

Oder denke ich da falsch bzw. bringt sowas überhaupt Vorteile?

smalM
2017-04-04, 14:47:40
Ja, aber auch da gibt es nichts, was IMG nicht hätte auch liefern können.

Ailuros' "ich werde nach wie vor das Bauchgefuehl nicht los dass Apple langfristig so viel wie moeglich wenn nicht fast alles im Haus entwickeln will" dürfte tatsächlich der wichtigste Grund für Apples Handeln darstellen.

Ich hatte nur an andere Prioritäten gedacht, daß sie zuerst die Mobilfunktechnik durch eigene ersetzen und auf den SoC ziehen würden. Da geht es schließlich um Milliarden $ im Jahr und nicht nur um ein paar Milliönchen.

Vielleicht lehnt man sich zukünftig an AMD an, statt an IMG, und hätte dann mit den Macs eine mehr oder weniger einheitliche Metal-Plattform.

robbitop
2017-04-04, 15:08:53
Ich kann mir gut vorstellen, dass Apple mittlerweile, wie im CPU Bereich, die besten Leute der Industrie bereits im Haus hat. Mit höherem RnD Budget. Was das bei CPU Cores gebracht hat, sieht man spätestens seit Cyclone. Im GPU Bereich erwarte ich keinen genauso hohen Sprung - aber eine ähnliche Tendenz.

smalM
2017-04-04, 16:55:42
Ein interessanter Punkt bei Anandtech:

"the timetable Imagination offers is quite interesting. According to Imaginations press release, they have told the company that they will no longer be using Imagination’s IP for new products in 15 to 24 months."

Ich hatte das auf neue SoCs bezogen, Ryan Smith hingegen:

"As Imagination is an IP company, this is a critical distinction: this doesn’t mean that Apple is going to launch their new GPU in 15 to 24 months, it’s that they’re going to be done rolling out new products using Imagination’s IP altogether within the next 2 years."

Also spätestens 2020 kein "neues" iPad mehr mit 'nem ollen A11 von 2017...

Ailuros
2017-04-04, 19:28:59
Ich kann mir gut vorstellen, dass Apple mittlerweile, wie im CPU Bereich, die besten Leute der Industrie bereits im Haus hat. Mit höherem RnD Budget. Was das bei CPU Cores gebracht hat, sieht man spätestens seit Cyclone. Im GPU Bereich erwarte ich keinen genauso hohen Sprung - aber eine ähnliche Tendenz.

Verletzt Apple tatsaechlich keine Patente, dann wird es auch fast unmoeglich sein annaehernd an die Effizienz von IMG's IP zu kommen. Frueher oder spaeter wird sich schon herausstellen was genau los ist und ich kann auch leider momentan nicht allzu viel sagen. Man kann aber schon zwischen die Zeilen meines Wirrwarrs lesen ;)

mboeller
2017-04-04, 20:14:24
Ein interessanter Punkt bei Anandtech:

"the timetable Imagination offers is quite interesting. According to Imaginations press release, they have told the company that they will no longer be using Imagination’s IP for new products in 15 to 24 months."

Ich hatte das auf neue SoCs bezogen, Ryan Smith hingegen:

"As Imagination is an IP company, this is a critical distinction: this doesn’t mean that Apple is going to launch their new GPU in 15 to 24 months, it’s that they’re going to be done rolling out new products using Imagination’s IP altogether within the next 2 years."

Also spätestens 2020 kein "neues" iPad mehr mit 'nem ollen A11 von 2017...

danke für die Info

Q2/2017 + 15 Monate = Q3/2018 + geschätzt 2 Jahre für einen neuen SoC = IMHO frühestens Ende 2020, eher aber 2021 ...

AffenJack
2017-04-04, 20:51:04
danke für die Info

Q2/2017 + 15 Monate = Q3/2018 + geschätzt 2 Jahre für einen neuen SoC = IMHO frühestens Ende 2020, eher aber 2021 ...

Ich verstehe Ryans Satz anders.

it’s that they’re going to be done rolling out new products using Imagination’s IP altogether within the next 2 years

In 15 Monaten bis 2 Jahren kommt das letzte IMG Produkt auf den Markt, er sagt nur sonst noch, dass Apples Gpu nicht in dieser Zeit kommen wird, sondern danach. Und IMG wird auch danach erstmal noch mit Geld verdienen, bis Apple dann wirklich umsteigt. A12 Herbst 2019 wird wohl non IMG sein.

Ailuros
2017-04-05, 06:39:41
https://forum.beyond3d.com/posts/1974854/

smalM
2017-04-05, 12:28:18
A12 Herbst 2019 wird wohl non IMG sein.

Nein, A12 Herbst 2018 oder A13 Herbst 2019...

Ich verstehe Ryan so, daß bereits Herbst 2019 keine IMG IP mehr im SoC A13 Verwendung findet und daß es dann auch keine neuen Produkte mehr geben wird, die SoCs aus früheren Generationen benutzen (aTV, iPad etc.).

@Ailuros
Du deutest doch nicht etwa eine Architekturlizenz für Mali an? Das wäre ja total langweilig. :wink:

deekey777
2017-04-05, 19:12:18
Neues von gestern:

https://www.axios.com/apple-to-ditch-the-current-mac-pro-design-but-replacement-wont-arrive--2343465726.html

The company has no plans for touchscreen Macs, or for machines powered solely by the kind of ARM processors used in the iPhone and iPad. However, executives left open the possibility ARM chips could play a broader role as companion processors, something that showed up first with the T1 processor that powers the Touch Bar in the new MacBook Pro.


Don't believe anything untill Apple denies it. Gibt es nicht Spekulationen, dass ein kleiner ARM-Chip für Hintergrundaufgaben eingesetzt werden kann, damit die x86-CPU schlafen kann?

Ailuros
2017-04-06, 07:25:27
@Ailuros
Du deutest doch nicht etwa eine Architekturlizenz für Mali an? Das wäre ja total langweilig. :wink:

Nein. Als Malis noch relativ in den Startloechern bei ARM lagen, war die Relation fuer GPU IP zwischen ARM und IMG irgendwo im 20:80 Bereich. Es wuerde mich nicht wundern wenn heute ARM sogar einen groesseren IP Marktanteil hat als IMG und jetzt stell Dir noch vor wie es bei IMG ohne Apple aussehen wird. Der Verlust an IP Marktanteilen sind alleine IMG's Verantwortung welches auch die fast auschliessliche Abhaengigkeit an Apple fuer PowerVR zuechtete.

Zum eigentlichen Thema hier: Apple kann und wird IMG dementsprechend zappeln lassen nach dem Motto wenn ihr Euch schon nicht verkaufen laesst zieh ich Euch einfach den Teppich unter den Fuessen weg, bis man sieht wie es weitergehen kann. Es wird wohl keiner besonders romantisch sein und denken dass es hier irgendwelche Emotionen geben koennte. Es ist aber nach wie vor IMHO IMG's eigene Schuld.

Loeschzwerg
2017-04-06, 09:18:10
Das kann böse ausgehen für IMG. Was haben die denn noch als Standbein?

Kallenpeter
2017-04-06, 17:13:44
Das kann böse ausgehen für IMG. Was haben die denn noch als Standbein?

Nichts:freak: Oder zumindest nur sehr wenig. Weiß ich aber auch nicht so recht.

Wäre ARM nicht ein passender Käufer von IMG?

Ailuros
2017-04-07, 06:44:23
Das kann böse ausgehen für IMG. Was haben die denn noch als Standbein?

https://forum.beyond3d.com/posts/1975349/

As far as I know there were no other offers for IMG. From what I've seen in talks with prospective new clients (us included), they should be able to quickly make up most of the lost revenue within the next two years.

Nichts:freak: Oder zumindest nur sehr wenig. Weiß ich aber auch nicht so recht.

Siehe oben. Waere es wirklich so tragisch, haetten sie sich schon vor einiger Zeit einfach kaufen lassen. Alleine der Spreadtrum/Intel deal soll 200Mio Einheiten schwer sein da irgend ein staatlich finanziertes Projekt in China dahinter steckt https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=x86&hwtype=GPU&hwname=Imagination%20Technologies%20PowerVR%20Rogue%20Lando&did=46716983&D=Spreadtrum%20sp9861e%20(development%20board%2C%20Rogue%20Lando)

Im gegebenen Fall ist es natuerlich beschissen dass IMG von Apple benachrichtigt wurde dass sie zu N Zeitpunkt keine IP mehr von ihnen benutzen werden und IMG war verpflichtet es anzukuendigen da es sich um ein sehr hohes Einkommen der Firma handelt. Was sie jetzt im Gegensatz eben leider NICHT ankuendigen koennen ist was genau in der unmittelbaren Zukunft in ihrer pipeline sozusagen liegt. Wuerde dem Aktienwert auch einiges helfen, aber es ist eben genau die Situation die Apple ausgenutzt hat momentan.

Wäre ARM nicht ein passender Käufer von IMG?

ARM ist schon seit einiger Zeit nicht mehr unabhaengig als Firma und Softbanks wird wohl schwer an IMG interessiert sein dass es dort nichts besonderes zu liquidieren gibt.

smalM
2017-04-07, 12:54:43
Wuerde dem Aktienwert auch einiges helfen, aber es ist eben genau die Situation die Apple ausgenutzt hat momentan.

Was hat Apple ausgenutzt?
Bisher hat Apple 45 Mio. £ verloren, mehr ist nicht passiert.

Ailuros
2017-04-07, 20:03:04
Was hat Apple ausgenutzt?

Dass IMG momentan eben nicht oeffentlich zeigen kann welche deals sie fast unterschrieben haben, noch ihre eigentliche roadmap fuer GPU IP fuer die naechsten Jahre. Ich meinte IMG's Aktie und die ist heute von ca. 285 pennies nur noch auf ~100 pennies; den Verlust an market-cap hat IMG wem genau zu verdanken? Wenn sich IMG eben nicht verkaufen laesst, wird es ehlendig in die Ecke gedraengt weil sie irgendwann wohl schon aufgeben werden.

Bisher hat Apple 45 Mio. £ verloren, mehr ist nicht passiert.

Nichts wuerde ich den Verlust von fast 2/3 an Marktwert fuer IMG nicht gerade nennen.

Sonst noch was vom insider bei B3D:

https://forum.beyond3d.com/posts/1975905/

Having seen IMG's IP and roadmap for the next 4 years, I'd agree with the sentiment that they have the best in-class technology in terms of efficiency and performance. Whether anyone uses it outside of Apple is a different story. However, I would bet on Apple at least being competitive in that regard.

But that begs the question - why not acquire IMG if their in-house solution is <10% better (just a random number)? It just seems like a ton of effort just to make something slightly better. Not buying Imagination speaks volumes about their belief in their own solution's competitiveness. Also, I don't think they can really buy IMG anymore (regulatory oversight in EU + the share price drop/antitrust).

Die Antwort ist weil sich IMG nicht verkaufen laesst.

smalM
2017-04-09, 18:49:07
Dass IMG momentan eben nicht oeffentlich zeigen kann welche deals sie fast unterschrieben haben, noch ihre eigentliche roadmap fuer GPU IP fuer die naechsten Jahre. Ich meinte IMG's Aktie und die ist heute von ca. 285 pennies nur noch auf ~100 pennies; den Verlust an market-cap hat IMG wem genau zu verdanken?

Ein nicht unterschriebener Deal ist halt keiner, also kann man darüber auch nichts veröffentlichen.
Das ist genauso wenig die Schuld von Apple, wie daß IMG jahrelang große Summen für Blütenträume verschleudert hat, oder daß sie nicht in der Lage waren, neben Apple eine ausreichende Kundenbasis zu aquirieren!
Du verwechselt da Ursache und Wirkung! Die mißliche Lage, in der IMG steckt, haben sie schlicht sich selbst zu verdanken.

Nichts wuerde ich den Verlust von fast 2/3 an Marktwert fuer IMG nicht gerade nennen

Deine ursprüngliche Aussage war, daß Apple das ausnutzt. Es bleibt bei der Frage: Wo hat Apple bisher was ausgenutzt?

Ailuros
2017-04-10, 06:39:46
Ein nicht unterschriebener Deal ist halt keiner, also kann man darüber auch nichts veröffentlichen.
Das ist genauso wenig die Schuld von Apple, wie daß IMG jahrelang große Summen für Blütenträume verschleudert hat, oder daß sie nicht in der Lage waren, neben Apple eine ausreichende Kundenbasis zu aquirieren!
Du verwechselt da Ursache und Wirkung! Die mißliche Lage, in der IMG steckt, haben sie schlicht sich selbst zu verdanken.

Dass IMG selber an ihrer eigenen Situation Schuld sind hab ich auch selber erwaehnt, dafuer gibt es keinen Zweifel.

Deine ursprüngliche Aussage war, daß Apple das ausnutzt. Es bleibt bei der Frage: Wo hat Apple bisher was ausgenutzt?

Apple hat sehr wohl IMG's schlechte Situation ausgenutzt. Wenn man schon das Firmchen nach N Versuchen nicht einkaufen kann, sticht man eben genau dort zu wo es auch genug schmerzen wird und zu einem Zeitpunkt wo es auch einen besonders negatives Resultat haben wird. Nochmal wie schon oben erwaehnt es ist fuer mich zwar "business as usual" und es wuerde sich wohl auch keine anderer IHV in Apple's Schuhen anders verhalten, aber das heisst jetzt wiederum auch nicht dass das Ganze purer Zufall ist und Apple die Mutter aller Unschuld. Und wenn's schon sein muss da wir gerade einen ziemlichen schreibfreudigen insider bei B3D haben:

https://forum.beyond3d.com/posts/1975981/

I remember that Imagination renewed their contract in either 2015 or 2016 (I may be wrong). I can confirm that IMG was hard to negotiate with - this may have been a major contributing factor to the relationship's demise.

Ein Durschnitt von 25 pennies pro core ist ohnehin schon laecherlich niedrig fuer Apple's GPU IP. Klar Apple ist gross genug und verhandelt stets auch hart fuer konstant niedrigere Preise, aber es ist auch nicht so dass sich je IMG umgedreht haette und ihnen die IP geschenkt haette.

Kallenpeter
2017-04-22, 17:06:14
OX4JucpvbJM

Beeindruckend. Auch das der geringere RAM, zumindest in diesem Test, sich kein bisschen negativ bemerkbar gemacht hat.

24p
2017-04-22, 17:08:32
Der macht sich in solche Tests auch nie bemerkbar. ;) Schon allein deshalb nicht, da der Test blank gefahren wird. Ist also nichts besonderes.

Kallenpeter
2017-04-22, 17:56:08
Hmm, nur im zweiten Durchlauf hat das iPhone scheinbar noch alle Apps Speicher, während die anderen neuladen müssen. Was soll das denn testen, wenn die den effizienten Umgang mit Arbeitsspeicher?

24p
2017-04-22, 18:21:45
Kann ich bei mir nicht nachvollziehen. Da laden Browsertabs oft, wenn man zwischen dem Browser und anderen Apps schaltet.

Edit:

Der Typ testet das Reloading auch nicht richtig. Ja, wenn ich da nur kurz reinschaue sieht es so aus, als ob die App noch im Speicher ist. Wenn ich sie dann aber bedienen will merkt man, dass sie neu lädt. ;) Ich habe das oft bei ibooks. Das sieht dann beim öffnen erst so aus, als ob es noch offen war und auf der aktuellen Seite ist. Sobal ich aber drauf bleibe verschwindet das Buch und lädt neu. Die App zeigt da nichts wirklich die App sondern so eine Art Screenshotvom letzten Stand, neu geladen wird dann aber trotzdem. Alles für die Shop-Experience. ;)

urpils
2017-04-22, 18:59:15
Kann ich bei mir nicht nachvollziehen. Da laden Browsertabs oft, wenn man zwischen dem Browser und anderen Apps schaltet.

Edit:

Der Typ testet das Reloading auch nicht richtig. Ja, wenn ich da nur kurz reinschaue sieht es so aus, als ob die App noch im Speicher ist. Wenn ich sie dann aber bedienen will merkt man, dass sie neu lädt. ;) Ich habe das oft bei ibooks. Das sieht dann beim öffnen erst so aus, als ob es noch offen war und auf der aktuellen Seite ist. Sobal ich aber drauf bleibe verschwindet das Buch und lädt neu. Die App zeigt da nichts wirklich die App sondern so eine Art Screenshotvom letzten Stand, neu geladen wird dann aber trotzdem. Alles für die Shop-Experience. ;)

diese Tests gibt es ja immer mal wieder - und häufig wird genau DAS angegangen, indem man in der im 2. Durchgang geöffneten App erst eine Aktion erledigt - da zeigt sich aber das gleiche Ergebnis wie hier.

Blediator16
2017-04-22, 19:17:42
https://www.youtube.com/watch?v=LdAgbj9c6l0&feature=youtu.be

Hier sieht das dann nicht mehr so schlimm aus.

24p
2017-04-22, 19:27:43
diese Tests gibt es ja immer mal wieder - und häufig wird genau DAS angegangen, indem man in der im 2. Durchgang geöffneten App erst eine Aktion erledigt - da zeigt sich aber das gleiche Ergebnis wie hier.

Das bezweifle ich.

urpils
2017-04-22, 20:45:14
Kann ich bei mir nicht nachvollziehen. Da laden Browsertabs oft, wenn man zwischen dem Browser und anderen Apps schaltet.

Edit:

Der Typ testet das Reloading auch nicht richtig. Ja, wenn ich da nur kurz reinschaue sieht es so aus, als ob die App noch im Speicher ist. Wenn ich sie dann aber bedienen will merkt man, dass sie neu lädt. ;) Ich habe das oft bei ibooks. Das sieht dann beim öffnen erst so aus, als ob es noch offen war und auf der aktuellen Seite ist. Sobal ich aber drauf bleibe verschwindet das Buch und lädt neu. Die App zeigt da nichts wirklich die App sondern so eine Art Screenshotvom letzten Stand, neu geladen wird dann aber trotzdem. Alles für die Shop-Experience. ;)

was hat denn das Eine mit dem Anderen zu tun? Dass der RAM von Browserfenster voll wird erklärt sich ja relativ schnell, wenn man sieht, wieviel RAM moderne Webseiten verbrauchen - das negiert aber nicht obiges Ergebnis.

mit deinem Edit hast du zwar Recht, aber wie gesagt - bei vielen andere Tests wird dann die App kurz genutzt, ein Foto gemacht,... und dort zeigt sich das so wie in obigem Test.


Das bezweifle ich.

dann zweifle mal :)