Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

deekey777
2014-02-13, 16:13:34
Wenn sie H.265 integrieren wollen, wird es wohl eher Richtung A8 gehen, wenn nicht, bleiben sie beim A7. So eine A8-Krücke im Apple TV ohne H.265-Support wäre jedenfalls Quatsch, das kann man ansonsten alles problemlos mit A7 lösen.
Es kann auch was neues und billigeres sein. Aber braucht Apple(-TV) wirklich H.265 (und 4K)?

Übrigens:
Apple set to discontinue legacy, non-Retina iPad 2 (http://appleinsider.com/articles/14/02/13/apple-set-to-discontinue-legacy-non-retina-ipad-2)
After nearly three years on the market, Apple's second-generation iPad, which sports an A5 processor and non-Retina display, is now on the chopping block, and is expected to be discontinued in the near future, AppleInsider has learned.
Apple könnte alle A5-Geräte in diesem Jahr einstampfen und Ersatz mit einem günstigen SoC auf den Markt bringen.

Ailuros
2014-02-13, 16:27:33
Wenn Apple tatsaechlich vorhat im Herbst ein groesseres tablet vorzustellen und das heutige iPad und mini bleiben bestehen, waere es Bloedsinn zu versuchen das Ganze mit einem einzigen SoC zu bedienen.

Wenn sie jetzt noch wearables selber vorstellen moechten umso mehr denn dafuer reicht sogar =/>2-Jahre alte Technologie.

Sunrise
2014-02-13, 16:36:25
Es kann auch was neues und billigeres sein.
Kann natürlich wieder irgendwas Teildeaktiviertes (aufgrund der Ausbeute beim A7, was ich aber bezweifle, 32nm HKMG sollte extrem gut laufen) sein, sehe da aber nicht so den Grund, der A7 ist so schon einfach zu gut in allen Bereichen. Da Apple in der Vergangenheit immer auf bereits produzierte SoCs zurückgegriffen hat, der Apple TV jetzt auch nicht unbedingt viele Stückzahlen alleine verkauft und weil der A7 schon ziemlich schnell, featureseitig voll ausgestattet und auch noch relativ stromsparend gegenüber den anderen SoCs ist. Der A7 ist mit ein Grund, warum das Air trotz des deutlich dünneren Gehäuses immernoch so eine verdammt gute bzw. deutlich bessere Laufzeit (http://www.macrumors.com/2014/02/12/ipad-air-battery-life/) hat. Der Rest geht auf das energiesparendere Display bzw. das Backlight zurück.

Aber braucht Apple(-TV) wirklich H.265 (und 4K)?
Beim H.265-Support bin ich mir relativ sicher, ansonsten wäre das extrem Apple-untypisch, da ja bereits Netflix mit 4K-Content auftrumpfen kann. Und das sollte zusammen mit einem neuen Line-Up im Zeitraum September-Weihnachten normalerweise auch integriert sein. Damit kannst du ja zwei Fliegen mit einer Klappe schlagen. Deutlich (bis zu 50% oder sogar mehr, je nach Encoder) niedrigere Bitraten bei ungefähr identischer Qualität (HD) bzw. sogar UltraHD-Content mit HD-ähnlichen Bitraten.

Zusätzlich kommt noch hinzu, dass ich davon ausgehe, dass das neue iPhone 6 ein Full-HD-Display abbekommt und das Display mehr Platz, denn dafür scheinen sie aktuell auch so stark Saphirglas zu pushen (was sicher bald auch in iWatch etc. Verwendung finden wird), weil das ein dünneres Glas bei extrem widerstandsfähiger Oberfläche zulässt, im Gegensatz zu Gorilla Glas, wo Apple komplett auf einen externen Zulieferer angewiesen ist.

Der A7 kann übrigens auch schon 4K (getestet), allerdings wohl kein H.265, zumindest wird das nach außen nicht abgebildet/angeboten.

Wenn Apple tatsaechlich vorhat im Herbst ein groesseres tablet vorzustellen und das heutige iPad und mini bleiben bestehen, waere es Bloedsinn zu versuchen das Ganze mit einem einzigen SoC zu bedienen.

Wenn sie jetzt noch wearables selber vorstellen moechten umso mehr denn dafuer reicht sogar =/>2-Jahre alte Technologie.
Denke das 12"-iPad (wenn es denn wirklich kommt) bekommt einen A8. Bei den Wearables braucht man natürlich was stark Area-optimiertes, das könnte bzw. müsste dann in der Tat dann stark abgespeckt werden, da kommt es wohl auf jedes Milliwatt an.

deekey777
2014-02-13, 16:54:15
Wenn Apple tatsaechlich vorhat im Herbst ein groesseres tablet vorzustellen und das heutige iPad und mini bleiben bestehen, waere es Bloedsinn zu versuchen das Ganze mit einem einzigen SoC zu bedienen.

Das ist ein guter Punkt.
Wenn wirklich ein größeres iPad kommt, dann wohl auch mit höherer Auflösung, die nicht zwangsläufig die vierfache Retina-Auflösung sein muss, sondern ein Bruch des Bestehenden (siehe 2012 beim iPhone/iPod touch). Also eine vollkommen neue Generation, was das Display angeht. Die aktuellen Geräte werden im Preis reduziert, also wird A7 weiterhin im Angebot bleiben. Bei der Annahme, dass ein iPhone 6 4K-Videos aufnehmen kann, wird auch ein neues ATV diese abspielen können müssen: Entweder kann A7 bereits mit 4K-Videos umgehen oder oder.

...

Beim H.265-Support bin ich mir relativ sicher, ansonsten wäre das extrem Apple-untypisch, da ja bereits Netflix mit 4K-Content auftrumpfen kann. Und das sollte zusammen mit einem neuen Line-Up im Zeitraum September-Weihnachten normalerweise auch integriert sein. Damit kannst du ja zwei Fliegen mit einer Klappe schlagen. Deutlich (bis zu 50% oder sogar mehr, je nach Encoder) niedrigere Bitraten bei ungefähr identischer Qualität (HD) bzw. sogar UltraHD-Content mit HD-ähnlichen Bitraten.

...

Der A7 kann übrigens auch schon 4K (getestet), allerdings wohl kein H.265, zumindest wird das nach außen nicht abgebildet/angeboten.
.
Ich weiß nicht, seit wann Netflix 1080p anbietet, aber Apple ging 1080p sehr lange am Arsch vorbei. Erst seit ATV3 gibt es 1080p bei iTunes. Wenn Netflix 4K-Videos anbietet, bedeutet das nicht, dass diese auch auf dem Netflix-Kanal des ATV angeboten werden.

Sunrise
2014-02-13, 17:04:44
Ich weiß nicht, seit wann Netflix 1080p anbietet, aber Apple ging 1080p sehr lange am Arsch vorbei. Erst seit ATV3 gibt es 1080p bei iTunes. Wenn Netflix 4K-Videos anbietet, bedeutet das nicht, dass diese auch auf dem Netflix-Kanal des ATV angeboten werden.
Ich meine keinen Netflix-Kanal, sondern eher direkt im iTunes-Store. Damit können sie in Zukunft auch stark die Bandbreite bei bestehendem Content reduzieren, und 4K wird ja weiterhin relativ exklusiv bleiben. Als Übergang aber ergibt es Sinn, zuerst mal die Hardware dafür anzubieten (so früh als möglich, damit eine breite Basis da ist), dann erst exklusiven Content für die Early Adopter und dann irgendwann komplett alles auf H.265 umstellen, sobald ein 1-2-jähriger Apple-Rhythmus dann die breite Masse an H.265-kompatiblen Devices erreicht hat.

Und bloß nicht vom deutschen iTunes-Store ausgehen, der geht (mir) bzw. denen scheinbar wirklich am Arsch vorbei, bzw. die deutschen Content-Anbieter lassen es nicht zu, dass Apple 1080p breit anbietet, weil die weiterhin ihre Blu-Rays verkaufen wollen. Im US-Store gibt es aber schon seit einiger Zeit (2-3 Jahren) fast alles in Full-HD (wo die entsprechenden Master vorliegen).

Die 4K-Videoaufnahme sollte schon mit A7 möglich sein, zumindest theoretisch, da der SoC auch 720p bei 120fps schafft, sollten 4K bei max. 30fps möglich sein. Zumindest wiedergabeseitig (Decoder) funktioniert das jedenfalls.

deekey777
2014-02-13, 19:50:27
Über ATV3 lassen sich die Filme in 1080p leihen (habe bei Mediamarkt gesehen). Keine Ahnung, warum das so ist. Filme, die ich in iTunes gekauft habe, sehen auf dem Fernseher (über iPhone+Digital AV) gar nicht so schlecht aus.

Ailuros
2014-02-13, 20:54:28
Die 4K-Videoaufnahme sollte schon mit A7 möglich sein, zumindest theoretisch, da der SoC auch 720p bei 120fps schafft, sollten 4K bei max. 30fps möglich sein. Zumindest wiedergabeseitig (Decoder) funktioniert das jedenfalls.

Wenn sie den neuesten VXD eingebaut haben (und er wieder via sw gedrosselt wird) H.265 Main 10 @ L5.1 bei 3840 x 2160 = 60fps.

deekey777
2014-02-16, 11:28:20
KGI: iPad 2 done and iPad 4 back in Q1, iPad Air with A8 + Touch ID in Q3, bigger iPad & new Mini unlikely in ’14 (http://9to5mac.com/2014/02/15/kgi-ipad-2-done-and-ipad-4-back-in-q1-ipad-air-with-a8-touch-id-in-q3/)

A6X kommt also zurück. Wird er dann kleiner ausfallen? Er wurde bereits in 32 nm gefertigt. Darf er auch von einem anderen Auftragsfertiger als Samsung hergestellt werden?

Bei der Annahme, dass ein iPad 4 mit kleinerem SoC kommt: Der Hauptverbraucher ist weiterhin der Bildschirm mit seiner Hintergrundbeleuchtung. Bringt ein kleinerer A6X in 28 nm einen Verbrauchsvorteil, so dass ein etwas kleinerer Akuu verwendet werden kann? Schließlich wiegt ein iPad 4 mit 652 g nicht nur deutlich mehr als aktuelle Tablets, sondern auch mehr als ein iPad 2.

sth
2014-02-16, 11:45:46
Also dass das 4er das 2er als Einstiegsgerät ersetzt kann ich mir ja noch vorstellen, aber dass das Mini plötzlich aussetzen soll kommt mir sehr komisch vor.

Sunrise
2014-02-16, 11:57:51
Ergibt für mich hinten und vorne keinen Sinn.

Wenn iPad 4, dann nur mit A7 oder gleich das aktuelle iPad Air mit A7, zusätzlich zum neuen iPad Air mit A8.

Der A7 hat nur noch 102mm² und ist trotz 28nm HKMG sicher nicht viel teurer als das alte A6X-Ungetüm in 32nm HKMG (ich schätze mal, das kommt ungefähr aufs Gleiche raus), das sowieso nur noch abverkauft wird. Ich halte diese Schätzung für sehr gewagt, weil das alte iPad 4 mit Sicherheit auch deutlich mehr Materialkosten hatte, wie das neue Air, mal mit Ausnahme von vielleicht dem Display.

Wenn ich mich nicht falsch erinnere, dann war das Air laut Schätzungen bei der BOM sogar deutlich günstiger als das 3er.

deekey777
2014-02-16, 12:29:23
Es ist nur eine Annahme, was das iPad 2 ersetzen kann, wenn dieses im März eingestellt wird. Sofern das stimmt, dann stellt sich gleich die zweite Frage: Gilt das nur bis zur Premiere des neuen iPad 6 oder wird das iPad 4 auch darüber hinaus das Einstiegsgerät in die 9,7''-iPad-Welt bleiben?
Apple wäre das durchaus zuzutrauen, da zwischen dem iPad 2/iPad mini und iPad Air/iPad mini RD zwei Generationen liegen (aus technischer Sicht natürlich). Es war schon eine Überraschung, dass iPad mini RD mit einem A7 präsentiert wurde (nur die Größe als alleiniges Unterscheidungsmerkmal), genau wie als iPad mini mit altem A5 (nicht nur die Größe, sondern insbesondere die Hardware). Das iPad mini RD wildert wohl zu sehr in dem Gefilde des iPad air, also muss man die Kaufwilligen zur Weihnachtszeit zum Kauf eines neuen iPad air bewegen, das iPad mini RD wird dann 2015 erneuert.

prinz_valium
2014-02-16, 15:59:53
ipad mini
ipad
ipad pro (ios/osx dualboot oder nur das 2.? ich weiß es nicht)

so wird das portfolio demnächst vllt aussehen. könnte ich mir jedenfalls vorstellen. denn mit einem normalen ipad, lässt sich nicht mehr so viel geld verdienen. ist schon extrem günstig geworden das ipad air. und das ipad mini retina sowieso.


edit:
tja das mit der settop box für time warner cabel ist ja schon ma für den arsch. haben die noch andere große im köcher gehabt?

smalM
2014-02-17, 02:12:58
A6X kommt also zurück. […] Darf er auch von einem anderen Auftragsfertiger als Samsung hergestellt werden?

Seit wann bestimmt das der Auftragnehmer?


ipad pro (ios/osx dualboot oder nur das 2.? ich weiß es nicht)


Kein OS X auf einem iPad, kein iOS auf einem Mac und kein Zusammenführen von iOS und OS X. Apple hat das doch schon deutlich gemacht.

=Floi=
2014-02-17, 03:49:20
das ipad air ist arschteuer! von günstig sind die meilenweit weg.

Ailuros
2014-02-17, 09:01:57
das ipad air ist arschteuer! von günstig sind die meilenweit weg.

Wenn mich Apple's i-Zeug nicht so begrenzen wuerde im Vergleich zu Android tablets wuerde ich gerne die ~450 ausgeben die heute in iPad Air kostet, eben weil ich vergleichbare Effizienz in Android tablets entweder eine geraume Zeit spaeter bei niedrigeren Preisen sehen werde oder mit kleinem zeitlichen Unterschied aber zu einem genauso hohen wenn nicht hoeheren Preis.

Wenn ich jetzt weder iOS noch Android haben moechte und fuer ein windows8.1 tablet suche wird der Preis auch nicht niedriger sein. Ueberhaupt wenn man fuer 10" displays auch noch so "frech" ist und eine 1080p Aufloesung haben will, wird es sogar um einiges mehr kosten.

MSABK
2014-02-17, 10:10:40
Wenn man das Format des iPad Displays mag, wird man bei den anderen eh nichts passendes finden.

deekey777
2014-02-17, 21:14:20
Apple is not working on its in house LTE (http://www.fudzilla.com/home/item/33950-apple-is-not-working-on-its-in-house-lte)

Our well informed industry sources are quite sure that Apple is not working on its own LTE modem. To put things in perspective, high-end phone chips such as Qualcomm’s Snapdragon 800 come in an SoC package that includes the LTE 150Mbits per second capable modem. Apple A7 doesn’t have that and neither does Intel, Nvidia or Samsung with its SoC.

Ist doch klar, wenn man den gleichen SoC in Wifi-Modelle einbaut.

deekey777
2014-02-18, 14:21:41
Nächster iOS-Hauptprozessor angeblich ohne Samsung-Beteiligung (http://www.heise.de/newsticker/meldung/Naechster-iOS-Hauptprozessor-angeblich-ohne-Samsung-Beteiligung-2116886.html)

Samsung raus, weil die Ausbeute zu niedrig?

prinz_valium
2014-02-19, 00:08:09
wollte ich auch schon fragen

kann ich kaum glauben, dass 20nm schon so weit ist um komplett die volle pallete iphone 6 und ipad air 2 zu bedienen.

50 mio chips für das 2. halbjahr 2014 alleine für apple wären das.
oder läuft der besser zum start als der 28er?

Ailuros
2014-02-19, 00:10:38
Nächster iOS-Hauptprozessor angeblich ohne Samsung-Beteiligung (http://www.heise.de/newsticker/meldung/Naechster-iOS-Hauptprozessor-angeblich-ohne-Samsung-Beteiligung-2116886.html)

Samsung raus, weil die Ausbeute zu niedrig?

Oder Apple ist zu faul den gleichen chip zwei Mal fuer verschiedene Prozesse auszulegen.

deekey777
2014-02-20, 12:39:42
Ubuntu-Chef: Apple schnappt sich Saphirglasbestand der nächsten drei Jahre (http://www.heise.de/newsticker/meldung/Ubuntu-Chef-Apple-schnappt-sich-Saphirglasbestand-der-naechsten-drei-Jahre-2119325.html)
Die Spekulation ist, dass es sich um die Größe von 4,5 Zoll handelt. Es liegt nahe, dass Apple diese Größe für das kommende iPhone mit 4,5 Zoll braucht. Dass dieses weiterhin bei 1136 × 640 bleibt, ist eher unwahrscheinlich. Also ist mit einer deutlich höheren Auflösung zu rechnen, was eine höhere Grafikleistung verlangt, also wohl einen schnelleren Grafikchip, damit Apple weiterhin den Längsten hat.

Sunrise
2014-02-20, 16:47:59
wollte ich auch schon fragen

kann ich kaum glauben, dass 20nm schon so weit ist um komplett die volle pallete iphone 6 und ipad air 2 zu bedienen.

50 mio chips für das 2. halbjahr 2014 alleine für apple wären das.
oder läuft der besser zum start als der 28er?
20nm bei TSMC läuft deutlich besser vom Start weg, allerdings sollte man trotzdem nicht vergessen, dass das frühestens ab Ende Q3 was wird und ob TSMC diese Mengen stemmen kann, wird sich zeigen. Es wurden aber alleine für Apple min. zwei Fabs schon sehr früh ausgebaut.

Dass Samsung für Apple dieses Mal nicht produziert lege ich mal so aus, dass Apple bei TSMC deutlich günstiger weg kommt.

Ailuros
2014-02-20, 16:55:43
20nm bei TSMC läuft deutlich besser vom Start weg, allerdings sollte man trotzdem nicht vergessen, dass das frühestens ab Ende Q3 was wird und ob TSMC diese Mengen stemmen kann, wird sich zeigen. Es wurden aber alleine für Apple min. zwei Fabs schon sehr früh ausgebaut.

Dass Samsung für Apple dieses Mal nicht produziert lege ich mal so aus, dass Apple bei TSMC deutlich günstiger weg kommt.

Keine Ahnung ueber den Herstellungs-Preis aber Apple hat den TSMC Vertrag nur abgeschlossen um Samsung ins schwitzen zu bekommen afaik. Sie haben ja seither den Vertrag mit Samsung wieder erneuert. Das einzige worueber ich mir noch nicht sicher bin ist: to Intel or not Intel? :D

smalM
2014-02-24, 00:51:53
Wenn TSMC der alleinige Produzent für den A8 wird und der Chip insgesamt ein Produktionsvolumen von einer ¼ Milliarde Stück erreicht, dann hat Apple mit TSMC einen Rahmenvertrag auf drei Jahre mit einem Wert von 3,5 bis 4 Mrd. $ abgeschlossen und es würde mich nicht wundern, wenn sich Apple den priorisierten Zugriff auf gesicherte Stückzahlen mit einer Vorabüberweisung in Milliardenhöhe gesichert hätte (wäre ja nicht das erste Mal).

Unicous
2014-02-24, 02:57:26
Das stimmt einerseits (siehe das jüngste Saphirglas-Gerücht, mehrere Jahre Produktionskapazität aufgekauft). Apple ist aber auch nicht so doof sich auf einen Produzenten zu verlassen. Ich denke dass sie noch jemanden in der Hinterhand haben, sei es auch nur Samsung als Auffangbecken für die ersten Monaten. GF ist ihnen wahrscheinlich zu trödelich und dann bleibt da nicht mehr viel. Außer noch UMC, bei denen sie letztes Jahr ja auch in eine Fabrik investiert haben sollen.

Ailuros
2014-02-24, 03:40:18
Samsung. Intel und A8 durften nicht in den gleichen Satz passen.

Sunrise
2014-03-05, 18:11:17
So, es geht los (ganz frischer neuer Stoff zum Spekulieren):
iPhone 6 TSMC wafer production big winner (http://translate.google.com/translate?u=http%3A//ctee.com.tw/News/Content.aspx%3Fid%3D501976%26yyyymmdd%3D20140305%26f%3Dafc5dbd539fcf65dd2c8066ee 5f37695&hl=en&langpair=auto|en&tbb=1&ie=UTF-8)

Auszug aus dem etwas ungenau übersetzten Original:

It is understood that the new iPhone 6 most special, one A8 application processor for the first time to import the latest TSMC 20-nanometer process, is expected to carry a quad-core 64-bit processor core and quad-core graphics processor core, and second, the screen may using more than 4.7-inch sapphire panel resolution is higher than the current iPhone uses the retina panel.
...
Supply chain industry that, iPhone 6 using A8 processor, has begun in TSMC 20-nanometer Tainan Fab14 factory cast piece, pull monthly high capacity, half the amount of the monthly taped watch 30000
...
Because Apple iPhone 6 chip tapeout advance orders, after entering the wafer shipments in mid-April peak

Verwertbare Infos (natürlich spekulativ wie immer):
(1) Quad-Core 64bit Cyclone?
(2) Quad-Core PowerVR Series 6 (XT?)
(3) 20nm (war kein Geheimnis)
(4) Höhere iPhone-Display-Auflösung (auch das war kein Geheimnis)
(5) Überraschend früher Produktionsstart, wohl aufgrund von Order-Umschichtung von Samsung -> TSMC um genügend Bestand für den Launch aufbauen zu können, mit einem Output von derzeit der Hälfte? (so verstehe ich es) von 30.000 Wafern/Monat (also derzeit noch 15.000 Wafern/Monat)
(6) der gegen Mitte April den Peak von 30.000 Wafern/Monat erreicht.

Das sieht erneut nach einem ziemlichen Monster aus. Wobei die GPU scheinbar bei 4-Clustern bleibt? Irgendwie kommt da dann doch wieder Series6XT ins Spiel. Ailuros?

Ailuros
2014-03-05, 19:38:44
Du hast die Link Adresse vergessen im Post oben. Sonst weiss ich nur dass die A8 GPU um die 250GFLOPs FP32 haben wird; ob es jetzt ein 64x0 oder 66x0 ist ist mir persoenlich wurscht, aber fuer den ersten Fall ist die benoetigte Frequenz schon laecherlich hoch. Dass jetzt Apple eine GPU ploetzlich auf 1GHz takten wird halte ich fuer unwahrscheinlich.

Nightspider
2014-03-05, 19:55:12
Theoretisch könnte Apple die Pixelzahl des Display bei 4,5 Zoll wieder vervierfachen.

1136*640 -> 2272*1280

Sunrise
2014-03-05, 20:07:46
Du hast die Link Adresse vergessen im Post oben. Sonst weiss ich nur dass die A8 GPU um die 250GFLOPs FP32 haben wird; ob es jetzt ein 64x0 oder 66x0 ist ist mir persoenlich wurscht, aber fuer den ersten Fall ist die benoetigte Frequenz schon laecherlich hoch. Dass jetzt Apple eine GPU ploetzlich auf 1GHz takten wird halte ich fuer unwahrscheinlich.
Danke, ist editiert. Zwischenablage war aus irgendeinem Grund plötzlich leer.

Ravenhearth
2014-03-05, 20:54:21
Theoretisch könnte Apple die Pixelzahl des Display bei 4,5 Zoll wieder vervierfachen.

1136*640 -> 2272*1280

Passender finde ich 1080p auf 4,5". Wäre eine exakt 50% höhere ppi als vorher (seit iphone 4), da haut die Skalierung auch hin.

Sunrise
2014-03-05, 21:17:57
Passender finde ich 1080p auf 4,5". Wäre eine exakt 50% höhere ppi als vorher (seit iphone 4), da haut die Skalierung auch hin.
1080p wäre zudem auch meine Präferenz, da endlich mal Standard-kompatibel.

Ailuros
2014-03-05, 21:33:59
1080p wäre zudem auch meine Präferenz, da endlich mal Standard-kompatibel.

Das grosse Fragezeichen wird wohl das >12" tablet sein; vorruebergehend immer noch 2048*1536 und dann spaeter auf eine sehr hohe Aufloesung? Im Gegenfall wo sie gleich auf eine um einiges hoehere Aufloesung setzen ist ein 6 cluster Rogue sofort eine Notwendigkeit wegen den 12 anstatt 8 TMUs im 6430.

urpils
2014-03-06, 06:33:30
1080p wäre zudem auch meine Präferenz, da endlich mal Standard-kompatibel.

ernstgemeint Frage: was soll das denn bringen? (oder wem sollte es nutzen?) Auf den winzigen Displaygrößen macht es keinen Unterschied bei Videos, allem anderen ist es sowieso egal und nur um einem vollkommen willkürlichen Standard zu genügen das Bildschirmformat zu ändern erscheint mir nicht sonderlich einleuchtend.

Die wenigsten Videos/Filme, die ich sehe sind WIRKLICH 16:9 und somit ist immer irgendwo was abgeschnitten :/

Ailuros
2014-03-06, 07:00:03
ernstgemeint Frage: was soll das denn bringen? (oder wem sollte es nutzen?) Auf den winzigen Displaygrößen macht es keinen Unterschied bei Videos, allem anderen ist es sowieso egal und nur um einem vollkommen willkürlichen Standard zu genügen das Bildschirmformat zu ändern erscheint mir nicht sonderlich einleuchtend.

Die wenigsten Videos/Filme, die ich sehe sind WIRKLICH 16:9 und somit ist immer irgendwo was abgeschnitten :/

Apple will offensichtlich groessere Geraete entwickeln und nicht nur steril die Aufloesung zu erhoehen.

Man verschwendet weniger Strom ein 1080p video in 1080p abzuspielen als es auf z.B. 720p anzupassen und ein gut trainiertes Auge kann den Unterschied schon sehen eben weil man ein Handy viel zu Nahe vor der Nase haelt.

Aber da Apple meistens nach "einzigartigen" Merkmalen sucht koennte es eine hoehere Aufloesung werden aber wohl nicht 1080p.

urpils
2014-03-06, 16:43:24
Apple will offensichtlich groessere Geraete entwickeln und nicht nur steril die Aufloesung zu erhoehen.

Man verschwendet weniger Strom ein 1080p video in 1080p abzuspielen als es auf z.B. 720p anzupassen und ein gut trainiertes Auge kann den Unterschied schon sehen eben weil man ein Handy viel zu Nahe vor der Nase haelt.

Aber da Apple meistens nach "einzigartigen" Merkmalen sucht koennte es eine hoehere Aufloesung werden aber wohl nicht 1080p.

ich verstehe den grundsätzlichen Sinn von 1080p schon, allerdings sehe ich keinen wirklich gravierenden Vorteil für Apple, dieses Displayformat auf Biegen und Brechen zu unterstützen. Bisher haben sie zumindest behauptet ein Displayformat zu wählen, das möglichst optimal auf das Gerät und die allgemeine Benutzung angepasst ist. Ein 1080p-Display hätte ausschließlich bei 1080p Videos (die dann auch noch in Vollbild vorliegen müssten) einen Vorteil. Da das Video-Sehen aber wohl kaum das Hauptanwendungsgebiet eines iPhone/iPad ist, kann man dieses Aspekt doch auch eher vernachlässigen.

Mir gefällt ehrlichgesagt das eher quadratische Format des iPad ganz gut. Ob ein richtiges 16:9 bei iPad oder iPhone mehr oder weniger Sinn machen würde, weiß ich allerdings nicht so recht. Tendenziell würde ich da eher Nachteile sehen, weil Apps im Querformat weniger anzeigen könnten, als im Hochformat. (in Bezug auf das jetzige Verhältnis)

Sunrise
2014-03-07, 07:53:22
ernstgemeint Frage: was soll das denn bringen? (oder wem sollte es nutzen?) Auf den winzigen Displaygrößen macht es keinen Unterschied bei Videos, allem anderen ist es sowieso egal und nur um einem vollkommen willkürlichen Standard zu genügen das Bildschirmformat zu ändern erscheint mir nicht sonderlich einleuchtend.

Die wenigsten Videos/Filme, die ich sehe sind WIRKLICH 16:9 und somit ist immer irgendwo was abgeschnitten :/
Meinst du das ernst? 1080p ist ein willkürlicher Standard? Allein das Wort willkürlich und Standard in einem Satz ist ja fast schon grotesk. :D

Und was hat das denn mit abgeschnitten zu tun? Du musst schlichtweg bei 1080p-Content überhaupt nichtmehr skalieren, bei 720p-Content nur noch x1,5 und bei 2160p-Content x0,5. Zudem wird jeder digitale Content (im iTunes-Store) so ausgeliefert, zudem ist praktisch jeder digitale Content heutzutage in diesen Formaten. Und das wird sich auch nichtmehr ändern. Wenn du Filme fürs iPhone fit machen willst, musst du im Optimalfall (1080p) nichtmal mehr Änderungen vornehmen, alles wird 1:1 dargestellt. Auch die Kameras bei Apple sind 720p/1080p. Auch da wird nur unnötig skaliert, wenn man das nativ haben kann.

Mal anders gefragt, was erhoffst du dir denn von diesen Krüppelauflösungen? Welchen Zweck haben die denn, außer das Apple hier Rücksicht auf die UI nimmt?

Mir gefällt ehrlichgesagt das eher quadratische Format des iPad ganz gut. Ob ein richtiges 16:9 bei iPad oder iPhone mehr oder weniger Sinn machen würde, weiß ich allerdings nicht so recht. Tendenziell würde ich da eher Nachteile sehen, weil Apps im Querformat weniger anzeigen könnten, als im Hochformat. (in Bezug auf das jetzige Verhältnis)
Das iPad ist eine vollkommen andere Baustelle, da anderer Content möglichst unskaliert dargestellt werden muss (4:3). Ich hab aus gutem Grund ein iPad, eben weil das Format für alle möglichen Anwendungen sehr gut ist. Und die schwarzen Balken bei Filmen stören mich persönlich überhaupt nicht, da der schwarze Rahmen im Dunkeln sowieso nicht zu sehen ist. Dass das Ding von Apple ist, kommt mir natürlich gerade Recht, weil das Display spitze ist und das Gehäuse eine Wertigkeit hat, an die kaum ein anderes Tab überhaupt rankommt. Hat eben seinen Preis.

smalM
2014-03-08, 14:41:56
Theoretisch könnte Apple die Pixelzahl des Display bei 4,5 Zoll wieder vervierfachen.
1136*640 -> 2272*1280

Aber da Apple meistens nach "einzigartigen" Merkmalen sucht koennte es eine hoehere Aufloesung werden aber wohl nicht 1080p.

Es sähe Apple überhaupt nicht ähnlich, nur um der größeren Zahl wegen die Auflösung nach oben zu treiben. Das gehört eher zu Android-Herstellern, die sich damit von ihresgleichen abzusetzen versuchen.
Und sorry, aber 550dpi ist einfach nur Quatsch.

Aber was übrigens immer gerne bei diesen Bildschirmdiskussionen vergessen wird: Apple hat 2013 mehr iPhones mit 4" Bildschirm verkauft als Samsung mit allen Varianten von Galaxy S und Note zusammen. Sie werden deshalb sehr vorsichtig sein, was die Vergrößerung des Iphones angeht.

Müßte ich raten, ich würde auf 4,5" tippen, bei gleichbleibender Auflösung.
Es wird dann ein riesen Geschrei geben, das sei viel zu wenig und das wolle niemand haben und dann wird es wieder das meistverkaufte iPhone aller Zeiten werden, wie immer...

Nightspider
2014-03-08, 14:56:14
550dpi sind überhaupt nicht Quatsch. Das wird es mittelfristig bei allen mobilen Devices geben, selbst bei Smartwatches. Langfristig wirst du sogar 550dpi auch bei Fernsehern haben, in vielleicht 25 Jahren.

Ich sehe 1280p im 8. iPhone (iPhone 6) nicht als unwahrscheinlich an. Dann könnte Apple wieder, wie beim iPhone 4, damit werben die Pixelzahl vervierfacht zu haben und würde damit noch nicht mal die höchste Auflösung bieten, da schon einige 4,7-5,5 Zoll Smartphones 2560*1440 bieten werden. Das iPhone könnte damit zumindest für kurze Zeit den Werbeslogan "höchste Pixeldichte" für sich verbuchen.

urpils
2014-03-08, 15:17:01
Meinst du das ernst? 1080p ist ein willkürlicher Standard? Allein das Wort willkürlich und Standard in einem Satz ist ja fast schon grotesk. :D

Und was hat das denn mit abgeschnitten zu tun? Du musst schlichtweg bei 1080p-Content überhaupt nichtmehr skalieren, bei 720p-Content nur noch x1,5 und bei 2160p-Content x0,5. Zudem wird jeder digitale Content (im iTunes-Store) so ausgeliefert, zudem ist praktisch jeder digitale Content heutzutage in diesen Formaten. Und das wird sich auch nichtmehr ändern. Wenn du Filme fürs iPhone fit machen willst, musst du im Optimalfall (1080p) nichtmal mehr Änderungen vornehmen, alles wird 1:1 dargestellt. Auch die Kameras bei Apple sind 720p/1080p. Auch da wird nur unnötig skaliert, wenn man das nativ haben kann.

Mal anders gefragt, was erhoffst du dir denn von diesen Krüppelauflösungen? Welchen Zweck haben die denn, außer das Apple hier Rücksicht auf die UI nimmt?


natürlich meine ich das vollkommen ernst. 1920x1080 ist eine rein willkürliche Format und Auflösungswahl. Es gibt keine physikalisches Prinzip, weswegen genau dieses Format gewählt werden sollte. 16:9 hat sich aufgrund diverser Kompromisse als Standard für den Heim-TV ergeben, ist allerdings nicht das Format, in dem alle Filme produziert werden. Natürlich sind TV-Serien und viele Produktion aufgrund der großen Verbreitung in 16:9 produziert, allerdings eben nicht alle - Im Kino werden in der Regel noch breitere Seitenverhätnisse gewählt, die dann eben auf Blurays bei 1080p "abgeschnitten" sind (oben und unten schwarze Balken).

Auch die Auflösung von 1920 bzw. 1080 ist mehr oder weniger willkürlich, da es eine Kombination aus technischer Machbarkeit, Kompromissen, diversen Interessen der Hersteller und Produzenten etc. war. Grundsätzlich hätten sowohl das Seitenverhältnis, als auch die Auflösung anders ausfallen können → deswegen spreche ich von "willkürlich".

Und das 16:9 Format muss nunmal nicht für alle Anwendungsbereiche (schon gar nicht Smartphones) ideal sein. Daher erscheint es mir durchaus sinnvoll ein anderes Seitenverhältnis oder andere Pixeldichten zu wählen, wenn dies unter den gegebenen Umständen mehr Sinn macht, als einfach nur ein Marketingschlagwort auf die Packung drucken zu können.

Der Sinn von 1080p-Videos auf etwa 4" Bildschirmen erschließt sich mir nicht direkt. Bei diesen Pixeldichten fällt eine Skalierung nahezu nicht auf und selbst wenn → es ist ein Smartphone - Filme schaut man in bester Qualität sicherlich nicht DARAUF.

Falls Batterielaufzeit, Displayformat, Produktionsgegebenheiten ein anderes Format/Auflösung als sinnvoller erscheinen lassen, als genau diese (willkürlichen ;) ) 1080p, dann sehe ich darin objektiv betrachtet kein Problem. Der meiste Content auf Smartphones sind nunmal nicht extra für 16:9 produzierte Filme/Videos, sondern eher Text, Mails, Webseiten, Bilder, etc. Wenn die Bedienbarkeit unter 16:9 leidet, gebe ich es gerne her.

und bezüglich Videoaufnahmen des iPhones: der Sensor hat nicht das 16:9 Format und nativ auch eine andere Auflösung. Einzig, weil Videos standardmäßig in 720p oder 1080p genutzt werden, wird die genutzte Sensorfläche eben auf jenes Format beschnitten - weil es bei Videos nunmal ein (einigermaßen sinnvoller) Standard ist. Warum Videos, die man später woanders schaut unbedingt im Displayformat oder der Displayauflösung aufgenommen werden sollten, würde sich mir nicht erschließen.

smalM
2014-03-08, 19:00:58
Langfristig wirst du sogar 550dpi auch bei Fernsehern haben, in vielleicht 25 Jahren.

;D

Ailuros
2014-03-08, 19:34:11
Wenn die iPhones groesser werden koennte Apple etwas wie 1704*960 waehlen um:

1. Ihre "Einzigartigkeit" zu erhalten.
2. Alle hier zu nerven weil keiner es richt geraten hat ;D

Nebenbei zu etwas wichtigeren Einzelheiten die Cyclone CPU im iPhone5S wird in der Kishonti Datenbank fuer 1.2GHz (und nicht 1.3) angegeben: http://www.glbenchmark.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple+iPhone+5S&testgroup=info

Sunrise
2014-03-09, 10:25:45
@urpils:
OK, ich verstehe jetzt, was du mit 'willkürlich' ausdrücken willst. Allerdings ist das was du schreibst eine extrem theoretische und nicht auf die digitale Realität übertragbare Sicht, vor allem aber ist das iPhone bereits praktisch 16:9 (1136/640 ergeben 1,775) während "echtes" 16:9 (1,777~) ergibt. Deshalb spreche ich auch davon, dass man anstatt dieser "verkrüppelten" 16:9-Auflösung auch gleich eine alltagstaugliche verwenden könnte, die (1) zu dem ausgelieferten Content passt und (2) die Skalierung deutlich genauer wird und man dadurch (3) auch noch Performance bzw. Strom sparen könnte.

Das wirst du zwar auf einem 4" Display nicht unbedingt erkenne können, aber erstens wird das iPhone wohl größer werden (die Pixelauflösung wird sich auch erhöhen) und du kannst zumindest überhaupt mal irgendwas nativ darstellen oder 1/2- oder 1/4-Teiler nutzen, die auch noch verdammt genau sind im Gegensatz zu dem, was aktuell passiert.

Bei dem Rest den du schreibst, hast du Recht, jedoch ist ein iPhone immer ein Kompromiss (genauso wie ein iPad) und so gerne wir es hätten, schwarze Balken etc. werden sich nicht vermeiden lassen. Daher sollte man den kleinsten gemeinsamen Nenner finden, der im Alltag auch Sinn ergibt. Das iPad hat ja auch nicht ohne Grund 4:3, während das iPhone praktisch schon 16:9 ist. Apple richtet die Devices so aus, dass der Content der dargestellt wird auch entsprechende Berücksichtigung im Format findet. Für ein iPad wäre 16:9 IMHO grauenhaft.

Wenn die iPhones groesser werden koennte Apple etwas wie 1704*960 waehlen um:

1. Ihre "Einzigartigkeit" zu erhalten.
2. Alle hier zu nerven weil keiner es richt geraten hat ;D]
ARGH! :D

urpils
2014-03-09, 10:37:43
@urpils:
OK, ich verstehe jetzt, was du mit 'willkürlich' ausdrücken willst. Allerdings ist das was du schreibst eine extrem theoretische und nicht auf die digitale Realität übertragbare Sicht, vor allem aber ist das iPhone bereits praktisch 16:9 (1136/640 ergeben 1,1775) während "echtes" 16:9 (1,777~) ergibt. Deshalb spreche ich auch davon, dass man anstatt dieser "verkrüppelten" 16:9-Auflösung auch gleich eine alltagstaugliche verwenden könnte, die (1) zu dem ausgelieferten Content passt und (2) die Skalierung deutlich genauer wird und man dadurch (3) auch noch Performance bzw. Strom sparen könnte.

Das wirst du zwar auf einem 4" Display nicht unbedingt erkenne können, aber du kannst zumindest überhaupt mal irgendwas nativ darstellen. Denn derzeit ist es fast egal, welchen Content du auf dem iPhone dir ansiehst, hier wird _immer_ irgendwie interpoliert.

wir bewegen uns leider mittlerweile zieeemlich weit offtopic - ich werde nach diesem Post auch erstmal nichts mehr dazu sagen, um das Thema nicht ZU weit entgleiten zu lassen - im Zweifel machen wir einen neuen Thread dafür auf.

Deine Sicht ergibt dann Sinn, wenn man ausschließlich Video betrachtet. Der allergrößte Anteil von allem, was auf dem iPhone angezeigt wird sind jedoch nicht Videos, sondern Apps - und diese sind auf genau die aktuelle Displayauflösung hin gestaltet. Bei einer solch "krummen" Änderung des Seitenverhältnissen müssten also ALLE Apps krumm skaliert werden (oder schwarze Balken anzeigen), ohne dass in irgendeiner Form ein merklicher Gewinn zu spüren wäre. Das halte ich aus Apples und Anwendersicht für einen großen Fehler, der nahezu keinerlei Sinn/Gewinn macht.

Bei Text würde eine Skalierung in der Form viel deutlicher (negativ) auffallen - bei Video würde man auf dem iPhone nahezu gar keinen Unterschied erkennen - und selbst wenn ist es immernoch ein eher sekundärer Nutzen, der sämtliche Nachteile (alle Apps müssten neu gestaltet werden oder würden das Display nicht ausnutzen oder eine schreckliche Textdarstellung bieten (was nunmal mit der häufigste Darstellungsfall auf dem iPhone ist) nicht ansatzweise aufwiegt.

Nahezu keinerlei Gewinn würde massiven Nachteilen gegenüberstehen und ich kann beim besten Willen (und Verständnis für deinen Standpunkt) keinen Sinn darin erkennen.

Mittlerweile (vor allem stark mit iOS7) treibt Apple zwar Möglichkeiten voran und ermutigt Entwickler auflösungsunabhängig zu designen, allerdings nutzen dies nicht alle Apps.

Ich halte es nicht für absolut unmöglich, dass Apple auf exakt 16:9 schwenkt, nach allem was man von Apple gesehen hat, halte ich es aber für ziemlich unwahrscheinlich und halte das auch nicht für ein nennenswertes Problem.

Wir werden sehen was passiert :) Falls Apple mit einem neuen Displayformat kommt (womit ja fast schon gerechnet wird), würde es kaum Sinn machen, nur eine marginale Änderung von bisherigen Größen zu wählen. Entweder kommt etwas komplett anderes, oder eine mehr oder weniger "ganzzahlige" Verbreiterung/Verlängerung des Displays, ähnlich wie es vom iPhone 4(s) auf 5 stattgefunden hat. (eine Reihe oder spalte mehr Icons oder beides). Das würde zumindest Apples bisheriger Strategie entsprechen und auch absolut in Ordnung (für ein Smartphone) sein.

Sunrise
2014-03-09, 10:47:15
Wir werden sehen was passiert :) Falls Apple mit einem neuen Displayformat kommt (womit ja fast schon gerechnet wird), würde es kaum Sinn machen, nur eine marginale Änderung von bisherigen Größen zu wählen. Entweder kommt etwas komplett anderes, oder eine mehr oder weniger "ganzzahlige" Verbreiterung/Verlängerung des Displays, ähnlich wie es vom iPhone 4(s) auf 5 stattgefunden hat. (eine Reihe oder spalte mehr Icons oder beides). Das würde zumindest Apples bisheriger Strategie entsprechen und auch absolut in Ordnung (für ein Smartphone) sein.
Ja, werden wir sehen. Allerdings wirst du dich wohl damit anfreuden müssen, dass wir von 16:9 beim iPhone so schnell nicht wegkommen, was wohl u.a. auch an der Haptik des iPhone liegt (schmaler = besser zu halten).

Ich denke, wir überlassen es einfach Apple und schauen dann im September?, was passiert. Ist wie du schon richtig sagtest, sowieso off-topic hier.

smalM
2014-03-09, 11:12:31
Apple wird einfach die Größe und Auflösung, die Ihnen paßt, auswählen und sucht sich dann Hersteller, die davon 100 Mio. Stück im Jahr liefern können, ohne jede Rücksicht auf das, was andere machen.

Und 1704x960 fällt wg. Ailuros' Punkt 2 weg :D

Cyclone: Sind die 1200MHz nicht die Obergrenze bei thermischer Auslastung im iPhone?

sth
2014-03-09, 13:21:09
Naja, ganz frei sind sie bei der Wahl der Bildschirmauflösung nicht, da UIKit keine DPI-abhängige Skalierung unterstützt. Seit 2011 drängt Apple zwar Entwickler, ihre Apps theoretisch kompatibel für variierende Auflösungen zu machen (mittels Cocoa AutoLayout, welches seit iOS5 standardmäßig für neue Projekte aktiviert ist), aber auch das unterstützt auch nicht wirklich dynamische Skalierung auf DPI-Basis (im Code schon, von den Assets her aber nur ganzzahlige Werte). Und auch wenn sie das ändern: Es dauert erfahrungsgemäß Monate bis die wichtigsten Apps alle umgestellt sind und bis dahin braucht es einen optisch akzeptablen Fallback.

Lange Rede kurzer Sinn: Apple ist schon mehr oder weniger gezwungen im Bereich von rund 330dpi oder einem ganzzahligen vielfachen dessen zu bleiben, könnte damit aber im Grunde jede beliebige Bildschirmgröße realisieren. Dass sie sich dabei aber nicht an irgendwelche gängigen Auflösungen halten müssen sieht man ja jetzt schon.

Wenn ich nun raten müsste, dann würde ich sagen wir landen bei 4.5 bis 4.7", weiterhin 16:9 und ~330dpi. Einen DPI-Sprung halte ich im Moment für unwahrscheinlich, da es nicht wirklich nötig ist und die Akkulaufzeit deutlich darunter leiden würde. Vielleicht irgendwann in der Zukunft mal.

Coda
2014-03-09, 14:08:50
Man verschwendet weniger Strom ein 1080p video in 1080p abzuspielen als es auf z.B. 720p anzupassen
Das ist sowas von vernachlässigbar. Ich gehe sogar so weit und behaupte, dass die Scalar-Logik sogar läuft, wenn es pixelgenau passen würde.

registrierter Gast
2014-03-09, 14:17:42
Wenn ich nun raten müsste, dann würde ich sagen wir landen bei 4.5 bis 4.7", weiterhin 16:9 und ~330dpi. Einen DPI-Sprung halte ich im Moment für unwahrscheinlich, da es nicht wirklich nötig ist und die Akkulaufzeit deutlich darunter leiden würde. Vielleicht irgendwann in der Zukunft mal.
Mehr DPI bei gleicher Bildschirmgröße führt zu kaum Mehrverbrauch. Das Gros des Akkus frisst die Hintergrundbeleuchtung und die bleibt bei gleicher Bildschirmgröße gleich.

urpils
2014-03-09, 14:29:35
Mehr DPI bei gleicher Bildschirmgröße führt zu kaum Mehrverbrauch. Das Gros des Akkus frisst die Hintergrundbeleuchtung und die bleibt bei gleicher Bildschirmgröße gleich.

Das stimmt soweit ich weiß nicht. Bei höheren dpi und gleicher displaygröße muss für gleiche effektive Helligkeit eine stärkere Hintergrundbeleuchtung verbaut werden, da durch mehr Pixel auch mehr verdeckte Fläche vorhanden ist.

Ailuros
2014-03-09, 15:30:36
Das ist sowas von vernachlässigbar. Ich gehe sogar so weit und behaupte, dass die Scalar-Logik sogar läuft, wenn es pixelgenau passen würde.
Es ist leider gar nichts mehr vernachlässigbar in dem Markt. Genauso wie mit dem half float/FP16 Zeug. Ein FP16 FLOP verbraucht weniger als die Hälfte als auf einer FP32 ALU & es stellt sich auch heraus dass leider FP16 zu oft für Fragment processing benutzt wird als es sein sollte.
Lange Geschichte kurz, jeder letzte Dreck der Strom sparen kann ist hier wichtig egal wie "trivial"es für desktop sein könnte.
Es ist auch kein Geheimnis dass Apple die Decoder via SW trimmt um Strom zu sparen.

sth
2014-03-09, 16:03:59
Mehr DPI bei gleicher Bildschirmgröße führt zu kaum Mehrverbrauch. Das Gros des Akkus frisst die Hintergrundbeleuchtung und die bleibt bei gleicher Bildschirmgröße gleich.
Das stimmt soweit ich weiß nicht. Bei höheren dpi und gleicher displaygröße muss für gleiche effektive Helligkeit eine stärkere Hintergrundbeleuchtung verbaut werden, da durch mehr Pixel auch mehr verdeckte Fläche vorhanden ist.

Eben, so sehe ich das auch. Höhere Auflösung benötigt stärkeres Backlight und natürlich auch eine performantere GPU. Bestes Beispiel damals iPad 3: Deutlich größerer Akku (dickeres Gehäuse, höheres Gewicht) um eine vergleichbare Akkulaufzeit zum iPad 2 zu erreichen und trotz aller Anstrengungen (128bit SE für die GPU) war es von der Grafikperformance her unter'm Strich langsamer als der Vorgänger.

Wenn man jetzt nochmal einen genau so großen Sprung machen würde stände man wieder vor dem gleichen Problem.

Da mir beim iPhone (im Gegensatz zum iPad) die Pixel bei vorhandener Kantenglättung eigentlich nie auffallen, würde ich derzeit mehr GPU-Power und längere Akku-Laufzeit einer nochmals gedoppelten Auflösung klar vorziehen. Und mit genügend GPU-Ressourcen kann man dann ja auch ggf. AA zuschalten.

Ailuros
2014-03-09, 17:25:19
Eben, so sehe ich das auch. Höhere Auflösung benötigt stärkeres Backlight und natürlich auch eine performantere GPU. Bestes Beispiel damals iPad 3: Deutlich größerer Akku (dickeres Gehäuse, höheres Gewicht) um eine vergleichbare Akkulaufzeit zum iPad 2 zu erreichen und trotz aller Anstrengungen (128bit SE für die GPU) war es von der Grafikperformance her unter'm Strich langsamer als der Vorgänger.

Im gegebenen Fall von iPhone5s zum naechsten iPhone gilt das obrige eben nicht, weil die 6430 im iPhone5S genauso auf ~450MHz taktet wie im iPadAir wo eine 2048*1536 Aufloesung/display damit gefuettert werden. Die 3.6 GTexels/s Fuellrate auf der GPU reichen sogar fuer ein 4k display aus.

------------------------------------------------------------------------------

http://www.phonearena.com/news/TSMC-is-producing-the-A8-chips-for-the-next-iPhone-amidst-rumors-of-final-Apple-Samsung-break-up_id53516

Nichts Neues nur dass die Massenproduktion des A8@20SoC gerade angefangen hat.

sth
2014-03-09, 17:41:32
Im gegebenen Fall von iPhone5s zum naechsten iPhone gilt das obrige eben nicht, weil die 6430 im iPhone5S genauso auf ~450MHz taktet wie im iPadAir wo eine 2048*1536 Aufloesung/display damit gefuettert werden.
Da hast du allerdings recht.

Ailuros
2014-03-09, 17:48:34
Da hast du allerdings recht.

Im Fall vom iPad3 z.B. oder davor wo es jeweils A6X fuer iPads und A6 fuer iPhones gab, koennte es mehr oder weniger noch gelten (obwohl die Fuellraten auf smartphone SoCs stets grosszuegig waren), aber bei einem einzigem A7 fuer Pads und phones (mit nur unterschiedlicher CPU Frequenz) kann es nicht anders sein.

Coda
2014-03-09, 19:21:39
Es ist leider gar nichts mehr vernachlässigbar in dem Markt.
Das ist doch wohl lächerlich. Video-Scaling ist Hardware, das Zeug ist völlig vernachlässigbar gegenüber CPU und GPU.

Ailuros
2014-03-09, 19:52:18
Das ist doch wohl lächerlich. Video-Scaling ist Hardware, das Zeug ist völlig vernachlässigbar gegenüber CPU und GPU.

Apple nutzt nie die vollen Faehigkeiten der decoders aus um Strom zu sparen; wenn Du es als "laecherlich" empfindest frag einfach mal einen Kollegen der sich mit dem Zeug beschaeftigt wie die Situation wirklich aussieht.

Coda
2014-03-09, 20:32:34
Du willst mir ernsthaft erzählen, dass ein High-DPI-Display, inklusive höherer Speicherbandbreite insgesamt weniger Strom verbraucht ist als ein Video von 1080p auf 720p runterzuskalieren?

Falls du das wirklich glaubst, bitte. Ich halte es für vollständigen Bullshit.

Ailuros
2014-03-09, 20:40:29
Du willst mir ernsthaft erzählen, dass ein High-DPI-Display, inklusive höherer Speicherbandbreite insgesamt weniger Strom verbraucht ist als ein Video von 1080p auf 720p runterzuskalieren?

Falls du das wirklich glaubst, bitte. Ich halte es für vollständigen Bullshit.

Ich hab nichts dergleichen erzaehlt, mach mir aber auch nicht die Muehe Dir mit dem Unterton es weiter zu erklaeren wie es gemeint war. EOD.

registrierter Gast
2014-03-09, 23:39:44
Das stimmt soweit ich weiß nicht. Bei höheren dpi und gleicher displaygröße muss für gleiche effektive Helligkeit eine stärkere Hintergrundbeleuchtung verbaut werden, da durch mehr Pixel auch mehr verdeckte Fläche vorhanden ist.

Eben, so sehe ich das auch. Höhere Auflösung benötigt stärkeres Backlight und natürlich auch eine performantere GPU. Bestes Beispiel damals iPad 3: Deutlich größerer Akku (dickeres Gehäuse, höheres Gewicht) um eine vergleichbare Akkulaufzeit zum iPad 2 zu erreichen und trotz aller Anstrengungen (128bit SE für die GPU) war es von der Grafikperformance her unter'm Strich langsamer als der Vorgänger.
Natürlich hat ein Display durch mehr DPI auch mehr Verbrauch. Aber der Mehrverbrauch ist längst nicht so hoch, wie ihr denkt.

Ich beziehe mich hierbei auf eine Aussage eines Qualcomm Typen im Frühjahr diesen Jahres. http://www.youtube.com/watch?v=9mNexBFZ7wo&t=1m25s
Er rechnet zu Ende des Jahres mit 4K Tablets mit in etwa gleicher Laufleistung. Der Mehrverbrauch des Displays wird durch Strukturverbesserungen in der Hardware aufgefangen werden.

deekey777
2014-03-10, 18:14:04
Apple to stick with Samsung for A8 chip, final manufacturing prep underway - report (http://appleinsider.com/articles/14/03/10/apple-to-stick-with-samsung-for-a8-chip-final-manufacturing-prep-underway---report)

Contrary to recent rumors, Samsung has won the contract to produce Apple's next-generation A-series processor and will do so at the same Texas facility that churns out the 64-bit A7 at the heart of the iPhone 5s and iPad Air, according to a new report from South Korea.

Samsung Manufacturing Issues Reportedly Overblown, May Split A8 Production with TSMC (http://www.macrumors.com/2014/03/10/samsung-tsmc-a8/)

Die wissen selbst nicht, was sie schreiben... X-D

Ailuros
2014-03-10, 18:52:28
Samsung hat nachdem was ich im Hintergrund hoere noch ein paar Probleme mit ihrem 20nm. TSMC koennte nie von sich alleine Apple's Volumen decken, wobei das wahrscheinlichste ist dass Apple mit TSMC anfaengt und dann etwas spaeter auch Samsung's foundry mitmischt.

mboeller
2014-03-11, 19:20:33
natürlich meine ich das vollkommen ernst. 1920x1080 ist eine rein willkürliche Format und Auflösungswahl. Es gibt keine physikalisches Prinzip, weswegen genau dieses Format gewählt werden sollte. 16:9 hat sich aufgrund diverser Kompromisse als Standard für den Heim-TV ergeben

Bei 16:9 stimme ich dir zu. Hat aber sehr wahrscheinlich was mit den früheren Bildröhren zu tun. Die konnte man wahrscheinlich wirtschaftlich nicht breiter machen (also 16:8 oder so...)

1920 x 1080 ->

- 1080 = 135 x 8 Pixel

- Bei 16:9 ergibt 1920x1080 sowohl bei der horizontalen und vertikalen Auflösung einen ganzzahligen Wert

und vor allem (früher war Speicher richtig TEUER):

- 1920 x 1080 x 16bit = 33177600bit = 4050kbyte = 3,955 MB....passt also gerade so in einen 4MB Speicher.

ganz so willkürlich war die Definition also nicht. Ist halt schon ein wenig älter der Standard. :)

Nightspider
2014-03-11, 19:29:40
Samsung hat nachdem was ich im Hintergrund hoere noch ein paar Probleme mit ihrem 20nm. TSMC koennte nie von sich alleine Apple's Volumen decken, wobei das wahrscheinlichste ist dass Apple mit TSMC anfaengt und dann etwas spaeter auch Samsung's foundry mitmischt.

In iOS 7.1 sind zwei neue iPads aufgetaucht, die vielleicht eine iPad Pro Reihe bzw. eine größere iPads darstellen könnten. Diese werden natürlich teurer und könnten vielleicht bald vorgestellt werden. Da man für diese wahrscheinlich deutlich geringere Stückzahlen benötigen würde, würde es aktuell sicherlich reichen wenn nur TSM 20nm für Apple fertigt, falls denn die neuen iPads schon den A8 bekommen.
Bis ~Oktober, wenn das neue iPhone und iPads herauskommt, könnte TSMC es alleine stämmen und von da an könnte Samsung unterstützen.

smalM
2014-03-12, 18:09:01
Mit dem A8 wird die Kennung auf iPad5 springen, das ist sicher.
Da es sich hier aber um die Kennungen iPad4,3 bzw. 4,6 handelt, sind wohl Varianten des iPad Air (4,1 & 4,2) und iPad mini Retina (4,4 & 4,5) gemeint.
Daß jetzt noch ein "iPad Pro" mit einem A7 rauskommt, halte ich für nicht sehr wahrscheinlich.

Nightspider
2014-03-12, 18:47:02
Vielleicht erhöht man nur die RAM Menge beim Air und Mini 2 auf 2GB.^^

deekey777
2014-03-12, 19:12:29
Die Vermutung ist, dass es sich um aktualisierte iPads handelt, zB LTE für China. Oder spezielle iPads für China. Oder für Russland.

Oder dahinter versteckt sich ein neues ATV. :weg:

deekey777
2014-03-14, 19:32:28
Digitimes Research: 12-inch tablets facing development hurdles (http://www.digitimes.com/news/a20140314PD204.html)

sth
2014-03-14, 20:17:24
"BREAKING NEWS! Apple may or may not release a bigger iPad"

Ailuros
2014-03-14, 23:03:28
Digitimes Research: 12-inch tablets facing development hurdles (http://www.digitimes.com/news/a20140314PD204.html)

Keine Ahnung was Apple genau vorhat, aber digitimes reimt mal wieder einen Haufen Scheisse zusammen. Das T300 dual boot tablet von Asus wird afaik nicht veroeffentlicht werden weil sich M$ und Google entschieden haben dass sie keine dual boot Geraete haben wollen: http://online.wsj.com/news/articles/SB10001424052702303546204579438351054533592?mg=reno64-wsj&url=http%3A%2F%2Fonline.wsj.com%2Farticle%2FSB1000142405270230354620457943835105 4533592.html

deekey777
2014-03-18, 15:18:28
Tatsächlich hat Apple heute das iPad 2 durch das iPad 4 RD ersetzt (beide 16 GB). Das iPad RD beherrscht die gleichen LTE-Frequenzen wie das iPad Air, ist somit aktualisiert worden. http://store.apple.com/de/buy-ipad/ipad-retina/16gb-schwarz-wifi-cellular

Jetzt spinne ich weiter und frage, im welchen Prozess der A6X gefertigt wird: noch 32 nm oder schon 28 nm?

Ach, ist das aufregend.

Ailuros
2014-03-18, 17:34:26
Aufregend? Ich muss wohl mal wieder wesentliches verpassen :confused:

***edit: http://ciechanowski.me/blog/2014/01/05/exploring_gpgpu_on_ios/

Sunrise
2014-03-18, 18:14:26
Aufregend? Ich muss wohl mal wieder wesentliches verpassen :confused:
Er hat wohl mal wieder den Ironie-Smiley vergessen. :D

@deekey777:
Ist eine komische Aktion, jetzt wieder das iPad 4 anzubieten. Scheinbar hat man wirklich noch recht viele iPad 2-Käufer, die man mit dem iPad 4 jetzt befriedigen will. Allerdings sollte - wenn der A8 da ist - dann relativ schnell das 4er vom aktuellen A7-iPad abgelöst werden, damit man die "alten", zu 64bit-inkompatiblen Cores, bzw. das "alte" Featureset dann loswird. Das kann Apple ja aktuell nicht machen, da der A7 noch dem Topmodell vorenthalten sein muss.

An einen Shrink vom A6X glaube ich weiterhin nicht. 32nm HKMG sollte doch relativ billig sein, mittlerweile, der Shrink wäre wohl auch aufgrund des Quad-Interfaces mit Sicherheit nicht optimal.

Ailuros
2014-03-18, 18:15:52
Ιch hab auf jeden Fall versucht mit dem edit/link etwas interessanteres in den Laden zu bringen ;)

deekey777
2014-03-18, 21:01:44
Er hat wohl mal wieder den Ironie-Smiley vergessen. :D

@deekey777:
Ist eine komische Aktion, jetzt wieder das iPad 4 anzubieten. Scheinbar hat man wirklich noch recht viele iPad 2-Käufer, die man mit dem iPad 4 jetzt befriedigen will. Allerdings sollte - wenn der A8 da ist - dann relativ schnell das 4er vom aktuellen A7-iPad abgelöst werden, damit man die "alten", zu 64bit-inkompatiblen Cores, bzw. das "alte" Featureset dann loswird. Das kann Apple ja aktuell nicht machen, da der A7 noch dem Topmodell vorenthalten sein muss.

An einen Shrink vom A6X glaube ich weiterhin nicht. 32nm HKMG sollte doch relativ billig sein, mittlerweile, der Shrink wäre wohl auch aufgrund des Quad-Interfaces mit Sicherheit nicht optimal.

Nichts ist komisch, was Apple macht. Bis auf das iPhone 5C.
Apple braucht(-e) dringend ein günstigeres iPad mit 9,7''+RD und LTE für die meisten LTE-Netze weltweit. Beides konnte das iPad 2 nicht aufweisen. Apple hat wohl bis zum letzten Moment gewartet, um das iPad 2 auszumustern. Aber ich glaube nicht, dass Apple diesen Zug für vermeintliche iPad-2-Käufer macht, sondern für Netzanbieter, um konkurrenzfähig zu bleiben.

Auch wenn ein Shrink unwahrscheinlich ist, so könnte ein Shrink einmal die Laufzeit verlängern oder einen kleineren leichteren Akku bieten.

Wird interessant sein, was Apple mit aktuellen A5-Geräten anstellt, schließlich sind iPod Touch 5G und iPad mini erst in der zweiten Hälfte 2012 auf den Markt gekommen.

robbitop
2014-03-18, 21:14:07
Das iPhone 5C ist IMO eine gute Idee. Allerdings zu teuer für das Gebotene. Eventuell will sich Apple ja erstmal von oben an den Preis herantasten, der den optimalen Gewinn erzielt. Setzt man zu tief an, kann man mit dem Preis nicht mehr so einfach hoch. Reduzieren geht aber immer. Ggf. ging man davon aus, dass die Apple Käuferschaft ja generell wenig Probleme mit höheren Preisen hat. Jetzt reduziert man bereits den Preis.

Das 5C ist in jedem Falle kein geiz-ist-geil Smartphone. Es ist halt ein iPhone. Dieses Spiel sollte Apple auch nicht mitmachen. Da versaut man sich nur die Marge. Das kann man Android Herstellern überlassen.

Ailuros
2014-03-18, 23:36:01
Es wird wohl beim naechsten Schub gravierendere Unterschiede zwischen dem "grossen" und "kleinen" iPhone geben ;)

Bums-Geruechte von angeblichen 2.6GHz Frequenzen fuer den A8 Prozessor wuerde ich aber mit lockerem Gewissen in die Muelltonne werfen ;)

robbitop
2014-03-19, 08:49:33
Ich tippe mal darauf, dass das iPhone 6C bei 4" bleibt während das 6 die 4,7" bekommt.
Und eventuell gibt es ja dann noch das Phablet mit 6".

Ailuros
2014-03-19, 09:18:59
Wozu gleich 3 iPhones?

robbitop
2014-03-19, 09:35:38
Keine Ahnung. Die andere Option ist, dass es kein Phablet gibt.

Oder: das 6C ist 4,7" und das 6 dann 5,7".

Dann haben wir endlich alle ein Deppen-Phablet :eek: Ich hoffe es aber nicht...

Ailuros
2014-03-19, 09:56:41
Ich weiss wirklich nicht was sie vorhaben, aber ich wuerde den 5C Nachfolger auf 4" lassen und den 5S Nachfolger auf 4.7-5" damit es wie gesagt einen gravierenderen Unterschied zwischen den beiden gibt. Die LTPS displays (ueberhaupt von Sharp) sind in der Zwischenzeit so weit dass der Stromverbrauch innerhalb von Grenzen kein Kopfschmerz mehr ist.

robbitop
2014-03-19, 10:24:25
Wäre logisch. Aber es gibt beständige Gerüchte zu einem Phablet. Mal sehen, ob sich das bewahrheitet.

prinz_valium
2014-03-19, 13:00:51
für apple ist doch 5 zoll ein phablet :D

robbitop
2014-03-19, 15:43:05
für apple ist doch 5 zoll ein phablet :D
Tatsächlich galt bspw das Dell Streak mit 5" als Phablet.


http://en.wikipedia.org/wiki/Phablet

Durch das extreme Wachstum der Displays hat sich lediglich die Empfindung geändert.

Ailuros
2014-03-19, 18:10:02
Ist doch im Grund wurscht was man ab wieviel Zoll genau wie nennen will. Gestaltet man ein jegliches iPhone in der Zukunft zu gross konkurriert man quasi automatisch mit iPad mini tablets.

Sonst ist alles eine Gewohnheitssache; als ich zuerst mein 5" smartphone in die Hand nahm kam es mir gigantisch vor. Jetzt nach einiger Zeit erscheinen mir die meisten anderen smartphones relativ winzig.

Die absolute Laecherlichkeit ist dann so etwas: http://semiaccurate.com/2014/03/04/hisense-wins-biggest-phone-award-6-8-maxe-x1/

Ailuros
2014-03-20, 08:52:21
http://semiaccurate.com/2014/03/19/automotive-market-mirage-traditional-chip-makers/

BigKid
2014-03-23, 09:12:29
Ist an dem Artikel was drann? Ich meine sie zweite Hälfte über die GPU...

https://curved.de/news/iphone-6-mit-bildstabilisator-brandneuem-grafikchip-34508

Raytracing im Smartphone? Rly?

Botcruscher
2014-03-23, 09:32:14
Beherrschen und jenseits von ein paar Spielereien nutzen ist was anderes.

BigKid
2014-03-23, 10:09:35
Ist doch im Grund wurscht was man ab wieviel Zoll genau wie nennen will. Gestaltet man ein jegliches iPhone in der Zukunft zu gross konkurriert man quasi automatisch mit iPad mini tablets.

Sonst ist alles eine Gewohnheitssache; als ich zuerst mein 5" smartphone in die Hand nahm kam es mir gigantisch vor. Jetzt nach einiger Zeit erscheinen mir die meisten anderen smartphones relativ winzig.

Die absolute Laecherlichkeit ist dann so etwas: http://semiaccurate.com/2014/03/04/hisense-wins-biggest-phone-award-6-8-maxe-x1/

So lächerlich finde ich das gar nicht. Im Prinzip ist das auch nix anderes als ne Smartwatch.
Das Phablet bleibt ausser zum surfen in der Handtasche, der Jacke, dem Rucksack oder whatever, den Rest erledigt man mit mit nem kleinen handlicheren Teil...Solange das nicht den Preis zu sehr hochtreibt... Das Transformer ist doch eigentlich auch ne Idee in die selbe Richtung...

AnarchX
2014-03-23, 11:01:49
Beherrschen und jenseits von ein paar Spielereien nutzen ist was anderes.
Mit den Stückzahlen der iOS-Geräte könnten aber Raytracing-/Hybrid-Lösungen für Endkundengrafik ein deutlich größere Bedeutung erlangen als es bisher der Fall war.

RLZ
2014-03-23, 11:14:31
Ist an dem Artikel was drann? Ich meine sie zweite Hälfte über die GPU...
Samsung arbeitet da auch dran.
Allerdings sollte man von der nicht mal Handvoll Strahlen pro Pixel nicht allzu viel erwarten.

Ailuros
2014-03-23, 15:41:54
Samsung arbeitet da auch dran.

Echt? Ich dachte dass nachdem sie etliche Milliarden in den Mist geschuettet haben dass es endlich begraben wurde.

Allerdings sollte man von der nicht mal Handvoll Strahlen pro Pixel nicht allzu viel erwarten.

Erstens ist es stets nur als hybride Antwendung mit rasterizing gedacht und zweitens ist die angegebene ray tracing Leistung fuer eine ULP GPU IP in welcher high end GPU momentan hoeher?

10 sind etwas mehr als "eine handvoll" :

http://forum.beyond3d.com/showpost.php?p=1834815&postcount=8

Wenn man fuer N Bums-spiegelungen durch raytracing weniger als halb so viel Strom verdonnert als mit rasterizing ist man schon im Gewinn (wobei IMG genau genommen um 44x Mal weniger die area angibt fuer RT durch dedizierte hw gegen shading ALUs). Die Frage ist nur ob und inwiefern die Entwickler wirklich an dem Zeug interessiert sind.

Ist an dem Artikel was drann? Ich meine sie zweite Hälfte über die GPU...

https://curved.de/news/iphone-6-mit-bildstabilisator-brandneuem-grafikchip-34508

Raytracing im Smartphone? Rly?

Unter 28nm eher =/> tablets wenn ueberhaupt nicht gleich ab 16FF.

Hier die ganzen slides aus der Prasentation: http://imgur.com/a/8zHHE#1

...von jemand bei B3D:

http://forum.beyond3d.com/showpost.php?p=1835624&postcount=27

***edit:

.....und um jeglicher Verwirrung zu entgehen:

* Es wird fuer eine sehr lange Zeit spezielle GPU Varianten mit RT hw geben. Es werden nach wie vor reine rasterizers hauptsaechlich verkauft werden.
* RT wurde nicht vor anderem Zeug wie Tessellation vorgezogen obwohl ich dummerweise den Eindruck hatte.
* Die RT Faehigkeiten im Wizzard sind mehr oder weniger einer ULP SoC CPU und GPU angepasst.
* So wie es aussieht wird es fuer die Caustic RT add in boards auch wohl Nachfolger geben.

Ailuros
2014-03-31, 11:44:43
Laurent06@B3D hat ein paar neue Einzelheiten fuer Cyclone entdeckt ab #2321 http://forum.beyond3d.com/showthread.php?t=60334&page=93

....aber ich versteh von dem meisten Zeug sowieso nicht viel.

***edit: Anand: http://www.anandtech.com/show/7910/apples-cyclone-microarchitecture-detailed

robbitop
2014-03-31, 16:40:50
***edit: Anand: http://www.anandtech.com/show/7910/apples-cyclone-microarchitecture-detailed
:eek: Brutal! Wahnsinn, wie breit Apple Cyclone gebaut hat. Kein Wunder, dass das Ding mal eben Faktor 2 an IPC (von Swift) liefert. Wie Anand recht treffend formuliert, sieht Cyclone aktuellen Intel Cores (vom Schaubild her) deutlich ähnlicher als bisherigen SFF CPUs.

So viel Execution Ressourcen schreien ja fast nach SMT. 6 Decoder, 3 FPU Ports und 4 ALU Ports...
Ich frage mich, was die beiden rechten ALUs können. Können alle ALUs load/store Befehle oder sind das nur die rechten beiden? MUL und DIV werden explizit betitelt - ich sehe nirgends ADD. Können das alle ALUs?
Ich denke mal, dass DIV ein MUL inkludiert?

Da sich Swift und Cyclone deutlich unterscheiden, sollte klar sein, dass Cyclone keine Weiterentwicklung von Swift ist. Offenbar hat man, wie Intel, also 2 Entwicklungsteams. Tick.Tock.

Ich merke langsam, dass ich meine ursprünglichen Bedenken hinsichtlich CPU Design bei Apple (relativ zu Intel) zurücknehmen muss. Die hätten definitiv das Potenzial auch für ihre Macs CPUs zu bauen. (allerdings dann mangels Lizenz ohne x86 - bedeutet kein Bootcamp mehr)

Ailuros
2014-03-31, 17:49:33
Die brennende Frage ist wie es weitergehen koennte; denn nach mehr Breite sieht es nicht aus ausser ich verpasse wesentliches.

urpils
2014-03-31, 20:06:10
:eek: Brutal! Wahnsinn, wie breit Apple Cyclone gebaut hat. Kein Wunder, dass das Ding mal eben Faktor 2 an IPC (von Swift) liefert. Wie Anand recht treffend formuliert, sieht Cyclone aktuellen Intel Cores (vom Schaubild her) deutlich ähnlicher als bisherigen SFF CPUs.

So viel Execution Ressourcen schreien ja fast nach SMT. 6 Decoder, 3 FPU Ports und 4 ALU Ports...
Ich frage mich, was die beiden rechten ALUs können. Können alle ALUs load/store Befehle oder sind das nur die rechten beiden? MUL und DIV werden explizit betitelt - ich sehe nirgends ADD. Können das alle ALUs?
Ich denke mal, dass DIV ein MUL inkludiert?

Da sich Swift und Cyclone deutlich unterscheiden, sollte klar sein, dass Cyclone keine Weiterentwicklung von Swift ist. Offenbar hat man, wie Intel, also 2 Entwicklungsteams. Tick.Tock.

Ich merke langsam, dass ich meine ursprünglichen Bedenken hinsichtlich CPU Design bei Apple (relativ zu Intel) zurücknehmen muss. Die hätten definitiv das Potenzial auch für ihre Macs CPUs zu bauen. (allerdings dann mangels Lizenz ohne x86 - bedeutet kein Bootcamp mehr)

auch wenn es "quatsch" ist, darauf rumzureiten: sind es laut Artikel nicht 2 "ticks"?
Wenn man den Artikel liest, dann klingt es zumindest nicht mehr ausgeschlossen, dass sie ihre CPUs in Geräte weiter oben stecken könnten - allerdings ist auch irgendwie die Entwicklerkapazität ausgeschöpft.

Spannend wird es nun in meinen Augen wirklich beim nächsten iPhone. Legen sie nochmal eine neue Architektur hin, oder war das ein Kraftakt, von dem sie sich erstmal erholen müssen?

mczak
2014-03-31, 23:18:43
So viel Execution Ressourcen schreien ja fast nach SMT. 6 Decoder, 3 FPU Ports und 4 ALU Ports...

Die 6 Decoder sind nicht wirklich sicher, da müsste man weitere Tests laufen lassen, das geht aus dem llvm code nicht hervor. Es wäre auch sowas wie bei SandyBridge+ denkbar (also z.B. 4 Decoder, dank Loop Buffer können aber bis zu 6 Befehle pro Takt abgesetzt werden).

Ich frage mich, was die beiden rechten ALUs können. Können alle ALUs load/store Befehle oder sind das nur die rechten beiden? MUL und DIV werden explizit betitelt - ich sehe nirgends ADD. Können das alle ALUs?

Es müssten alle Int ALUs Adds beherrschen, ist eigentlich immer so.
Load/Store sind separat, ich denke es geht auch sowas wie 2 Adds + 2 Branches + 1 Load + 1 Store pro Takt. Laut dem Diagramm bei anand gehen auch 2 Stores, das halte ich für extrem unwahrscheinlich - 2 Loads könnten aber gehen.

Ich denke mal, dass DIV ein MUL inkludiert?

Nein das ist immer separat. Ein Hauptgrund ist dass die Dividiereinheit eigentlich nie fully-pipelined ist, d.h. während eine Division läuft könntest du sonst kein Mul parallel verarbeiten, und Divisionen brauchen ja ewig (wobei so im Vergleich mit anderen low-power CPUs ist da Cyclone auch recht flink).

Da sich Swift und Cyclone deutlich unterscheiden, sollte klar sein, dass Cyclone keine Weiterentwicklung von Swift ist. Offenbar hat man, wie Intel, also 2 Entwicklungsteams. Tick.Tock.

Naja man könnte das schon auch als Weiterentwicklung sehen, es ist aber klar dass da massive Aenderungen vorgenommen wurden.

Ich merke langsam, dass ich meine ursprünglichen Bedenken hinsichtlich CPU Design bei Apple (relativ zu Intel) zurücknehmen muss. Die hätten definitiv das Potenzial auch für ihre Macs CPUs zu bauen. (allerdings dann mangels Lizenz ohne x86 - bedeutet kein Bootcamp mehr)
Ja die früheren Intrinsity Jungs haben's offenbar echt drauf :-).
Ist wirklich erstaunlich dass Cyclone eher Haswell ähnelt als anderen auf effizient getrimmten low-power cpus. Quasi alle anderen Hersteller bauen relativ einfache 2-fach breite OoO Designs (oder "ein bisschen mehr als 2"), mal abgesehen von A15/A57 (ist aber auch bloss "echte" 3) aber deren Effizienz ist ja nicht so berühmt. Klar der Takt ist dafür auch tiefer.

robbitop
2014-04-01, 09:29:26
Die brennende Frage ist wie es weitergehen koennte; denn nach mehr Breite sieht es nicht aus ausser ich verpasse wesentliches.
Die Breite der Execution ist die eine Seite. Aber da gibt es sicher im Cache System, im Prefetcher, Sprungvorhersage, Front End etc noch eine ganze menge Tricks (die Intel im Laufe der Jahre nochmal richtig Performance gebracht haben), die man noch ziehen könnte. Aufgrund des TDP Budgets kann man davon aber sicher nicht sofort alle verbauen.
Ansonsten kann man bei einer so breiten Execution sicherlich irgendwann auch SMT verbauen. Ansonsten mehr Kerne und mehr Takt.

Da muss man eben die Effekte weiterer Shrinks nutzen (bzw. auf diese warten).

Aber eines ist sicher: die Performanceentwicklung wird immer mehr stagnieren. So ist das nunmal bei CPUs.


Ja die früheren Intrinsity Jungs haben's offenbar echt drauf
Da sind mit Sicherheit weit aus mehr gute Leute bei Apple als nur die akquirierten Leute von Intrinsity. Hatte man nicht auch P.A. Semi übernommen? Und ansonsten lockt sich Apple die besten Leute der Industrie von anderen Firmen zusammen. Von AMD und Intel sind auch schon IIRC eine Menge Leute zu Apple gewechselt.

Ailuros
2014-04-01, 09:38:51
Aber eines ist sicher: die Performanceentwicklung wird immer mehr stagnieren. So ist das nunmal bei CPUs.


Kein Zweifel; es ist dann aber auch wiederrum so dass wenn man einen gewissen Punkt erreicht man auch zunehmend weniger Gruende hat fuer hoehere CPU Leistung eben weil auch die sw nicht mehr anspruchsvoller wird am Ende.

robbitop
2014-04-01, 10:45:13
Ich tippe beim A8 auf mehr Takt und ggf. 4 Kerne mit einem Cyclone. Aber Apple ist, wie wir wissen, oftmals nicht vorhersehbar. Kann auch etwas völlig anderes sein.

Andererseits kann man auch nicht jedes Jahr eine neue µ-Arch bringen.

LordDeath
2014-04-01, 22:14:54
Ich merke langsam, dass ich meine ursprünglichen Bedenken hinsichtlich CPU Design bei Apple (relativ zu Intel) zurücknehmen muss. Die hätten definitiv das Potenzial auch für ihre Macs CPUs zu bauen. (allerdings dann mangels Lizenz ohne x86 - bedeutet kein Bootcamp mehr)

Beim Wechsel von Ivy Bridge zu Haswell wurde bei den MacBook Airs bei etwa gleicher Leistung quasi die Akkulaufzeit verdoppelt.
Wie sehr hinkt der A7 diesen ULV-Haswells denn gerade hinterher?

Ailuros
2014-04-02, 07:11:25
Beim Wechsel von Ivy Bridge zu Haswell wurde bei den MacBook Airs bei etwa gleicher Leistung quasi die Akkulaufzeit verdoppelt.
Wie sehr hinkt der A7 diesen ULV-Haswells denn gerade hinterher?

Sagen wir mal einfach dass es ist nicht unmoeglich ist dass wenn es Apple will Intel CPU desktop Leistung innerhalb sagen wir mal 3 Generationen in die Zukunft aufzuholen, obwohl es bis vor einiger Zeit als "unmoeglich" abgestempelt wurde. Aber dann natuerlich nicht so leicht fuer ULP SoCs denn Stromverbrauch wird dort die erste Bremse sein.

Ganon
2014-04-02, 10:18:51
Naja, ich rechne trotzdem nicht allzu früh mit "ARM-Desktops". Auch wenn die ARMs in den letzten Jahren einen enormen Leistungssprung gemacht haben, so ein ULV i5 im MB Air ist mir ja schon ein paar Dimensionen zu lahm. Und dabei ist er aber noch deutlich schneller als so ein moderner ARM, soweit ich das jetzt mitbekommen habe.

robbitop
2014-04-02, 12:18:54
Beim Wechsel von Ivy Bridge zu Haswell wurde bei den MacBook Airs bei etwa gleicher Leistung quasi die Akkulaufzeit verdoppelt.
Wie sehr hinkt der A7 diesen ULV-Haswells denn gerade hinterher?
Weil die Dinger im Teillastbereich deutlich besser sind. Ich denke mal was das angeht, sollten SFF SoCs nicht schlechter sein. Hinzu kommt die integrierte Spannungsversorgung auf dem Kern. Das würde bei einem PC/Notebook SoC auch Sinn ergeben. Ich denke mal, dass Apple das auch mittelfristig hinbekämen. Man bräuchte aber halt ein Fertiger, der einigermaßen mitkommt. Eventuell kann man ja mit TSMC/GF/IBM einen Deal eingehen, dass man eine Fabrik reserviert bekommt und einen eigenen Prozess erforschen. Mit Geld kann man auch sicher das - sagen wir mal fördern. An die Prozesstechnologie von Intel wird man nicht herankommen - aber den Abstand verkürzen...warum nicht?

Sagen wir mal einfach dass es ist nicht unmoeglich ist dass wenn es Apple will Intel CPU desktop Leistung innerhalb sagen wir mal 3 Generationen in die Zukunft aufzuholen, obwohl es bis vor einiger Zeit als "unmoeglich" abgestempelt wurde. Aber dann natuerlich nicht so leicht fuer ULP SoCs denn Stromverbrauch wird dort die erste Bremse sein.
Designs sind ja nur begrenzt skalierbar. Falls Apple soetwas wirklich machen wollen würde, müßten sie (analog zu Intel) eine extra µ-Arch dafür bringen. Aber fehlendes x86 ist dann IMO ein sehr großes Manko (Bootcamp), was man nicht gerne schlucken möchte.
Aber wer weiß, wie sich das Ganze WindowsRT noch entwickelt. Wenn das an Bedeutung dazu gewinnt, werden irgendwann Programme für beide ISAs kompiliert. Und dann könnte Apple mit einer ARM CPU auch Bootcamp realisieren. Das ist aber natürlich heute überhaupt nicht greifbar oder vorhersehbar.

Ailuros
2014-04-02, 13:33:47
Intel's Prozess-technologie ist kein Punkt mehr wenn Apple auch bei denen in Zukunft herstellt; sonst sind 3 waschechte hw Generationen eine sehr lange Zeit und Apple wird das Ganze nur Schritt fuer Schritt beruehren wenn nur wenn jeweiliges Ziel erreicht wird macht man weiter.

robbitop
2014-04-02, 15:29:40
Intel würde Apple nie bei sich produzieren lassen, sofern sie eine Konkurrenz darstellen würden. (bzw man sich dadurch selbst ein Bein stellt, weil man dem Kunden das Werkzeug gibt, sich selbst ähnlich gute Produkte zu bauen und damit selbst nicht mehr gebraucht wird. -> man verliert dann also viel Umsatz) Außerdem ist Fertigungstechnologie das eine. Aber die Anpassung eines Prozesses auf ein spezifisches Design das andere. Ich kann mir nicht vorstellen, dass Intel dort mit dem gleichen Elan wie bei eigenen Produkten dabei wäre...

Ailuros
2014-04-02, 16:19:06
http://semiaccurate.com/2013/12/17/apple-samsung-intel-foundry-plans/

*schulterzuck* :freak:

Unicous
2014-04-17, 18:58:31
*Zuckzurück


Samsung, Globalfoundries Team Up in Challenge to TSMC (http://www.bloomberg.com/news/2014-04-17/samsung-globalfoundries-team-up-in-challenge-to-tsmc.html)

basti333
2014-04-17, 19:34:02
*Zuckzurück


Samsung, Globalfoundries Team Up in Challenge to TSMC (http://www.bloomberg.com/news/2014-04-17/samsung-globalfoundries-team-up-in-challenge-to-tsmc.html)

Jetzt ist auch klar warum Apple demnächst auch bei GF fertigen lässt.

Ailuros
2014-04-17, 19:34:32
*Zuckzurück


Samsung, Globalfoundries Team Up in Challenge to TSMC (http://www.bloomberg.com/news/2014-04-17/samsung-globalfoundries-team-up-in-challenge-to-tsmc.html)

Apple braucht foundries und konstant steigende Herstellungs-Volumen.

A8 mag zwar auf 20SoC TSMC sein aber ich hab das Gefuehl dass wenn Samsung ihren 20nm Prozess nicht bald ausbuegelt, TSMC wohl nicht so leicht alles fuer Apple decken kann. Ich hab auch das Gefuehl dass TSMC 20SoC nur eine Eintagsfliege ist.

Unicous
2014-04-17, 20:00:47
Und ich habe das Gefühl, das TSMC den Kunden als Foundry immer ungemütlicher wird, nicht nur seit Apple sich nach einer 2nd(/bzw. hier fast schon 3rd) Source umschaut.

Ich glaube, die haben die Preisddaumenschrauben angezogen, weil sie lange Zeit die einzigen waren die Chips in einem fortschrittlichen Prozess mit annehmbaren Specs und Yields produzieren konnte und dazu noch in großen Stückzahlen. Samsung hatte ja auch etwas Pech mit 28nm und GF ist nicht aus den Knien gekommen, UMC ist eh schon abgehängt (wie lange die noch machen frage ich mich).

Das Jahr könnte Foundryseitig noch richtig interessant werden.

Ailuros
2014-04-17, 20:16:20
Ich sag es mal so: es ist in allen IHVs bester Interesse wenn Apple in Zukunft nicht bei TSMC herstellt :tongue:

Undertaker
2014-04-17, 20:51:42
Apple braucht foundries und konstant steigende Herstellungs-Volumen.

Manchmal habe ich etwas den Eindruck, dass Apples sicherlich großer Bedarf an Fertigungskapazitäten etwas überschätzt wird. Apple hatte 2013 gerade einmal noch 15% Marktanteil (Tendenz fallend) im Smartphonemarkt. Selbst wenn man jetzt einmal unterstellt, dass Apples SoCs im Schnitt etwas größer als die im Schnitt preislich niedriger ausgerichteten Konkurrenz-SoCs ausfallen, ist Apple bei einem Fab-Riesen wie TSMC (wo auch noch GPUs und allerlei andere Chips dazukommen) vom Volumen plötzlich kein derart dominanter Faktor mehr. Problematisch ist das allenfalls direkt zu Beginn eines neuen Nodes mit begrenzten Kapazitäten; durch die stetig sinkenden Prozessvorteile und immer weiter steigende Kosten werden schnelle Umstiege aber ohnehin immer uninteressanter.

Unicous
2014-04-17, 21:01:11
Aber Apple hat doch als Premium-Hersteller immer noch ein fettes Volumen und in der Vergangenheit auch bei den Chips Lieferprobleme gehabt. Deswegen Nur weil der Marktanteil schrumpft, schrumpft doch nicht das Volumen. In den emerging markets (die das Gesamtmarktvolumen ja zunehmend auch bereichern) hat es Apple halt schwer, ein iPhone 5C will da trotzdem kein Schwein haben... weil es eben sauteuer ist.:freak:

Samsung bzw. die Chinesen haben es da eben ungleich leichter mit ihren Plastikbombern.

Knuddelbearli
2014-04-17, 21:15:23
UMC soll doch verkauft werden oder verwechsle ich das mit einem anderen fertiger?!?

War doch zuerst IBM im Gespräch aber da die selber scheinbar fertigung verkaufen wollen jetzt eher GloFo da TSMC kein Interesse

Undertaker
2014-04-17, 21:17:01
Das Volumen schrumpft nicht, aber die Kapazitäten und die Aufträge anderer Hersteller wachsen deutlich schneller. ;) Und das ist ja letztlich das Entscheidende, wenn man über den Einfluss Apples auf die Fertigungskapazitäten für alle anderen Marktteilnehmer diskutiert.

Sunrise
2014-04-17, 21:58:35
...Problematisch ist das allenfalls direkt zu Beginn eines neuen Nodes mit begrenzten Kapazitäten; durch die stetig sinkenden Prozessvorteile und immer weiter steigende Kosten werden schnelle Umstiege aber ohnehin immer uninteressanter.
Was auch der springende Punkt ist. Apple launcht mittlerweile schon recht aggressiv auf der ganzen Welt und kann dennoch nicht alles gleichzeitig beliefern. Apple verliert bares Geld, wenn Kunden warten müssen. Deshalb produziert TSMC bereits jetzt den A8. Welche andere Foundry kann derzeit in 20nm in Masse produzieren (außer vielleicht Intel?).

Deshalb wird auch jeder Fertiger, der neue Technologien nicht nur zeitplanmäßig, sondern auch in hohen Volumina liefern kann praktisch zum Muss. Apple kann es sich nicht leisten, hier einen Gang zurück zu schalten. Und genau deshalb wäre es optimaler, mehrere Foundries damit zu beauftragen. Da diese aber oft nicht liefern können (schlechte Yields, nicht genug Fertigungsstraßen), kommt man immer wieder zu TSMC zurück.

Ist auch kein Wunder, dass sich jetzt immer mehr die Foundries zusammen tun.

Bei Apple übrigens auch nicht vergessen, dass bald zusätzlich neue Produkte kommen. Apple besteht nicht nur aus Smartphones. Und vor allem da werden komplexe, kleine und möglichst stromsparende SoCs gebraucht.

TSMC ist ein ziemlicher Selbstläufer. Wenn hier vom Management bzw. der Planung nichts gravierend schief läuft, dann haben die immer sehr gewichtige Kundschaft, auch wenn Apple davon sicher nicht den größten Teil ausmacht, aber Apple ist dennoch ein extrem wichtiger Kunde, der TSMC eine gewisse Planungssicherheit gibt.

Ich will garnicht wissen, was Apple beim 20nm A8 wieder auspackt. Ich bin mir recht sicher, dass wir wieder überrascht werden. Wenn 20nm SoC auch nur annähernd so gut wie 28nm HPM ist, dann ist da enormes Potential.

Ailuros
2014-04-18, 08:44:25
Manchmal habe ich etwas den Eindruck, dass Apples sicherlich großer Bedarf an Fertigungskapazitäten etwas überschätzt wird. Apple hatte 2013 gerade einmal noch 15% Marktanteil (Tendenz fallend) im Smartphonemarkt. Selbst wenn man jetzt einmal unterstellt, dass Apples SoCs im Schnitt etwas größer als die im Schnitt preislich niedriger ausgerichteten Konkurrenz-SoCs ausfallen, ist Apple bei einem Fab-Riesen wie TSMC (wo auch noch GPUs und allerlei andere Chips dazukommen) vom Volumen plötzlich kein derart dominanter Faktor mehr. Problematisch ist das allenfalls direkt zu Beginn eines neuen Nodes mit begrenzten Kapazitäten; durch die stetig sinkenden Prozessvorteile und immer weiter steigende Kosten werden schnelle Umstiege aber ohnehin immer uninteressanter.

Apple will mehr Maerkte bedienen als bisher und eins der Gruende der sie zurueckhaelt sind zu wenig Herstellungs-Kapazitaeten. Ausser Apple aendert ihre Strategie kuendigt N Produkte zu X Zeitraum an und liefert eine handvoll pro Land weltweit fuer 5-6 Monate bis es endlich loslegt.

Zu guter letzt wenn Apple's Noete so "bescheiden" werden von der anderen Seite haette Samsung nicht Milliarden in die Texas foundry fuer sie geschuettet und wuerde jetzt auch nicht Kopfstaende stehen um sie am Ball zu halten, denn kleine Volumen kann man auch verdammt schnell ersetzen.

Mediatek z.B. verkaufte auch im letzten Jahr 200Mio smartphone SoCs nur ist es eben NICHT das gleiche wenn man eine Reihe von mittleren bis kleinen SoCs herstellet gegen eine sehr hohe Summe von grossen SoCs.


Ich will garnicht wissen, was Apple beim 20nm A8 wieder auspackt. Ich bin mir recht sicher, dass wir wieder überrascht werden. Wenn 20nm SoC auch nur annähernd so gut wie 28nm HPM ist, dann ist da enormes Potential.

TSMCs 28nm ist ein gutes Stueck besser als Samsung's. Samsung's 20nm ist uhmmm errrrr im Vergleich zu 20SoC und momentan buegelt Samsung ihr 14nm (FinFET) aus dass sie mit GloFo teilen werden und Apple hat ihr erwuenschtes dual sourcing.

Nightspider
2014-04-18, 09:14:16
Ja der A8 wird wieder interessant aber wenn Apple beim iPad 6 (aka iPad Ultra Air? :D) nicht mindestens 2GB RAM verbaut schlage ich denen den scheiß Apple Store ein. xD

Apple könnte sich locker leisten 3GB RAM im nächsten iPad zu verbauen und würde damit einen großen Sprung und Bruch vollziehen und noch deutlich komplexere Apps zulassen, wo bisher teilweise schon einfache Apps durch RAM-Manel abstürzen.

Gerade wenn Apple wirklich ein iPad Pro mit 12 Zoll auf den Markt werfen will brauchen die gar nicht erst mit Krüppelgrößen beim RAM ankommen wenn sie doch sonst immer alles auf "maximal" trimmen wollen. :rolleyes:

prinz_valium
2014-05-06, 17:02:40
so da 20 nm nvidia karten endgütlig erst für h2 2015 angekündigt wurden


können wir dann auch endlich bestätigen, dass es nicht mit 20nm chips im nächsten iphone von apple wird. es wird in q3 2014 erscheinen, wie immer. stückzahlen sind50 mio+ zu erwarten (alleine vom neuen modell)

vllt gibt es ihn aber auch nur im neuen ipad? das wären stückzahlen, die eher zu stemmen sind.
und dort ist der release zyklus ja auch etwas variabler...

Ailuros
2014-05-06, 17:54:22
so da 20 nm nvidia karten endgütlig erst für h2 2015 angekündigt wurden

Link?

können wir dann auch endlich bestätigen, dass es nicht mit 20nm chips im nächsten iphone von apple wird. es wird in q3 2014 erscheinen, wie immer. stückzahlen sind50 mio+ zu erwarten (alleine vom neuen modell)

Und der tiefste technische Grund dafuer soll sein?

vllt gibt es ihn aber auch nur im neuen ipad? das wären stückzahlen, die eher zu stemmen sind.
und dort ist der release zyklus ja auch etwas variabler...

Vielleicht solltest Du nicht so schnell zu Schlussfolgerungen kommen die nur auf hearsay basieren.

deekey777
2014-05-14, 20:36:42
"iPhone 6" angeblich mit höherer Bildschirmauflösung (http://www.heise.de/newsticker/meldung/iPhone-6-angeblich-mit-hoeherer-Bildschirmaufloesung-2189522.html)
Apple testet einem Bericht zufolge eine Display-Auflösung von 1704 x 960 Pixeln für die nächste iPhone-Generation. Verschiedene iPhone-6-Attrappen sollen einen Eindruck der neuen Gerätegröße vermitteln. ...
Bei einem 4,7-Zoll-Display führt diese Auflösung zu einer Pixeldichte von 416 ppi (Pixel pro Zoll), bei einem 5,5" Bildschirm wiederum zu 356 ppi – beide Werte liegen über dem 4-Zoll-Retina-Display des iPhone 5s mit 326 ppi und 1136 x 640 Pixeln.

Ist recht konservativ, also auch sparsamer bzw. kann damit der Verbrauch im Griff bleiben, wenn ich mich nicht irre.

sth
2014-05-14, 21:52:21
Ist recht konservativ, also auch sparsamer bzw. kann damit der Verbrauch im Griff bleiben, wenn ich mich nicht irre.
Ist sicherlich ein positiver Nebeneffekt, aber der Hauptgrund dürfte sein, dass UIKit nicht wirklich gut auf nicht-ganzzahlige DPI-Sprünge kann. ;)
Die Gerüchteküche (http://www.macrumors.com/2014/05/14/iphone-6-retina-display/) spekuliert im Grunde auf einen "3x" Retina-Modus (die aktuellen Retina-Displays laufen als "2x" in UIKit, iPhone 2G/3G/3GS waren entsprechend "1x").

Wenn es wirklich tiefergehende Änderungen wären (also Abkehr von den ganzzahligen Skalierungs-Modi für Assets), dann müssten man eigentlich Anfang Juni zur WWDC was dazu hören.

Ich hoffe nur, die Gerüchte bezüglich weiterhin nur 1GB RAM bewahrheiten sich nicht. Das nächte iPhone wird mein 4S ersetzen und ich erwarte eigentlich mindestens eine ähnlich lange Nutzungsdauer vom Neuen – mit "nur" 1GB dürfte die Upgrade-Schmerzgrenze allerdings schon früher erreicht sein.

=Floi=
2014-05-14, 22:26:37
alles unter einer full HD auflösung wäre ein fail!

edit
dann updatest hald nicht! SO ist der markt

robbitop
2014-05-15, 09:55:02
Ja das wäre voll der "Fail" ey. Sieht man voll die Pixel ey! :rolleyes:

sth
2014-05-15, 10:49:56
Die Frage ist, ob es am Ende wirklich 1704 x 960 sind. Das wäre zwar der 3x-Modus für die derzeitige Bildschirmauflösung, allerdings würde dieser noch keinen Vorteil aus der größeren Fläche ziehen. Alles wäre einfach nur größer. Eine höhere Auflösung ist also schon denkbar.

Ob sich Apple allerdings an gängige Größen wie FullHD hält darf bezweifelt werden, höchstens wenn es zufällig passt. Im Gegensatz zu manch anderem OEM lassen sie sich ja ohnehin eigene Panels fertigen und nehmen nichts von der Stange.

smalM
2014-05-17, 14:51:59
"3x-Retina-Modus"? Das ist kein Gerücht, das ist einfach Quark!

robbitop
2014-05-17, 14:52:58
Argument?

Ailuros
2014-05-17, 16:53:11
Argument?

Keine Ahnung, aber mir waere persoenlich auch unter der Nx Mal Logik etwas wie 2272*1280 lieber als 1704*960 und kommt mir jetzt bitte nicht mit irgend einem "zu wenig Fuellrate" Bloedsinn dafuer.

robbitop
2014-05-18, 15:43:59
Mehr ist immer besser. Aber mehr Pixel führen auch dazu, dass das Panel teurer wird und mehr Strom verbraucht. Letzteres führt zu geringeren Akkulaufzeiten. Die Pixeldichte erhöht man beim nächsten Fortschritt der Paneltechnologie halt.

Aber bei 4xx DPI ist man sowieso arg im Bereich des Grenzertrags. Mehr Pixel kosten immer mehr (Energie und Produktionskosten) und bringen immer weniger (sichtbaren Vorteil).

Ailuros
2014-05-18, 18:04:52
Mehr ist immer besser. Aber mehr Pixel führen auch dazu, dass das Panel teurer wird und mehr Strom verbraucht. Letzteres führt zu geringeren Akkulaufzeiten. Die Pixeldichte erhöht man beim nächsten Fortschritt der Paneltechnologie halt.

Bei 5.5" theoretischer display-Flaeche fuer's iPhone6 koennen sie so oder so nicht mehr auf einer 1600mAh Batterie bleiben; wenn dann zumindest 2400mAh und danach sind LTPS panels heutzutage stromsparend genug dass es wirklich kein Punkt mehr heutzutage ist. Im Gegenfall haetten smartphones die bald mit 2k Aufloesungen ankommen ein Riesenproblem.

Aber bei 4xx DPI ist man sowieso arg im Bereich des Grenzertrags. Mehr Pixel kosten immer mehr (Energie und Produktionskosten) und bringen immer weniger (sichtbaren Vorteil).

Es war Apple die mit dem retina Zeug angefangen hat und wenn sie nicht selber einsehen wuerden dass ihre iPhones langfristig doch zu klein sind dann wuerden sie auch nichts daran aendern. Bei Apple's Wuchermargen von Produktionskosten zu reden ist tragische Ironie :D

sth
2014-05-18, 19:04:44
Also wegen mir nur immer her mit absurd hohen DPI-Zahlen! Diese braucht's nämlich für HMDs und derzeit sind die Hersteller von VR-Hardware noch vollständig* auf die Nebenprodukte der Smartphone-Industrie angewiesen. :D

Was die Akkulaufzeit angeht mache ich mir wenig sorgen: Apple hat da die letzten Jahre ein ganz gutes Auge für gehabt und ich habe keinen Grund anzunehmen, dass sich das ändern wird. Sie werden da schon richtig abwägen, zumal ein größeres Gehäuse ja primär der Akkukapazität zu Gute kommt.

GPU-Performance ist mittlerweile auch kein Problem mehr und Marge hat Apple ohnehin mehr als genug, da können sie sich auch etwas teurere Lösungen erlauben.

* Oculus in Absehbarer Zeit wohl nicht mehr, jetzt wo sie Mark's Kohle auf den Kopf hauen können.

James Ryan
2014-05-18, 19:41:25
Das LG G3, HTC One M8 Prime und Galaxy S5 Prime kommen in Kürze mit 2K Displays.
Apple will allen Ernstes in 4 Monaten mit einem iPhone kommen, das nichtmal Full HD unterstützt?
So gut iOS auch ist, Apple sollte nicht dermaßen krass bei der Hardware hinterher hängen. Der SoC wird wieder das beste vom Besten, die Verarbeitung sowieso, da sollte das Display nicht so hinterher hängen!

MfG

deekey777
2014-05-19, 08:48:15
Was bringt so eine hohe Auflösung auf einem 4,7''-Display? Selbst wenn noch eine größere Version des iPhone 6 kommt, ist so eine hohe Auflösung mit unnötiger Leistungsverschwendung verbunden.

Mehr ist immer besser. .

Ich korrigiere: "Neu" ist immer besser.

robbitop
2014-05-19, 12:28:56
Bei 5.5" theoretischer display-Flaeche fuer's iPhone6 koennen sie so oder so nicht mehr auf einer 1600mAh Batterie bleiben; wenn dann zumindest 2400mAh und danach sind LTPS panels heutzutage stromsparend genug dass es wirklich kein Punkt mehr heutzutage ist. Im Gegenfall haetten smartphones die bald mit 2k Aufloesungen ankommen ein Riesenproblem.



Es war Apple die mit dem retina Zeug angefangen hat und wenn sie nicht selber einsehen wuerden dass ihre iPhones langfristig doch zu klein sind dann wuerden sie auch nichts daran aendern. Bei Apple's Wuchermargen von Produktionskosten zu reden ist tragische Ironie :D

Mir ging es eher um die 4,7" Version. Dort erreicht man 4xx dpi. Und Akkulaufzeit ist immer ein Argument. Insbesondere für Apple. Warum sollte man mit dem Hintern das einreißen, was man sich aufwändig mit Cyclone erarbeitet hat (niedrigen Verbauch). Für 5,5" könnte es aber auch, da hast du recht, 4x iPhone Auflösung sein. Ansonsten ist man wieder bei 3xx dpi.

Was bringt so eine hohe Auflösung auf einem 4,7''-Display? Selbst wenn noch eine größere Version des iPhone 6 kommt, ist so eine hohe Auflösung mit unnötiger Leistungsverschwendung verbunden.

Erkläre das mal den Spec-Geiferern. Mehr Pixel kosten immer auch mehr Akkulaufzeit. Apple hat es zum Glück nicht nötig, ein reines Gefecht um Maximalspecs zu machen. Das kann man gar nicht gewinnen, so oft wie andere Hersteller ihre Geräte refreshen. Am Ende haben dann alle Hersteller die Specs maxed-out und kriechen auf Mindestmargen herum (weil sie sich gegenseitig so hochgeputscht haben) und müssen WQHD Auflösung mit Akkulaufzeit bezahlen.
Sinnvoller wäre es, zwischen 2 diametralen Eigenschaften den Sweetspot herauszusuchen und (u.A. dadurch) die Usability zu verbessern.

Specs zu maxen nur der Specs wegen ergibt keinen Sinn.

James Ryan
2014-05-19, 13:00:37
Was bringt so eine hohe Auflösung auf einem 4,7''-Display? Selbst wenn noch eine größere Version des iPhone 6 kommt, ist so eine hohe Auflösung mit unnötiger Leistungsverschwendung verbunden.



Ich korrigiere: "Neu" ist immer besser.

Das iPhone ist dermaßen teuer (das 6er angeblich nochmal 100€ mehr!), da muss einfach alles passen, sonst kann man auch zu einem Konkurrenzprodukt greifen.
Erkläre mal bitte, warum man knapp 700€ für ein iPhone ausgeben soll, wenn es Konkurrenzgeräte mit deutlich besserem Display für weniger Geld gibt?

Aktuell zahlt man nur für iOS einen derart üblen Aufpreis, dass der Marktanteil von iOS bald einstellige Prozentwerte erreichen wird, wenn Apple nicht aufpasst.
Klar, noch funktioniert das, ich bezweifele aber, dass Apple mit einem iPhone 6, wie es gerade erwartet wird, die Kehrtwende schafft.
Android und Windows Phone holen in Sachen Software deutlich auf, Googles Ökosystem ist fast schon besser als Apples.
Die Marke "Apple" zieht schon nicht mehr in Europa, da muss einfach mehr kommen!

MfG :cool:

robbitop
2014-05-19, 13:35:48
Das iPhone ist dermaßen teuer (das 6er angeblich nochmal 100€ mehr!), da muss einfach alles passen, sonst kann man auch zu einem Konkurrenzprodukt greifen.
Erkläre mal bitte, warum man knapp 700€ für ein iPhone ausgeben soll, wenn es Konkurrenzgeräte mit deutlich besserem Display für weniger Geld gibt?
Klar - deutlich besser. Welches 4,7" Display hat denn deutlich mehr Auflösung (als die spekulierte des iPhone 6)? Und worin steckt denn der Nutzwertvorteil bei >4xx dpi?

Es ist einfach nur hirnlos, in einem System nur eine Variable zu betrachten. Auflösung kostet Akkulaufzeit. Was will man lieber? Noch mehr Auflösung (die man maximal in Testberichten mit 10x Vergrößerung begeifern kann) oder lieber etwas mehr Akkulaufzeit (von der man praktisch auch was hat)?

Specs maxen andere aus. Apple versucht lieber den Sweetspot zu treffen.

Apple ist teuer - das stimmt. Nichts für Sparfüchse. :)

mboeller
2014-05-19, 14:11:19
Aktuell zahlt man nur für iOS einen derart üblen Aufpreis, dass der Marktanteil von iOS bald einstellige Prozentwerte erreichen wird, wenn Apple nicht aufpasst.
MfG :cool:

Apple's iPhone Business ist ja letztes Jahr um 16% gewachsen*. Da musst du dir keine Sorgen machen. Und solange der Marktanteil in denUSA bei ~50% liegt erst recht nicht.

*: der Gesamtmarkt ist aber um >30% gewachsen. Der Marktanteil sinkt also.

Felixxz2
2014-05-19, 15:10:30
Die Marke "Apple" zieht schon nicht mehr in Europa, da muss einfach mehr kommen!

MfG :cool:

Stimmt, mittlerweile ist der Name schon schlechter als bei Nokia :freak:

Ailuros
2014-05-19, 17:24:45
Klar - deutlich besser. Welches 4,7" Display hat denn deutlich mehr Auflösung (als die spekulierte des iPhone 6)? Und worin steckt denn der Nutzwertvorteil bei >4xx dpi?

Wenn es mein Lieblings-hersteller hat dann ist es schon Gold wert, in jeglichem Gegenfall ist es rein theoretisch total nutzlos eben weil die groesste Mehrzahl der Verbraucher einfach spinnen und nur die fruitco fans es alles besser wissen.

Es ist einfach nur hirnlos, in einem System nur eine Variable zu betrachten. Auflösung kostet Akkulaufzeit. Was will man lieber? Noch mehr Auflösung (die man maximal in Testberichten mit 10x Vergrößerung begeifern kann) oder lieber etwas mehr Akkulaufzeit (von der man praktisch auch was hat)?

Wie viel kostet es denn denn den Scheiss wiederholst Du immer und immer wieder; wenn ich bei meinem smartphone heftig herumfummle ist nach einem Tag die Batterie schon alle und der von Android selber gemessene Verbrauch fuer den display selber ist stets ein einstelliges Prozentual und das ueber 5" 1080p auf einem LTPS display.

Es ist auch nicht das erste Mal dass ich das obrige poste aber ein anstaendiges Gegen-argument hab ich dafuer bis jetzt auch noch nicht lesen koennen.

Specs maxen andere aus. Apple versucht lieber den Sweetspot zu treffen.

Den "sweet-spot" den Apple mit Sicherheit trifft sind ihre Gewinn-margen.

Apple ist teuer - das stimmt. Nichts für Sparfüchse. :)

Es ist das was der Verbraucher haben will welches Apple zu groesseren smartphone displays zwingen wird und nicht anders rum.

Nur weil ihr Scheiss teuer ist heisst es nicht dass sie immun zu Kritik sind; eher das brutale Gegenteil, denn je mehr der Verbraucher bezahlt desto anspruchsvoller wird er.

Nightspider
2014-05-19, 18:13:28
Die Akkulaufzeit ist bei aktuellen iPhones eh schlecht im Vergleich zu vielen aktuellen Androiden.

Bei Display kackt Apple auch ab im Vergleich also machen es einige Androidphones sowieso besser.
Das iPhone kann aktuell primär durch seine geringe Größe punkten was aber eben nur ein Teil der Käuferschicht anspricht.

Ich glaube auch weiterhin nicht das die Akkulaufzeit so massiv beeinträchtigt wird wie es hier einige suggerieren wollen. Wir werden ja am Galaxy S5 Prime und LG G3 sehen wie die Akkulaufzeit aussieht.
Ich wette sie wird dank Snapdragon 805 sogar besser als bei den Vorgängern. ;)

Undertaker
2014-05-19, 19:38:41
Wir werden ja am Galaxy S5 Prime und LG G3 sehen wie die Akkulaufzeit aussieht.

Die sind ja von der Pixeldichte eh nochmal ne ganz andere Hausnummer. FullHD auf 4,7" dürfte bei modernen Displays sicher keinen extremen Verbrauchsanstieg mehr bewirken, man beachte dabei unter anderem die anscheinend extrem gute Effizienz des aktuellen Galaxy S5 Displays. Und man könnte FullHD-Material nativ darstellen, was bei so einer krummen Auflösung nicht geht (jaaa, der Qualitätsverlust wird marginal sein, aber dennoch). Bei einem Smartphone dieser Preisklasse ist entsprechende Kritik imo also sehr wohl berechtigt.

robbitop
2014-05-20, 10:32:52
Wenn es mein Lieblings-hersteller hat dann ist es schon Gold wert, in jeglichem Gegenfall ist es rein theoretisch total nutzlos eben weil die groesste Mehrzahl der Verbraucher einfach spinnen und nur die fruitco fans es alles besser wissen.

Ich habe keinen Lieblingshersteller. Aber ich bin Ingenieur. Ich halte nichts von sinnfreiem Dimensionieren von einer Variable, wenn es eine zweite diametrale dazu gibt. Das ist alles.



Wie viel kostet es denn denn den Scheiss wiederholst Du immer und immer wieder; wenn ich bei meinem smartphone heftig herumfummle ist nach einem Tag die Batterie schon alle und der von Android selber gemessene Verbrauch fuer den display selber ist stets ein einstelliges Prozentual und das ueber 5" 1080p auf einem LTPS display.

Wenn sogar 2 große CEOs aus der Branche in den letzten Wochen öffentlich genau das, was ich gesagt habe, (im Zusammenhang mit QWHD*), wird das schon stimmen.

*sinngemäß: es kostet Akkulaufzeit und bringt wenig bis keine Nutzwertsteigerung. (IIRC war es Huawai und Qualcomm.)

Und selbst wenn es nicht viel mehr kostet. Es kostet. Jeder Aktor kostet prinzipbedingt. Wenn ich die Auflösung um Faktor 4 statt Faktor 3 steigere, zieht mein Display (das LCD und die TFT Matrix - ggf brauche ich auch etwas stärkere Hintergrundbeleuchtung) 33% mehr Leistung aus dem Akku. Wenn man das Display viel benutzt, wird sich das auf die Akkulaufzeit niederschlagen.

Ich habe leider keine Leistungsaufnahme eines Displays zur Hand. Also muss eine Schätzung mit einem Musterfall her. Nehmen wir das iPhone 5S.

Das iPhone 5S schafft im Idle etwa 10h. 5,73 Wh hat der Akku. Daraus egibt sich eine Leistungsaufnahme von 573 mW. Da ist alles aus außer das Display. Sagen wir mal das Display zieht 400 mW.
33 % mehr Auflösung würden 132 mW kosten. Runden wir auf 100 mW ab, um noch konservativer zu sein - weil vielleicht nicht alles mitskaliert. Bedeutet, der Verbrauch steigt auf 673 mW.

Der Akku würde unter Idle Voraussetzung jetzt nur noch 8,5 h halten. Also 1,5 h weniger.

Idle und Webbrowsen (alle paar Sekunden mal eine neue Seite laden oder ab und an mal eine App starten) sind sich ziemlich ähnlich. Im Surfbenchmark hällt das 5S 9 h durch. Jetzt ist da der Einfluss des Displays ein wenig kleiner, weil auch andere Komponenten in die Rechnung mit reinfallen. Sagen wir hier also mal 1 h. Für viele Menschen ist genau das die Alltagsanwendung eines Smartphones.

Jetzt könnte man sagen, dass die Auflösungserhöhung beim Display nicht linear mehr kostet. Dafür habe ich auch schon 2x abgerundet - und noch nichtmal betrachtet, dass CPU (bedingt!!) und GPU auch 33 % mehr Arbeit zu tun bekommen. Man kann also weniger Zyklen idlen, weil man länger Rechnen muss. Das treibt auch die Leistungsaufnahme nach oben.

33 % höhere Auflösung würde im Musterfall iPhone 5S die Akkulaufzeit spürbar verkürzen.

-------------------------------

Gerade im SFF Bereich muss an jeder Stelle jedes mW gespart werden. Denn das addiert sich in vielen Fällen.

Was meinst du, wieviel Strom Apple durch seine eigenen SoCs spart? Vermutlich auch nur im kleinen Bereich. Aber es addiert sich.

Es ist auch nicht das erste Mal dass ich das obrige poste aber ein anstaendiges Gegen-argument hab ich dafuer bis jetzt auch noch nicht lesen koennen.

Was genau bringt denn eine Auflösung >4xx dpi? Mehr ist immer besser. Aber mal ganz ehrlich: was bringt es im Alltag mehr, dass du es gegen ~1 h Akkulaufzeit eintauschen würdest? Ist das der Trade-Off wert?

IMO sind wir bereits im Bereich des sinkenden Grenzertrags bei Auflösung. Eine Steigerung ist immer gut - Innovation ist wichtig. Aber es ist auch gerade in diesem Grenzbereich sinnvoll, das mit Ersparnissen aus Displaytechnologiefortschritts zu koppeln und nicht einfach so die Auflösung hochzureißen.




Den "sweet-spot" den Apple mit Sicherheit trifft sind ihre Gewinn-margen.


Das mit Sicherheit. Das ist bei allen Premiumherstellern so. Auch bei BMW, Mercedes und Co.

Aber es ist nicht so, dass sie nicht furchtbar viel investieren würden. Was sie seit den A6 SoCs machen, ist schon brutal. Und das Endresultat ist idR sehr sehr gut. Sonst würde es keiner kaufen.

Gerade im Bereich 4" - bei der Dicke, dem Volumen und dem Gewicht holen sie bereits im 5S sehr viel Akkulaufzeit raus. Am Ende muss man größere Displays und mehr Auflösung immer aus größeren Akkus bezahlen (mehr Gewicht und mehr Volumen).

Ich frage mal so. Wer schafft denn vergleichbare Energieeffizienz als Gesamtgerät? Immer die Komponenten Displayauflösung/Größe und Akkukapazität im Auge behalten...

Klar schaffen 5 oder 5,5" Geräte sogar etwas mehr. Aber die haben auch einen größeren Akku.


Es ist das was der Verbraucher haben will welches Apple zu groesseren smartphone displays zwingen wird und nicht anders rum.
Es gibt solche Kunden und solche Kunden. Kunden die für das Erlebnis bezahlen und Kunden, die für die Specs bezahlen.

Es gibt genug Kunden, denen es nicht auf Specs ankommt sondern um das drum-herum.
Thinkpads sind ggü Acer, Medion und Co deutlich underspecced und überteuert. Und dennoch begreifen viele, das Specs nunmal nicht alles sind.
Das Ergebnis beim Benutzen ist das eigentlich wichtige für diese Zielgruppe. Dito für BMW, Mercedes und Audi. Du bekommst bei der Konkurrenz für weniger Geld größere und besser motorisierte Fahrzeuge für weniger Geld. Und dennoch ist das nicht alles. Und somit haben Premiumhersteller immer ihren Markt.

Ich frage mich wirklich, wer in einem Blindtest(!) ohne Vergrößerung in einer normalen Benutzung den Unterschied zwischen 4xx dpi und 5xx dpi feststellt. Ich würde den Blindtest vermutlich nicht bestehen.

Nur weil ihr Scheiss teuer ist heisst es nicht dass sie immun zu Kritik sind; eher das brutale Gegenteil, denn je mehr der Verbraucher bezahlt desto anspruchsvoller wird er.
Akkulaufzeit ist ebenso vielen sehr wichtig. Da gab es neulich irgendwo ein Ergebnis aus einer Marktstudie. Da war Akkulaufzeit ein sehr wichtiges Kriterium. Akkulaufzeit und Auflösung stehen nunmal diametral. Also muss man da einen guten Kompromiss treffen.

robbitop
2014-05-20, 10:34:20
Die Akkulaufzeit ist bei aktuellen iPhones eh schlecht im Vergleich zu vielen aktuellen Androiden.

Bei Display kackt Apple auch ab im Vergleich also machen es einige Androidphones sowieso besser.
Das iPhone kann aktuell primär durch seine geringe Größe punkten was aber eben nur ein Teil der Käuferschicht anspricht.

Ich glaube auch weiterhin nicht das die Akkulaufzeit so massiv beeinträchtigt wird wie es hier einige suggerieren wollen. Wir werden ja am Galaxy S5 Prime und LG G3 sehen wie die Akkulaufzeit aussieht.
Ich wette sie wird dank Snapdragon 805 sogar besser als bei den Vorgängern. ;)
Nicht alles was hinkt, ist ein Vergleich. Man muss schon bei gleicher Akkugröße/Baugröße vergleichen. Wer ist dann deutlich besser?

Die sind ja von der Pixeldichte eh nochmal ne ganz andere Hausnummer. FullHD auf 4,7" dürfte bei modernen Displays sicher keinen extremen Verbrauchsanstieg mehr bewirken, man beachte dabei unter anderem die anscheinend extrem gute Effizienz des aktuellen Galaxy S5 Displays. Und man könnte FullHD-Material nativ darstellen, was bei so einer krummen Auflösung nicht geht (jaaa, der Qualitätsverlust wird marginal sein, aber dennoch). Bei einem Smartphone dieser Preisklasse ist entsprechende Kritik imo also sehr wohl berechtigt.
Beim UI macht es schon Sinn, ganzzahlig zu skalieren. Ansonsten wäre FullHD sicherlich jetzt auch kein Problem mehr. Sowohl vom Akku als auch von den Kosten (ggü 3x Retinaauflösung).

Den Unterschied zwischen 3x Retina und FullHD sieht im Blindtest vermutlich keiner.

Ailuros
2014-05-20, 16:00:51
Ich habe keinen Lieblingshersteller. Aber ich bin Ingenieur. Ich halte nichts von sinnfreiem Dimensionieren von einer Variable, wenn es eine zweite diametrale dazu gibt. Das ist alles.

Als Inginieur solltest Du wissen dass es keine wissenschaftliche Beweisse gibt dass irgend etwas sinnfreies daran gibt. Aufloesungen werden auch weiterhin auf smartphones wachsen mit oder ohne fruitco's i-gear.

Wenn sogar 2 große CEOs aus der Branche in den letzten Wochen öffentlich genau das, was ich gesagt habe, (im Zusammenhang mit QWHD*), wird das schon stimmen.

*sinngemäß: es kostet Akkulaufzeit und bringt wenig bis keine Nutzwertsteigerung. (IIRC war es Huawai und Qualcomm.)

Es sollte klar sein dass je hoeher die Aufloesung auf einer gegebenen display-Flaeche desto kleiner die sichtbaren Unterschiede, aber kleiner heisst weder Null noch unter Null. Wobei es total am *ahem* vorbeigeht welcher Heini genau was gesagt hat, wenn ich es selber sehen kann dass der Stromverbrauch bei >400dpi bei LTPS displays nicht nennenswert ist. Wie waere es wenn Du Dir mal diesbezueglich ein paar Tage Echtzeit-erfahrung holen wuerdest als Abwechslung?

Und selbst wenn es nicht viel mehr kostet. Es kostet. Jeder Aktor kostet prinzipbedingt. Wenn ich die Auflösung um Faktor 4 statt Faktor 3 steigere, zieht mein Display (das LCD und die TFT Matrix - ggf brauche ich auch etwas stärkere Hintergrundbeleuchtung) 33% mehr Leistung aus dem Akku. Wenn man das Display viel benutzt, wird sich das auf die Akkulaufzeit niederschlagen.

Ich kann mir nicht vorstellen wie ich auf einem ehlendigen MT6589 in ca. 20-24h die 2000mAh Batterie totschlagen kann ohne den Bildschirm zu benutzen. Es ist und bleibt insgesamt ein einstelliges Prozentual und ihm Normalfall selten ueber 5%. Ergo entweder misst Android einen Haufen Scheiss zusammen oder Du redest Dir einfach Maerchen ein die Du nicht dokumentieren kannst.

Ich habe leider keine Leistungsaufnahme eines Displays zur Hand. Also muss eine Schätzung mit einem Musterfall her. Nehmen wir das iPhone 5S.

Das iPhone 5S schafft im Idle etwa 10h. 5,73 Wh hat der Akku. Daraus egibt sich eine Leistungsaufnahme von 573 mW. Da ist alles aus außer das Display. Sagen wir mal das Display zieht 400 mW.
33 % mehr Auflösung würden 132 mW kosten. Runden wir auf 100 mW ab, um noch konservativer zu sein - weil vielleicht nicht alles mitskaliert. Bedeutet, der Verbrauch steigt auf 673 mW.

Das 5S ist KEIN anstaendiger Vergleich weil es erstens einen zu kleinen display bzw. Aufloesung hat und auch eine relativ kleine Batterie. Hat eine Variante vom naechsten iPhone jetzt einen 5,5" display wird die Batterie nicht kleiner sein koennen als 2400mAh schaetzungsweise und nein Apple's Gewinn-margen hauen damit nicht aus der Decke.

Idle und Webbrowsen (alle paar Sekunden mal eine neue Seite laden oder ab und an mal eine App starten) sind sich ziemlich ähnlich. Im Surfbenchmark hällt das 5S 9 h durch. Jetzt ist da der Einfluss des Displays ein wenig kleiner, weil auch andere Komponenten in die Rechnung mit reinfallen. Sagen wir hier also mal 1 h. Für viele Menschen ist genau das die Alltagsanwendung eines Smartphones.

Es ist nicht mein Problem dass Apple das 5S ueberdimensioniert hat was den SoC betrifft und das iPad Air unterdimensioniert, waehrend sie immer noch fuer's 5S eine zu winzige Batterie benutzt haben damit sie noch mehr dazugewinnen.


Gerade im SFF Bereich muss an jeder Stelle jedes mW gespart werden. Denn das addiert sich in vielen Fällen.

Was meinst du, wieviel Strom Apple durch seine eigenen SoCs spart? Vermutlich auch nur im kleinen Bereich. Aber es addiert sich.

Siehe oben; Aufloesung zur Seite eine ~1600mAh Batterie ist eine Schweinerei fuer einen SoC wie den A7.

Was genau bringt denn eine Auflösung >4xx dpi? Mehr ist immer besser. Aber mal ganz ehrlich: was bringt es im Alltag mehr, dass du es gegen ~1 h Akkulaufzeit eintauschen würdest? Ist das der Trade-Off wert?

Gut und was genau bringt mir 2048*1536 auf dem iPad Mini Retina, denn 1024*768 war ja so oder so wohl "ideal". 3,15Mio pixels ueber 8".

IMO sind wir bereits im Bereich des sinkenden Grenzertrags bei Auflösung. Eine Steigerung ist immer gut - Innovation ist wichtig. Aber es ist auch gerade in diesem Grenzbereich sinnvoll, das mit Ersparnissen aus Displaytechnologiefortschritts zu koppeln und nicht einfach so die Auflösung hochzureißen.

Wenn der Markt und die Verbraucher selber nicht mehr haben wollten dann wuerde sich Apple auch nicht nach groesseren Aufloesungen umsehen. Du wirst Dich als Hersteller gefaelligst dem anpassen was der Verbraucher wirklich haben will und nicht anders rum.



Ich frage mal so. Wer schafft denn vergleichbare Energieeffizienz als Gesamtgerät? Immer die Komponenten Displayauflösung/Größe und Akkukapazität im Auge behalten...
Klar schaffen 5 oder 5,5" Geräte sogar etwas mehr. Aber die haben auch einen größeren Akku.

Sie haben aber keine kuerzere Batterie-Laufzeit und sie sind sogar billiger.

Es gibt solche Kunden und solche Kunden. Kunden die für das Erlebnis bezahlen und Kunden, die für die Specs bezahlen.

Und es gibt auch Idioten die Geld zum Fenster herausschmeissen weil sie den Eindruck haben dass Marke X egal fuer was ihnen ein gewisses soziales status unterstuetzt.


Ich frage mich wirklich, wer in einem Blindtest(!) ohne Vergrößerung in einer normalen Benutzung den Unterschied zwischen 4xx dpi und 5xx dpi feststellt. Ich würde den Blindtest vermutlich nicht bestehen.

Vermutlich ist aber nicht besonders ueberzeugend.

Akkulaufzeit ist ebenso vielen sehr wichtig. Da gab es neulich irgendwo ein Ergebnis aus einer Marktstudie. Da war Akkulaufzeit ein sehr wichtiges Kriterium. Akkulaufzeit und Auflösung stehen nunmal diametral. Also muss man da einen guten Kompromiss treffen.

Du sparst auch ein klein bisschen Strom wenn Du auf einem 1080p display 1080p videos ablaufen laesst anstatt sie auf 720p oder kleiner anzupassen. Klar ist es wenig, aber wenn Ihr schon Erbsten zaehlen wollt dann macht es gefaelligst anstaendiger und dann bitte schoen alle Faelle die Aufloesung betreffen.

Das iPhone5S haelt in Gfxbench3.0 nach Schaetzung des benchmarks ein klein bisschen mehr als 2 Stunden an wenn man es theoretisch T-Rex endlos durch-loopen lassen wuerde. Ein S800 smartphone ist dann schon bei fast 3 Stunden.

Um es mal zusammenzufassen:

1. Es ist Apple's Problem wenn sie immer noch ihre Aufloesungen mit Nx Mal Werten skalieren wollen/koennen. Unter normalen Umstaenden waeren 1080p auf 5,5" vollkommen in Ordnung.

2. Wenn es zu 1704*960 kommen wuerde, sind 960 pixels auf der y Achse eben nicht besonders "toll" heutzutage auf einem theoretischen 5.5" display. Es koennte durchaus auch 1600*1200 sein um auch das 4:3 ratio von den tablets wieder einzufuehren.

robbitop
2014-05-20, 16:44:39
Als Inginieur solltest Du wissen dass es keine wissenschaftliche Beweisse gibt dass irgend etwas sinnfreies daran gibt. Aufloesungen werden auch weiterhin auf smartphones wachsen mit oder ohne fruitco's i-gear.
Sie konnten wachsen, weil es Fortschritte in der Display- und Akkutechnolgie gab, die das kompensierten. Und auch weil die Leute alle gern so große Smartphones wollen, dass riesige Akkus hineinpassen.

Jedoch ist auf gleicher Ebene (gleiche Displaytechnolgie, gleicher Akku) immer ein Mehrverbrauch bei höherer Auflösung zu verzeichnen.



Es sollte klar sein dass je hoeher die Aufloesung auf einer gegebenen display-Flaeche desto kleiner die sichtbaren Unterschiede, aber kleiner heisst weder Null noch unter Null. Wobei es total am *ahem* vorbeigeht welcher Heini genau was gesagt hat, wenn ich es selber sehen kann dass der Stromverbrauch bei >400dpi bei LTPS displays nicht nennenswert ist.
Was genau hast du da gesehen und womit genau hast du es verglichen?


Wie waere es wenn Du Dir mal diesbezueglich ein paar Tage Echtzeit-erfahrung holen wuerdest als Abwechslung?
Dazu bräuchte man geeignetes Messequipment und Zeit. Habe ich beides nicht. Die Frage ist, wie Android diese Leistungsaufnahmen ermittelt und wie sinnvoll und akurat das ist.



Ich kann mir nicht vorstellen wie ich auf einem ehlendigen MT6589 in ca. 20-24h die 2000mAh Batterie totschlagen kann ohne den Bildschirm zu benutzen. Es ist und bleibt insgesamt ein einstelliges Prozentual und ihm Normalfall selten ueber 5%. Ergo entweder misst Android einen Haufen Scheiss zusammen oder Du redest Dir einfach Maerchen ein die Du nicht dokumentieren kannst.
Immer her mit den Messwerten, sofern du denn welche hast. ;)



Das 5S ist KEIN anstaendiger Vergleich weil es erstens einen zu kleinen display bzw. Aufloesung hat und auch eine relativ kleine Batterie. Hat eine Variante vom naechsten iPhone jetzt einen 5,5" display wird die Batterie nicht kleiner sein koennen als 2400mAh schaetzungsweise und nein Apple's Gewinn-margen hauen damit nicht aus der Decke.
Ich rede noch immer vom 4,7" iPhone 6. Bei 5,5" wäre 3x Retina Auflösung in der Tat etwas wenig für ein neues Gerät.



Es ist nicht mein Problem dass Apple das 5S ueberdimensioniert hat was den SoC betrifft und das iPad Air unterdimensioniert, waehrend sie immer noch fuer's 5S eine zu winzige Batterie benutzt haben damit sie noch mehr dazugewinnen.
Bei der Baugröße des iPhone 5S geht nunmal kein größerer Akku. Dafür ist die Akkulaufzeit und der SoC sehr gut. Ich kenne jedenfalls kein vergleichbares Gerät.

Es gibt auch genug Leute, die ein Smartphone wollen und kein Phablet. ;)



Siehe oben; Aufloesung zur Seite eine ~1600mAh Batterie ist eine Schweinerei fuer einen SoC wie den A7.
Baugröße? ;)



Gut und was genau bringt mir 2048*1536 auf dem iPad Mini Retina, denn 1024*768 war ja so oder so wohl "ideal". 3,15Mio pixels ueber 8".
Apples and Oranges. Wir vergleichen hier Auflösungen von 400 und 500 dpi und nicht von 1xx und 3xx DPI. Der Vergleich hinkt also gewaltig...



Wenn der Markt und die Verbraucher selber nicht mehr haben wollten dann wuerde sich Apple auch nicht nach groesseren Aufloesungen umsehen. Du wirst Dich als Hersteller gefaelligst dem anpassen was der Verbraucher wirklich haben will und nicht anders rum.
Es war immer Apples Stärke, es anders herum zu machen. Heute sind sie das teuerste und wertvollste Unternehmen der Welt. So viel können sie offensichtlich nicht falsch gemacht haben. ;)




Sie haben aber keine kuerzere Batterie-Laufzeit und sie sind sogar billiger.
5,x" Geräte haben keine kürzere Akkulaufzeit, wegen eines größeren Akkus. Das ist ja das was ich sagte. Apples and Oranges.
Bei gleichem Akku und gleicher Displaytechnologie (anders kann man technologisch keine Designentscheidungen vergleichen!) kostet mehr Auflösung nunmal Akkulaufzeit.





Und es gibt auch Idioten die Geld zum Fenster herausschmeissen weil sie den Eindruck haben dass Marke X egal fuer was ihnen ein gewisses soziales status unterstuetzt.
Es kann eine Vielzahl von Gründen geben. Viele Leute mögen z.B. die hochwertige Verarbeitung oder die einfache Bedienung. Sind überfordert mit zu vielen Optionen und wollen etwas einfaches, was einfach funktioniert.



Vermutlich ist aber nicht besonders ueberzeugend.
Ich kann schlecht einen Blindtest mit einer stochastisch relevanten Gruppe an Menschen durchführen.
Ab und an muss man sich auf Vermutungen stützen. So abwegig ist es nicht, dass ab 400 dpi kaum noch Unterschiede feststellbar sind.



Du sparst auch ein klein bisschen Strom wenn Du auf einem 1080p display 1080p videos ablaufen laesst anstatt sie auf 720p oder kleiner anzupassen. Klar ist es wenig, aber wenn Ihr schon Erbsten zaehlen wollt dann macht es gefaelligst anstaendiger und dann bitte schoen alle Faelle die Aufloesung betreffen.
Das hat Coda ja schonmal kommentiert. Und der hat um eine Größe mehr Fachwissen als jeder andere hier im Thread. Kurzum: Skalierung ist praktisch irrelevant in dem Bereich.


Das iPhone5S haelt in Gfxbench3.0 nach Schaetzung des benchmarks ein klein bisschen mehr als 2 Stunden an wenn man es theoretisch T-Rex endlos durch-loopen lassen wuerde. Ein S800 smartphone ist dann schon bei fast 3 Stunden.
Aha? Und wieviel mehr Kapazität hat das S800 Smartphone? Und wie sehr throttelt es?

Um es mal zusammenzufassen:

1. Es ist Apple's Problem wenn sie immer noch ihre Aufloesungen mit Nx Mal Werten skalieren wollen/koennen. Unter normalen Umstaenden waeren 1080p auf 5,5" vollkommen in Ordnung.

2. Wenn es zu 1704*960 kommen wuerde, sind 960 pixels auf der y Achse eben nicht besonders "toll" heutzutage auf einem theoretischen 5.5" display. Es koennte durchaus auch 1600*1200 sein um auch das 4:3 ratio von den tablets wieder einzufuehren.
Bei 5,5" stimme ich dir zu. Bei 4,7" sehe ich es weniger kritisch.

Ailuros
2014-05-20, 20:22:12
Sie konnten wachsen, weil es Fortschritte in der Display- und Akkutechnolgie gab, die das kompensierten. Und auch weil die Leute alle gern so große Smartphones wollen, dass riesige Akkus hineinpassen.

Die Akku-Groesse ist eher mit der display-Groesse verbunden als mit der Aufloesung selber; Du wuerdest auf einem >5" display eben keine =/<2000mAh Batterie sehen selbst wenn die Aufloesung unter 720p liegen wuerde.

Jedoch ist auf gleicher Ebene (gleiche Displaytechnolgie, gleicher Akku) immer ein Mehrverbrauch bei höherer Auflösung zu verzeichnen.

http://www.tinydeal.com/feiteng-h7189-55-mtk6589-4-core-android-42-gps-phone-p-96831.html

Und ich kann Dir durchgehend zahllose aehnliche links liefern; bei 5.5" eine 3100mAh bei einem ultra low end MT6589 und einer pissat 854*480 Aufloesung.

Was genau hast du da gesehen und womit genau hast du es verglichen?

Ich hab schon seit einem Jahr Echtzeit-Erfahrung mit einem high dpi display auf 5" gegen Dein Hoerensagen theoretisches Palaber.

Dazu bräuchte man geeignetes Messequipment und Zeit. Habe ich beides nicht. Die Frage ist, wie Android diese Leistungsaufnahmen ermittelt und wie sinnvoll und akurat das ist.

Gegen Dein Bauchgefuehl oder der Furz-CEO X hat gesagt ist es auf jeden Fall schon mal mehr.

Immer her mit den Messwerten, sofern du denn welche hast. ;)

Wo sind Deine "Daten" hingegen? Wenn ich das Ding hier fast ueberhaupt nicht beschaeftige haelt es sogar >3 Tage aus auf einer Ladung.

Lenovo s820, 4.6", 2000mAh, 1280*720, MT6589 (quadA7@1.2GHz, SGX544@256MHz) = 393 Minuten bei T-Rex:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20S820

DNS S5002, 4,6", 2000mAh, 1920*1080, MT6589T (quadA7@1.5GHz, SGX544@354MHz) = 369 Minuten bei T-Rex:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=DNS%20S5002

....und wenn Du allen den Arsch versohlen willst mit Batterie-Laufzeit (mit einer 4000mAh Batterie) dann 916 Minuten (vergleichber zum Lenovo S820): http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20P780

Ich rede noch immer vom 4,7" iPhone 6. Bei 5,5" wäre 3x Retina Auflösung in der Tat etwas wenig für ein neues Gerät.

Wer sagt dass es KEIN >5" iPhone6 geben wird?

Bei der Baugröße des iPhone 5S geht nunmal kein größerer Akku. Dafür ist die Akkulaufzeit und der SoC sehr gut. Ich kenne jedenfalls kein vergleichbares Gerät.

Nur weil Du keins kennst heisst es nicht dass es keines geben koennte.

Es gibt auch genug Leute, die ein Smartphone wollen und kein Phablet. ;)

Es gibt genug Leute die ein smartphone als smart-Geraet beim surfen z.B. etwas praktischer benutzen wollen anstatt dass ihnen die pissat 4" die Augen beim unendlichen zoomen heraushauen.

Baugröße? ;)

Ja es stimmt nur fruitco baut so komische Tiere.

Apples and Oranges. Wir vergleichen hier Auflösungen von 400 und 500 dpi und nicht von 1xx und 3xx DPI. Der Vergleich hinkt also gewaltig...

~2.5Mio pixels auf 5.5 verstreut sind alles andere als 500dpi, aber es ist mal wieder klassisch von Dir dass Du der eigentlichen Antwort mit Absicht ausweichst.

Es war immer Apples Stärke, es anders herum zu machen. Heute sind sie das teuerste und wertvollste Unternehmen der Welt. So viel können sie offensichtlich nicht falsch gemacht haben. ;)

Ich habe keinen Lieblingshersteller.... :freak: (nur 2 posts weiter oben...)


5,x" Geräte haben keine kürzere Akkulaufzeit, wegen eines größeren Akkus. Das ist ja das was ich sagte. Apples and Oranges.
Bei gleichem Akku und gleicher Displaytechnologie (anders kann man technologisch keine Designentscheidungen vergleichen!) kostet mehr Auflösung nunmal Akkulaufzeit.

Nichts sehenswertes und der Verbrauch nimmt konstant AB je fortschrittlicher LTPS displays werden.

Ich kann schlecht einen Blindtest mit einer stochastisch relevanten Gruppe an Menschen durchführen.
Ab und an muss man sich auf Vermutungen stützen. So abwegig ist es nicht, dass ab 400 dpi kaum noch Unterschiede feststellbar sind.

Medizinisch ist das letzte eben NICHT belegbar und wenn Du Dich schon selber als Wissenschaftler betitelst dann leg Dir auch gefaelligst die relevante Lektuere dafuer zu.

Das hat Coda ja schonmal kommentiert. Und der hat um eine Größe mehr Fachwissen als jeder andere hier im Thread. Kurzum: Skalierung ist praktisch irrelevant in dem Bereich.

Ja Coda, Du und meine Katze haben sicher mehr Erfahrung als ein waschreiner hw engineer den schon etliche erfolgreiche hw Generationen auf dem Buckel hat. Lerne zu lesen: ich sagte damals und auch heute dass der Unterschied klein ist aber genauso klein ist auch der zusaetzliche Stromverbrauch wenn man z.B. 25% mehr pixels in der Aufloesung dazulegt so lange neuere display-Technologie fuer die hoehere Aufloesung angelegt wird.

Die display-Groesse beinflusst den Stromverbrauch MEHR als die Aufloesung selber (innerhalb logischen Grenzen). Nochmal fuer ein 5.5" display brauchst Du eine 3000+mAh Batterie egal ob Du eine Aufloesung von 720p oder 1080p hast und ja man sieht bei der display Groesse glasklar den Aufloesungs-Unterschied.

Wenn es ueberhaupt heute noch auf TBDRs noch eine praegende Staerke gibt dann ist es der Bandbreiten- und Stromverbrauch je hoeher die Aufloesungen skalieren.

Aha? Und wieviel mehr Kapazität hat das S800 Smartphone? Und wie sehr throttelt es?

Alle smartphones throtteln; wann war es das letzte Mal dass Du ein S800 smartphone ueber laengere Zeit benutzt hast? Moment gleich kommt wieder das "hoerensagen" Argument und wie toll alles auf dem iPhone alles ist.


Bei 5,5" stimme ich dir zu. Bei 4,7" sehe ich es weniger kritisch.

Lass es mich wissen wenn Du es je schaffst einmal den gesamten Zusammenhang einer zeitlichen Debatte zu erreichen. Gleich kommt mal wieder der ausgelatschte Kaese dass Du mich angeblich schlecht verstehen kannst weil ich wohl in plain chinesisch tippe....hier nochmal mein originaler Kommentar:

Keine Ahnung, aber mir waere persoenlich auch unter der Nx Mal Logik etwas wie 2272*1280 lieber als 1704*960 und kommt mir jetzt bitte nicht mit irgend einem "zu wenig Fuellrate" Bloedsinn dafuer.

....und dass NUR auf das 5.5" display Geruecht davor bezogen. Und waehrend wir mal wieder unendlich Bandbreite verschwenden ueber etliche Seiten wenn Du Dich wirklich anstrengen wuerdest vorsichtiger zu lesen waere es kinderleicht zu sehen dass ich am Ende doch nicht so stark spinne und vielleicht doch ein klein bisschen recht haben koennte.

Summa summarum: entweder Apple bleibt bei der heutigen smartphone/display Groesse und Aufloesung und entwickelt einen kleineren zukuenftigen SoC dafuer oder sie machen mit der A7 Masche weiter auch beim A8/iPhone6 und dafuer waere es dann idealer groessere Geraete mit groesserer Batterie zu haben.

smalM
2014-05-20, 21:02:35
waehrend sie immer noch fuer's 5S eine zu winzige Batterie benutzt haben damit sie noch mehr dazugewinnen.

Die Batterie im 5S ist so groß wie sie ist, weil eine größere nicht reinpaßt.
Und nein, dicker wäre für Apple keine Option gewesen! Was hat das bitte mit der Marge zu tun? Das ist eine Designentscheidung.

Wir haben verstanden, daß Du Apple nicht magst, Ok; nur solltest Du bei sachlichen Argumenten bleiben, davon gibt es doch auch genügend...

Und an die dpi-Fetischisten: "Haben will" ist kein sachliches Argument! :biggrin:

Felixxz2
2014-05-20, 22:04:07
Ailuros hör mit deinem Bashing auf. Das interessiert keinen und führt zu keiner sachlichen Diskussion.

Ailuros
2014-05-20, 23:13:13
Die Batterie im 5S ist so groß wie sie ist, weil eine größere nicht reinpaßt.
Und nein, dicker wäre für Apple keine Option gewesen! Was hat das bitte mit der Marge zu tun? Das ist eine Designentscheidung.

Dann haetten sie vielleicht frueher daran denken sollen dass das Geraet groesser werden muss wenn man schon fuer ein smartphone einen relativ ueberdimensionierten A7 SoC dafuer benutzt.

Wir haben verstanden, daß Du Apple nicht magst, Ok; nur solltest Du bei sachlichen Argumenten bleiben, davon gibt es doch auch genügend...

Echt? Als PowerVR fan muesste ich eher alles Apple blind anbeten oder? Soll dass vielleicht heissen dass Apple immun zur Kritik ist oder dass alles was sie anfasssen gleich Gold ist? Es gibt tonnenweise Argumente in meinen vorigen Posts nur bist Du entweder zu faul diesen entgegen zu kommen oder es gibt einfach nichts besseres als es zum einfachen "bashing" zu degradieren.

Und an die dpi-Fetischisten: "Haben will" ist kein sachliches Argument! :biggrin:

Das obrige noch weniger.

Ailuros hör mit deinem Bashing auf. Das interessiert keinen und führt zu keiner sachlichen Diskussion.

Auch fuer Dich zum mitlesen: entweder hast auch Du Argumente bei der Diskussion teilzunehmen oder lass es bleiben. Es zwingt Dich keiner hier den Text zu lesen und es tut mir aufrichtig leid aber ihr muesst auch lernen mal ab und zu mit Kritik fuer Apple zu leben egal wie es Eure persoenlichen Sentimente eventuell verletzen koennte. Und da ich wohl gerade wieder Blasphemie begangen habe muss ich mich jetzt dafuer im dunklen Keller demuetig vor einem Apfel selber auspeitschen.

smalM
2014-05-21, 17:47:30
Ailuros, das Unsachliche an Deinen Argumentationen ist, daß Du fast alles bei Apple alleine darauf zurückgeführt sehen willst, daß Entscheidungen alleine aus Gründen der Gewinnmaximierung erfolgen.
Dem habe ich anhand einer Deiner Behauptungen entgegengesetzt, daß es einen anderen Grund dafür gibt.
Ob ich persönlich diesen Grund gut oder schlecht finde, habe ich mit keinem Wort erwähnt und es wäre schön, wenn Du mir zukünftig keine Meinung unterschieben würdest!

Ailuros
2014-05-21, 18:45:05
Ailuros, das Unsachliche an Deinen Argumentationen ist, daß Du fast alles bei Apple alleine darauf zurückgeführt sehen willst, daß Entscheidungen alleine aus Gründen der Gewinnmaximierung erfolgen.
Dem habe ich anhand einer Deiner Behauptungen entgegengesetzt, daß es einen anderen Grund dafür gibt.

Ist oder ist der A7 SoC nicht ueberdimensioniert fuer das iPhone5S so wie es heute exisiert? Ja es basiert auf einer Reihe von Design-Entscheidungen und einige davon waren und sind IMO falsch.

Sonst haben sich die Gewinnmargen fuer's 5S wohl auch NICHT radikal reduziert.

Ob ich persönlich diesen Grund gut oder schlecht finde, habe ich mit keinem Wort erwähnt und es wäre schön, wenn Du mir zukünftig keine Meinung unterschieben würdest!

Ich hab Dir ueberhaupt keine Meinung unterstellt; im Gegensatz musste ich mir von DIR unter die Nase binden lassen dass ich Apple angeblich nicht mag. Wenn Du zu solchem Bloedsinn keine Reaktion erwartest solltest Du Dich erstmal von solchen Turnereien fernhalten denn wie man in den Wald reinschreit so hallt es wieder raus.

Von irgendwelcher Sachlichkeit oder ein anstaendiges Gegenargument sehe ich immer noch nichts.

Felixxz2
2014-05-21, 20:13:10
Hör einfach auf. Nervt ungemein.

robbitop
2014-05-22, 11:34:51
Die Akku-Groesse ist eher mit der display-Groesse verbunden als mit der Aufloesung selber; Du wuerdest auf einem >5" display eben keine =/<2000mAh Batterie sehen selbst wenn die Aufloesung unter 720p liegen wuerde.
Wenn ein großes Display verbaut wird, bietet sich ein großer Akku natürlich an. Unabhängig von der Auflösung.



http://www.tinydeal.com/feiteng-h7189-55-mtk6589-4-core-android-42-gps-phone-p-96831.html

Und ich kann Dir durchgehend zahllose aehnliche links liefern; bei 5.5" eine 3100mAh bei einem ultra low end MT6589 und einer pissat 854*480 Aufloesung.
Wie gesagt: der Bauraum lässt es zu. Warum (auflösungsunabhängig) nicht einen großen Akku einbauen?



Ich hab schon seit einem Jahr Echtzeit-Erfahrung mit einem high dpi display auf 5" gegen Dein Hoerensagen theoretisches Palaber.
Ach in einem Technikaffinen Forum wie dem 3DC ist also eine Diskussion auf theoretischer Ebene jetzt schlecht? ;)



Gegen Dein Bauchgefuehl oder der Furz-CEO X hat gesagt ist es auf jeden Fall schon mal mehr.
Wieiviel mW zieht bei normierter Helligkeit bei gleicher Displaygröße ein Display mit kleiner und eines mit großer Auflösung? Wenn Android diese Möglichkeit bietet, sollte man das nutzen.

Ein weiteres Indiz: Das iPad 3 erhöhte die Auflösung um Faktor 4. Dafür benötigte man einen Akku mit 68 % mehr Kapazität.
http://de.wikipedia.org/wiki/Apple_iPad

Das iPhone4 erhöhte die Auflösung ebenfalls um Faktor 4 gegenüber dem 3GS und brauchte 32,5% mehr Kapazität.

Bei jeweils gleicher Displaygröße.



Wo sind Deine "Daten" hingegen? Wenn ich das Ding hier fast ueberhaupt nicht beschaeftige haelt es sogar >3 Tage aus auf einer Ladung.

Mit durchgängig laufendem Display? Oder mischt du da Standbyzeit mit rein?


Lenovo s820, 4.6", 2000mAh, 1280*720, MT6589 (quadA7@1.2GHz, SGX544@256MHz) = 393 Minuten bei T-Rex:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20S820

DNS S5002, 4,6", 2000mAh, 1920*1080, MT6589T (quadA7@1.5GHz, SGX544@354MHz) = 369 Minuten bei T-Rex:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=DNS%20S5002

Nunja bei einem Benchmark belastest du alle Komponenten des Phones und somit ist der Anteil am Mehrverbrauch des Displays geringer. Der beste Vergleich, wieviel Auflösung kostet, ist bei leichtem Einsatz. Z.B. das "light Webbrowsing" Szenario von Anand.

Und trotz Benchmark (also der Mehrverbrauch des Displays wird damit unwichtiger) spart das Gerät mit niedriger Auflösung fast 30 Minuten Akkulaufzeit. (wobei hier die Frage ist, wieviel davon durch die höher getaktete GPU verbraucht wird)


Wer sagt dass es KEIN >5" iPhone6 geben wird?
Niemand sagt das. Angeblich soll es 2x neue iPhones geben. 4,7" und 5,5".




Nur weil Du keins kennst heisst es nicht dass es keines geben koennte.
Ich habe eben recherchiert und es gibt kein vergleichbares.

Deine Argumentation - welche nachvollziehbar ist! - beruft sich ja darauf, dass aktuelle 5,x" Geräte mehr als genug Akkulaufzeit haben und der Einfluss von Displayauflösung so gering ist, dass es im Alltag weniger ausmacht.

Völlig nachvollziehbar und absolut valide! Aber genau das bestreite ich doch gar nicht. Mir geht es nur darum, dass bei einem SFF Design viele viele Designentscheidungen dieser Größenordnung getroffen werden müssen und diese das Gesamtbild maßgeblich verändern. Und bekanntlich gibt es mehrere Wege nach Rom. ;)



Es gibt genug Leute die ein smartphone als smart-Geraet beim surfen z.B. etwas praktischer benutzen wollen anstatt dass ihnen die pissat 4" die Augen beim unendlichen zoomen heraushauen.
Absolut richtig. Und natürlich gibt es dafür einen großen Markt. Aber es gibt genauso einen Markt für 4" Geräte. Sonst würde es ja keine "Mini" Ableger von Samsung, HTC und Co geben.
Ein nicht unbeträchtlicher Teil der Käuferschafft will eben nur ein Smartphone haben und nur hin und wieder mal fix etwas nachschlagen. Oder aber sie ergänzen das um ein PhTablet ... oder haben kleinere Hosentaschen. Was auch immer. Es gibt beide Märkte.

Nur leider gibt es wenige Smartphones außerhalb vom iPhone, welche diese "Mini" Geräte nicht auch mit "low cost" gleichsetzen. Kleine Auflösung, kleiner SoC, kleiner RAM.



Ja es stimmt nur fruitco baut so komische Tiere.
Und sie verkaufen sich in sehr hoher Stückzahl. Also gibt es offenbar einen ernstzunehmenden Markt. Siehe oben.
Samsung verkauft sicher mehr Geräte. Aber hat halt nicht so hohe Gewinnspannen.

Ich habe das Gefühl, dass du nur deine eigenen Präferenzen in den Vordergrund stellst. Aber der Markt ist natürlich ein großes Sammelsorium an unterschiedlichsten Käufertypen. ;)



~2.5Mio pixels auf 5.5 verstreut sind alles andere als 500dpi, aber es ist mal wieder klassisch von Dir dass Du der eigentlichen Antwort mit Absicht ausweichst.
Wir verstehen uns offenbar falsch. Ich betrachtete die 3x Retinaauflösung und die 4x Retinaauflösung auf 4,7".
3x Retina @4,7" wären 4xx dpi und 4x Retina @4,7" wären 5xx dpi.



Ich habe keinen Lieblingshersteller.... :freak: (nur 2 posts weiter oben...)
Ich habe lediglich Fakten genannt, die jeder aus jeder Börsenseite ablesen kann. Gewinn und Marktkapitalisierung.




Nichts sehenswertes und der Verbrauch nimmt konstant AB je fortschrittlicher LTPS displays werden.

Die Akkugröße, die durch höhere Fläche geschaffen wird, bringt mehr Akkulaufzeit als die dadurch vergößerte Fläche des Displays kostet.

Innovation in der Displaytechnologie reduziert natürlich den Verbrauch. Das habe ich auch nicht bezweifelt. Bei Designentscheidungen der Displayauflösung sind jedoch alle anderen Randparameter fixiert. Also steigt nur eine Größe.



Medizinisch ist das letzte eben NICHT belegbar und wenn Du Dich schon selber als Wissenschaftler betitelst dann leg Dir auch gefaelligst die relevante Lektuere dafuer zu.
Ein Ingeineur ist kein Wissenschaftler.

Ingenieur = Entwicklung.
Wissenschaftler = Forschung. ;)

Riesiger Unterschied! Abgesehen davon, sofern es diese Möglichkeit in Android gibt (den Verbrauch in mW des Displays auszulesen), bräuchte man sich nur 2x ähnliche Geräte (gleiche Displaygröße, unterschiedliche Auflösung) kaufen, beide auf gleiche Helligkeit justieren und den Verbrauch ablesen. Und schon kann man quantifizieren, was Displaygröße an Leistungsaufnahme kostet.





Ja Coda, Du und meine Katze haben sicher mehr Erfahrung als ein waschreiner hw engineer den schon etliche erfolgreiche hw Generationen auf dem Buckel hat.
Welchen HW Engnieer meinst du und was hat der wo genau gesagt?


Lerne zu lesen: ich sagte damals und auch heute dass der Unterschied klein ist aber genauso klein ist auch der zusaetzliche Stromverbrauch wenn man z.B. 25% mehr pixels in der Aufloesung dazulegt so lange neuere display-Technologie fuer die hoehere Aufloesung angelegt wird

OK - das fettgedruckte ist wichtig. Dann könnte es wieder passen. Aber ohne neue Displaytechnologie eben nicht. Und genau das war meine Argumentationen.


Die display-Groesse beinflusst den Stromverbrauch MEHR als die Aufloesung selber (innerhalb logischen Grenzen). Nochmal fuer ein 5.5" display brauchst Du eine 3000+mAh Batterie egal ob Du eine Aufloesung von 720p oder 1080p hast und ja man sieht bei der display Groesse glasklar den Aufloesungs-Unterschied.
Keine Frage. Ja.


Wenn es ueberhaupt heute noch auf TBDRs noch eine praegende Staerke gibt dann ist es der Bandbreiten- und Stromverbrauch je hoeher die Aufloesungen skalieren.
Ein TBDR braucht weniger Bandbreite (und je nach Engine) auch weniger Rohleistung als ein IMR. Verbraucht also weniger Strom*.

Aber dennoch fällt mir kein Grund ein, warum eine linear höhere Auflösung nicht auch linear mehr Arbeitsleistung bei einem TBDR bräuchte. Und jeder Arbeitsschritt und Speicherzugriff kostet nunmal Energie.

Habe ich eine höhere Auflösung, muss ich auch beim TBDR mehr Pixels berechennen und mehr Tiles schreiben.

Vielleicht sehe ich hier aber auch das Offensichtliche nicht. Da bist du zugegebenermaßen der Experte. Hilf mir mal aus: was sehe ich gerade nicht? :)


*(wobei heutige Engines -keine Ahnung, ob sowas im SFF Bereich schon angekommen ist!- schon extrem gut vor-cullen und auch nur noch die Beleuchtung[was ja das rechenintensivste am Pixel ist] für sichtbare Pixel durchführen. Auch sind die Culling-Verfahren bei IMRs schon deutlich besser als noch zu Kyro Zeiten. Auch haben moderne IMRs große Caches und soweit ich weiß sind viele SFF-GPUs bereits Tilebased (IMRs), die ebenfalls in Tilecaches schreiben)



Alle smartphones throtteln; wann war es das letzte Mal dass Du ein S800 smartphone ueber laengere Zeit benutzt hast? Moment gleich kommt wieder das "hoerensagen" Argument und wie toll alles auf dem iPhone alles ist.
Was soll dieses Argument genau veranschaulichen? Was soll auf einem S800 oder einem A7 oder auf einem Exynos besonders "toll" sein? Es sind einfach nur SoCs. (Wobei der A7 schon ein ziemlich interessanter SoC ist)

Eine Diskussion mit solchen Spitzen ist doch nicht produktiv. :)




Lass es mich wissen wenn Du es je schaffst einmal den gesamten Zusammenhang einer zeitlichen Debatte zu erreichen. Gleich kommt mal wieder der ausgelatschte Kaese dass Du mich angeblich schlecht verstehen kannst weil ich wohl in plain chinesisch tippe....hier nochmal mein originaler Kommentar:.
Wir verstehen uns oft falsch. Das passiert mir hier im Forum komischerweise (seit mittlerweile 13 Jahren :D) aber auch nur mit dir. Keine Ahnung, woran das liegt. Absicht steckt keine dahinter. ;)



....und dass NUR auf das 5.5" display Geruecht davor bezogen. Und waehrend wir mal wieder unendlich Bandbreite verschwenden ueber etliche Seiten wenn Du Dich wirklich anstrengen wuerdest vorsichtiger zu lesen waere es kinderleicht zu sehen dass ich am Ende doch nicht so stark spinne und vielleicht doch ein klein bisschen recht haben koennte.
Ich denke schon, dass ich, sofern die richtigen Argumente kommen, bereit bin meine Meinung zu revidieren oder im Generellen anderen zuzustimmen.

Bei dir habe ich aber das Gefühl, dass du beinhart auf deine Meinung bestehst. Du watscht nicht selten andere Meinung als "Blödsinn" ab. ;)
Denk mal drüber nach...

Summa summarum: entweder Apple bleibt bei der heutigen smartphone/display Groesse und Aufloesung und entwickelt einen kleineren zukuenftigen SoC dafuer oder sie machen mit der A7 Masche weiter auch beim A8/iPhone6 und dafuer waere es dann idealer groessere Geraete mit groesserer Batterie zu haben.
Apple wird sich den Gegebenheiten schon etwas anpassen. Ich habe gelesen, dass es zukünftig ein großes und ein kleines iPhone geben wird. Das fände ich OK.

Ailuros
2014-05-22, 11:36:52
Hör einfach auf. Nervt ungemein.

Ich lass mir von niemand sagen was ich tun soll oder nicht. Wenn es Dir nicht passt dass ich eine Meinung habe, dann beschwer Dich beim Administrator.

Ailuros
2014-05-22, 12:28:36
Wenn ein großes Display verbaut wird, bietet sich ein großer Akku natürlich an. Unabhängig von der Auflösung.

Ergo beinflusst der physikalisch groessere display mehr den Stromverbrauch als nur eine steril groessere Aufloesung auf einem gleich grossen display ja oder nein?

Wie gesagt: der Bauraum lässt es zu. Warum (auflösungsunabhängig) nicht einen großen Akku einbauen?

Weil es weder die Aufloesung (indirekt) noch der SoC eigentlich braucht. Ein 6589/T kommt locker mit 2000mAh aus mit bis zu 5" display.

Ach in einem Technikaffinen Forum wie dem 3DC ist also eine Diskussion auf theoretischer Ebene jetzt schlecht? ;)

Ich sehe bis jetzt immer noch nichts dokumentiert; ein steriles "hoerensagen" von A CEO unter X Bedingungen die nicht erlaeutert werden sind ein Beweiss oder Anhaltspunkt fuer gar nichts.


Wieiviel mW zieht bei normierter Helligkeit bei gleicher Displaygröße ein Display mit kleiner und eines mit großer Auflösung? Wenn Android diese Möglichkeit bietet, sollte man das nutzen.

Android zeigt es nicht an, aber im direkten Vergleich von einem 5" 720p gegen einen 5" 1080p mit gleichem SoC bei 100% Helligkeit gibt es keinen nennenswerten Unterschied; dass erste hat aber einen ziemlich maessigen display und das zweite einen waschreinen LTPS von Sharp (man sieht an der Winkelabhaengigkeit dass der zweite um einiges neuer ist).

Ein weiteres Indiz: Das iPad 3 erhöhte die Auflösung um Faktor 4. Dafür benötigte man einen Akku mit 68 % mehr Kapazität.
http://de.wikipedia.org/wiki/Apple_iPad

Ja aber mit einem zumindest 2x Mal so faehigerem SoC was die GPU betrifft und dazu noch dass ein tablet form factor ein anderes Bier ist.

Das iPhone4 erhöhte die Auflösung ebenfalls um Faktor 4 gegenüber dem 3GS und brauchte 32,5% mehr Kapazität.

Apple iPhone4 http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPhone%204

403 Minuten eingeschaetzte Batterie-Laufzeit in T-Rex; iPhone5S = 115 Minuten. Irgend etwas komisches an den Resultaten?

Mit durchgängig laufendem Display? Oder mischt du da Standbyzeit mit rein?

Natuerlich mit durchgaengig laufendem display. Um die 10-15 Telefonate taeglich, ein paar dringende e-mail nachchecken zwischendurch und ca. ne Stunde taeglich Kinderkram youtube videos fuer den Nachwuchs bis sie einpennt nachmittags.

Nunja bei einem Benchmark belastest du alle Komponenten des Phones und somit ist der Anteil am Mehrverbrauch des Displays geringer. Der beste Vergleich, wieviel Auflösung kostet, ist bei leichtem Einsatz. Z.B. das "light Webbrowsing" Szenario von Anand.

Du kannst von mir aus das worst case und das best case scenario als Indizie nehmen.

Und trotz Benchmark (also der Mehrverbrauch des Displays wird damit unwichtiger) spart das Gerät mit niedriger Auflösung fast 30 Minuten Akkulaufzeit. (wobei hier die Frage ist, wieviel davon durch die höher getaktete GPU verbraucht wird).

Die GPU taktet durchgehend in TRex auf maximaler Frequenz waehrend in beiden Faellen die CPUs auf maximal ~800MHz (Durchschnitt 2 aus 4 cores?) herumtrotteln. Der MT6589T verbraucht aber schon insgesamt etwas mehr Strom in TRex, insgesamt als SoC kommt er im stinknormalen Verbrauch auf in etwa das gleiche Verbrauchsniveau als der MT6589 wegen wifi Integrierungs-Differenzen die hier gleichgueltig sind.

Niemand sagt das. Angeblich soll es 2x neue iPhones geben. 4,7" und 5,5".

Welches wir meisten auch schon als relativ sicher ansehen oder?

Ich habe eben recherchiert und es gibt kein vergleichbares.

:)

Deine Argumentation - welche nachvollziehbar ist! - beruft sich ja darauf, dass aktuelle 5,x" Geräte mehr als genug Akkulaufzeit haben und der Einfluss von Displayauflösung so gering ist, dass es im Alltag weniger ausmacht.

Völlig nachvollziehbar und absolut valide! Aber genau das bestreite ich doch gar nicht. Mir geht es nur darum, dass bei einem SFF Design viele viele Designentscheidungen dieser Größenordnung getroffen werden müssen und diese das Gesamtbild maßgeblich verändern. Und bekanntlich gibt es mehrere Wege nach Rom. ;)

Wenn Du nicht alle 3 Geraete hast stell Dir folgende Geraete Seite an Seite auf dem Buero vor Dir vor:

iPhone5S - iPad mini retina - iPad Air

...throtteln hin und her alle drei haben genau den gleichen SoC, nur beim iPad Air taktet die CPU um 200MHz mehr. Was passt in dem Bild - ja ausschlieschlich fuer Apple's Strategie - nicht hier?

Und sie verkaufen sich in sehr hoher Stückzahl. Also gibt es offenbar einen ernstzunehmenden Markt. Siehe oben.
Samsung verkauft sicher mehr Geräte. Aber hat halt nicht so hohe Gewinnspannen.

Ich habe das Gefühl, dass du nur deine eigenen Präferenzen in den Vordergrund stellst. Aber der Markt ist natürlich ein großes Sammelsorium an unterschiedlichsten Käufertypen. ;)

Apple konkurrierte schon immer mit sich selber und es ist ein Spruch den ich schon so oft benutzt habe dass ich ihn bald patentieren kann (in er US sicher...). Wer mich wirklich kennt weiss ob und wie genau ich Apple auf technischem Nivaeu bewundere und ihnen den Hut abnehme. Diese heutige Generation ist aber fuer meinen Geschmack etwas merkwuerdig geraten. Ich will hoffen dass es sich um eine Ausnahme handelt.

Und nein es hat ueberhaupt nichts mit Praeferenzen zu tun.

Wir verstehen uns offenbar falsch. Ich betrachtete die 3x Retinaauflösung und die 4x Retinaauflösung auf 4,7".
3x Retina @4,7" wären 4xx dpi und 4x Retina @4,7" wären 5xx dpi.

Sag ich doch :P


Die Akkugröße, die durch höhere Fläche geschaffen wird, bringt mehr Akkulaufzeit als die dadurch vergößerte Fläche des Displays kostet.

Innovation in der Displaytechnologie reduziert natürlich den Verbrauch. Das habe ich auch nicht bezweifelt. Bei Designentscheidungen der Displayauflösung sind jedoch alle anderen Randparameter fixiert. Also steigt nur eine Größe.

Apple benutzt nur LTPS displays bis heute afaik; sie sind zwar teurer als andere display (Technologien) aber dafuer sind sie auch um einiges stromsparender. Haette ich nicht selber einen LTPS display in einem der Dinger die zu Hause herumfahren wuerde ich auch nicht auf Vergleichen bestehen.

Ein Ingeineur ist kein Wissenschaftler.

Ingenieur = Entwicklung.
Wissenschaftler = Forschung. ;)

Fuer den Griechen hier schon; geht aber OT und in eher philosophische Regionen.

Welchen HW Engnieer meinst du und was hat der wo genau gesagt?

Kein Name aus verstaendlichen Gruenden; er entwickelt video decoder und dazu verdammt effiziente.


Ein TBDR braucht weniger Bandbreite (und je nach Engine) auch weniger Rohleistung als ein IMR. Verbraucht also weniger Strom*.

Aber dennoch fällt mir kein Grund ein, warum eine linear höhere Auflösung nicht auch linear mehr Arbeitsleistung bei einem TBDR bräuchte. Und jeder Arbeitsschritt und Speicherzugriff kostet nunmal Energie.

Habe ich eine höhere Auflösung, muss ich auch beim TBDR mehr Pixels berechennen und mehr Tiles schreiben.

Vielleicht sehe ich hier aber auch das Offensichtliche nicht. Da bist du zugegebenermaßen der Experte. Hilf mir mal aus: was sehe ich gerade nicht? :)


*(wobei heutige Engines -keine Ahnung, ob sowas im SFF Bereich schon angekommen ist!- schon extrem gut vor-cullen und auch nur noch die Beleuchtung[was ja das rechenintensivste am Pixel ist] für sichtbare Pixel durchführen. Auch sind die Culling-Verfahren bei IMRs schon deutlich besser als noch zu Kyro Zeiten. Auch haben moderne IMRs große Caches und soweit ich weiß sind viele SFF-GPUs bereits Tilebased (IMRs), die ebenfalls in Tilecaches schreiben).

Kyro ist schon eine Ewigkeit her; Serie3 und SGX haette eigentlich Serie6 anstatt Serie5 genannt werden sollen.

Manhattan ist verdammt ALU bound setzt aber auch deferred shading ein:

http://gfxbench.com/compare.jsp?benchmark=gfx30&D1=Xiaomi+MiPad&os1=Android&api1=gl&D2=Apple+iPad+Mini+Retina&cols=2

1080p offscreen: GK20A vs. G6430 = 2.27x Mal fuer die erste
onscreen (beide 2048*1536): 1.88x Mal fuer GK20A

Was soll dieses Argument genau veranschaulichen? Was soll auf einem S800 oder einem A7 oder auf einem Exynos besonders "toll" sein? Es sind einfach nur SoCs. (Wobei der A7 schon ein ziemlich interessanter SoC ist)

Eine Diskussion mit solchen Spitzen ist doch nicht produktiv. :)

Es sollte nur sagen dass ein A7 schon eher throtteln wird als vieles andere, eben weil er schon IMO ueberdimensioniert fuer ein smartphone wie das 5S ist.

Wir verstehen uns oft falsch. Das passiert mir hier im Forum komischerweise (seit mittlerweile 13 Jahren :D) aber auch nur mit dir. Keine Ahnung, woran das liegt. Absicht steckt keine dahinter. ;)

Eigentlich nie; nur die anderen nehmen es persoenlich.


Ich denke schon, dass ich, sofern die richtigen Argumente kommen, bereit bin meine Meinung zu revidieren oder im Generellen anderen zuzustimmen.

Bei dir habe ich aber das Gefühl, dass du beinhart auf deine Meinung bestehst. Du watscht nicht selten andere Meinung als "Blödsinn" ab. ;)
Denk mal drüber nach...

Im Vergleich zu anderen (nein nicht Dich) die konstant mit Klugscheisser-one liners herumschmeissen gebe ich mir zumindest die Muehe meinen Quatsch zu erlaeutern. Da ich durchaus Fehler mache und dieses auch nicht selten lass ich mich gerne eines besseren belehren aber dann mit etwas standfesten dass mich auch ueberreden kann.

Apple wird sich den Gegebenheiten schon etwas anpassen. Ich habe gelesen, dass es zukünftig ein großes und ein kleines iPhone geben wird. Das fände ich OK.

Jetzt bleibt aber die Frage wie die zukuenftige SoC Strategie aussehen wird. Ein SoC fuer alles ("one ringt to bind them all") oder eine logischere Strategie wo die SoC Leistung auch dem Geraete form-factor etwas strenger angepasst wird?

Undertaker
2014-05-22, 19:56:47
Das iPhone 5S schafft im Idle etwa 10h. 5,73 Wh hat der Akku. Daraus egibt sich eine Leistungsaufnahme von 573 mW. Da ist alles aus außer das Display. Sagen wir mal das Display zieht 400 mW.
33 % mehr Auflösung würden 132 mW kosten.

Wie kommst du denn auf die Idee, Leistungsaufnahme und Auflösung in einen proportionalen Zusammenhang zu bringen? Ja, mehr Pixel bedeuten eine geringere Lichtdurchlässigkeit und erfordern damit ein stärkeres Backlight, aber direkt proportional ist diese Beziehung ganz sicher nicht. Kann sie schon rein logisch gar nicht sein, allenfalls linear – aber da kennen wir den Offset nicht. ;)

smalM
2014-05-26, 02:31:08
s sollte nur sagen dass ein A7 schon eher throtteln wird als vieles andere, eben weil er schon IMO ueberdimensioniert fuer ein smartphone wie das 5S ist.

Der A7 throttelt im iPhone früher und geht mit dem Takt auch weiter runter als im iPad Air. Aber er throttelt später und geht mit dem Takt weniger weit runter als die Snapdraggon 80x Riege in den highend Android-Telefonen.

robbitop
2014-05-26, 09:42:59
Wie kommst du denn auf die Idee, Leistungsaufnahme und Auflösung in einen proportionalen Zusammenhang zu bringen? Ja, mehr Pixel bedeuten eine geringere Lichtdurchlässigkeit und erfordern damit ein stärkeres Backlight, aber direkt proportional ist diese Beziehung ganz sicher nicht. Kann sie schon rein logisch gar nicht sein, allenfalls linear – aber da kennen wir den Offset nicht. ;)
Genau deshalb habe ich auch großzügig 2x abgerundet. Irgendwo muss man ja eine grobe Abschätzung treffen. Klare Indizien sind das Wachstum des Akkus (bei gleicher Größe des Displays) beim iPad und iPhone, als die Auflösungen erhöht wurden.

deekey777
2014-05-26, 10:02:17
Rumor: Apple working on ARM-based Mac variants with larger trackpad built into keyboard (http://9to5mac.com/2014/05/25/rumor-apple-working-on-arm-based-mac-variants-with-larger-trackpad-built-into-keyboard/)

Apple is currently experimenting with new ARM-powered Mac variants that include a Magic trackpad built into the system’s keyboard. The company is also reportedly working on a new version of OS X that will be compatible with these ARM machines.
... , Apple is developing three new machines with this configuration: the aforementioned iMac and Mac mini as well as a 13″ MacBook, presumably a MacBook Air. The iMac and notebook are both said to have “4 or 8″ quad-core arm64 processors, while the Mac mini has only four.

Ich hab da meine Vorbehalte. Es kann gut sein, dass Apple Machbarkeitsstudien mit ARM-IP abseits der aktuellen iOS-Devices ausprobiert.

robbitop
2014-05-26, 11:29:56
Nunja. Sie ziehen ja nun ihr CPU Know How arg nach oben. Swift und Cyclone haben schon gezeigt, was bei Apple möglich ist.

Windows gibt es ja nun auch für ARM. Noch ein paar Jährchen und es gibt eventuell auch breiten Support für Windows RT in den Apps/Spielen. Mittelfristig wäre x86 dann ersetzbar.

ARM nimmt ja immer mehr an Bedeutung zu.

Bei Intels CPUs/SoCs ist halt viel Gewinnspanne drauf. Es wäre nicht blöd, sich diese auch zu krallen und somit unabhängig von Intel zu werden.

Aber bis das wirklich Sinn ergibt, vergehen noch ein paar Jährchen.

hasebaer
2014-05-26, 13:01:02
Das Apple glaubt ab 2017 in der Lage zu sein, unabhänig von Intel zu werden, ist ja schon länger bekannt (http://www.bloomberg.com/news/2012-11-05/apple-said-to-be-exploring-switch-from-intel-chips-for-the-mac.html).

Rumor: Apple working on ARM-based Mac variants with larger trackpad built into keyboard (http://9to5mac.com/2014/05/25/rumor-apple-working-on-arm-based-mac-variants-with-larger-trackpad-built-into-keyboard/)
Ich hab da meine Vorbehalte. Es kann gut sein, dass Apple Machbarkeitsstudien mit ARM-IP abseits der aktuellen iOS-Devices ausprobiert.

The iMac and notebook are both said to have “4 or 8″ quad-core arm64 processors, while the Mac mini has only four.
Bei 4-8 Kernen und höherem Takt (2-3GHz) als beim bisherigen A7 sollte von der CPU her, heute schon ordentlich Power vorhanden sein, sofern es kein Mac Pro sein muss.
Ich mein was machen Mac Book Air, iMac & Mac Mini User schon großartig Leistungshungriges?
Bloggen, chaten, e-Mail, Office, Bilder & Filme schauen, kann doch heute jedes Handy.

robbitop
2014-05-26, 13:27:12
Eine Leistungsregression kann und wird man sich nicht erlauben. Aber das Instruction Set sagt überhaupt nichts über die Leistungsfähigkeit aus. Das ist der Takt und das Design. Es ist genau möglich einen ARM mit Haswell IPC zu bauen. Und das traue ich Apple mittelfristig zu.

Allerdings werden sie, ohne gehörige Investition jedenfalls nicht, aus Prozesssicht im Nachteil gegenüber Intel darstehen.

deekey777
2014-05-26, 15:07:11
Es geht nicht nur um die CPU-Leistung, sondern darum, wie man ein ganzes Öko-System von x86 auf ARM bringt. Microsoft ist damit gescheitert. Apple hätte zumindest den Vorteil, dass eine Vielzahl an iOS-Apps gibt, die "nur" an die Arbeit an einem Desktop-PC angepasst werden müssen (in der News wird ja nicht umsonst Magic trackpad erwähnt, mit dem viele Gesten zum Steuern möglich sind).

Es sei denn, Apple schafft es, die Kundschaft von einem offeneren iPad mit Tastatur und Maus zu überzeugen (eine Art Chromebook), mit dem man zwar nicht die volle Desktop-Erfahrung hat, aber deutlich mehr als mit dem iPad.

robbitop
2014-05-26, 15:32:09
Man könnte ggf. bei MacOS einen Zwischenschritt gehen und eine Weile emulieren (siehe ROSETTA beim Umstieg von POWER auf x86). Wenn die SDKs gut sind, ist das Umkompilieren auf eine andere µ-Architektur auch kein Beinbruch.

Bei Windows ist es anders. Dort unterscheidet man leider noch zwischen RT und 8. RT ist ja leider total gescheitert. Schöner wäre es, wenn Windows out of the box x86 und ARM unterstützt. Dann müssen nur noch die Entwickler der Applikationen für beides kompilieren und irgendwann ist es dann egal ob ARM oder x86 CPU.

Undertaker
2014-05-26, 15:46:52
Genau deshalb habe ich auch großzügig 2x abgerundet. Irgendwo muss man ja eine grobe Abschätzung treffen. Klare Indizien sind das Wachstum des Akkus (bei gleicher Größe des Displays) beim iPad und iPhone, als die Auflösungen erhöht wurden.

Darüber einen direkten Zusammenhang herstellen zu wollen halte ich allerdings für höchst fehlerbehaftet, da gleichzeitig auch jeweils deutlich mächtigere SoCs verbaut wurden. Und: Damals waren die Retina-Auflösungen bei iPhone und iPad im absoluten High-End angesiedelt und die Technik noch in den Kinderschuhen. Heute gibt es IGZO-Panels, die keinen derartigen Mehrverbrauch mehr aufweisen, nicht bei "nur" FullHD auf 4,7 Zoll. Deine Rechnung halte ich, Abrundungen hin oder her, durch den falschen Ausgangspunkt eines propotionalen Zusammenhanges für viel zu pessimistisch.

robbitop
2014-05-26, 15:55:31
Darüber einen direkten Zusammenhang herstellen zu wollen halte ich allerdings für höchst fehlerbehaftet, da gleichzeitig auch jeweils deutlich mächtigere SoCs verbaut wurden.
Ich habe daraus keinen linearen Zusammenhang hergstellt. Es war lediglich Ausgangsgröße für eine Abschätzung.
Und ich habe selbst geschrieben, dass ein linearer Zusammenhang vermutlich nicht gegeben ist und habe darauffolgend 2x massiv abgerundet, um überhaupt etwas für eine Abschätzung zu haben.


Und: Damals waren die Retina-Auflösungen bei iPhone und iPad im absoluten High-End angesiedelt und die Technik noch in den Kinderschuhen.
Deswegen schrieb ich ja bei gleicher Displaytechnologie.

Wenn ich die gleiche Displaytechnologie nutze, kosten mehr Pixel mehr Leistung. Innovation reduziert die Leistungsaufnahme - aber das Prinzip bleibt gleich.

Wenn du die Beiträge nicht im Detail ließt, lass die Diskussion lieber.


Heute gibt es IGZO-Panels, die keinen derartigen Mehrverbrauch mehr aufweisen, nicht bei "nur" FullHD auf 4,7 Zoll. Deine Rechnung halte ich, Abrundungen hin oder her, durch den falschen Ausgangspunkt eines propotionalen Zusammenhanges für viel zu pessimistisch.

Abgesehen davon, dass die Diskussion um diesen Punkt längst abgeschlossen ist: IGZO Panels reduzieren die Leistungsaufnahme. Aber mehr Auflösung bedeutet immer mehr Aktoren und mehr Bedarf an Licht. Das wird immer mehr Kosten. Die Frage ist nur welche Größenordnung.

Und ohne Messungen kann jeder von uns von dieser Abschätzung halten, was er will.

Undertaker
2014-05-26, 16:11:16
Ich habe daraus keinen linearen Zusammenhang hergstellt. Es war lediglich Ausgangsgröße für eine Abschätzung.
Und ich habe selbst geschrieben, dass ein linearer Zusammenhang vermutlich nicht gegeben ist und habe darauffolgend 2x massiv abgerundet, um überhaupt etwas für eine Abschätzung zu haben.

Tut mir leid, aber wenn der Ausgangspunkt komplett aus der Luft gegriffen ist, dann bringen dich auch Abrundungen dem Ziel nicht näher. Da kannst du auch gleich würfeln.


Wenn ich die gleiche Displaytechnologie nutze, kosten mehr Pixel mehr Leistung. Innovation reduziert die Leistungsaufnahme - aber das Prinzip bleibt gleich.

Abgesehen davon, dass die Diskussion um diesen Punkt längst abgeschlossen ist: IGZO Panels reduzieren die Leistungsaufnahme. Aber mehr Auflösung bedeutet immer mehr Aktoren und mehr Bedarf an Licht. Das wird immer mehr Kosten. Die Frage ist nur welche Größenordnung.

Und genau die Größenordnung hat sich durch neue Displaytechnologien entscheidend geändert, und genau deshalb sind Vergleiche mit der Vergangenheit nicht mehr zielführend. Wenn damals 768p auf 1536p beim iPad den Verbrauch vielleicht von 3 auf 6 Watt verdoppelt hat, heute aber nur noch ein Unterschied von 2,5 auf 3 Watt bestehen würde (Zahlen aus der Luft gegriffen), dann ist die Faktenlage für die Beurteilung von Sinn oder Unsinn einer Auflösungserhöhung nunmal eine ganz andere. Zumal die Rede ja nicht von einer Verdoppelung/Vervierfachung ist, sondern nur über den noch fehlenden Mini-Schritt von 1704 x ... auf FullHD. Soll ich mal eine Abschätzung wagen? Ich behaupte, das bedeutet keine 5 Prozent Displaymehrverbrauch.

robbitop
2014-05-26, 16:38:41
Ohne Messungen sind das sowieso nur Mutmaßungen.

Es ging nicht um 1704 (Retina 3x) auf FullHD sondern auf 2272 (Retina 4x). Das ist schon ein gewisser Mehrverbrauch.

BigKid
2014-06-02, 21:18:48
Ich weiss nicht ob es Sinn macht dafür nen eigenen Fred aufzumachen und wo.
Aber ist Metal (siehe WWDC von heute) sowas wie Mantle? Was kann man davon real erwarten?

robbitop
2014-06-02, 22:32:12
Sieht so aus. Gleicher Fokus (weniger starker Abstraction layer) und gleicher Effekt (mehr Drawcalls).

deekey777
2014-06-02, 22:35:15
Ich weiss nicht ob es Sinn macht dafür nen eigenen Fred aufzumachen und wo.
Aber ist Metal (siehe WWDC von heute) sowas wie Mantle? Was kann man davon real erwarten?

Nein, MeTaL ist eine API von S3. X-D

Metal scheint CTM wie Mantle zu sein. Was Apple damit wirklich bezweckt, sind exklusive Titel bzw. Titel, die auf einem iOS-Device besser laufen sollen. Und jetzt erscheint eine Apple-Konsole bzw. ein ATV, auf dem Spiele laufen, viel wahrscheinlicher als je zuvor. Denn eigentlich sind Spiele Apple egal.

robbitop
2014-06-02, 22:39:31
Ob es unbedingt in eine Konsole mündet...naja. Aber immerhin gibt man den Devs eine schlanke API in die Hand, die die Performance von 3D Applikationen steigern kann. Die müssen nichtmal exklusiv sein. Aber sie laufen bei vergleichbarer HW besser auf iOS dank Metal.

M4xw0lf
2014-06-02, 23:12:31
Apple will von Intel loskommen, setzt auf ARM und low level API; AMD baut bald ARM, hat eine low level API und starke Grafikkerne.... if you know what i mean :upara:

Timbaloo
2014-06-02, 23:50:13
Apple will von intel weg um zu AMD zu gehen? Also ich weiss nicht...

Unicous
2014-06-03, 00:15:09
Wenn überhaupt könnten sie maximal die GCN-Architektur lizensieren. Aber die müsste vorher noch deutlich effizienter oder abgespeckt werden. Die Apple'schen ARM-Kerne sind schon so gut, AMD wird da nicht innerhalb von 2 Jahren eine ARM-Revolution vom Zaun brechen. Nicht mit diesem R&D Budget, jedenfalls.

Die Metal-Entwicklung ist schon sehr, sehr interessant. IMG ist ja auch Mitglied/Founder bei der HSA Foundation. Das könnte AMD nochmal Wind in die Segel streichen. Bei dieser drögen Veranstaltung heute bin ich dann doch noch einmal wach geworden.:tongue:

Nightspider
2014-06-03, 01:24:14
Falls das iPad 6 einen Cyclone-QuadCore bekommt würde da schon Battlefield 4 drauf laufen von der Leistung. :D

Mal sehen ob Apple die Taktraten endlich mal weider anzieht.

smalM
2014-06-03, 03:00:19
Dazu bedürfte es wohl eher einer G6830 als eines Quadcore-Cyclones...

Im übrigen glaube ich eher an die Einführung von SMT und weitere Verbesserungen an der Architektur (wie bspw. Vergrößerung der Bandbreite vom/zum L1/L2) als an einen Quadcore.

robbitop
2014-06-03, 09:31:33
Die Taktraten hochzuziehen führt idR zu deutlich höherem Stromverbrauch. Bisher hat Apple das lieber durch Verbesserung der IPC vermieden.
Ich denke aber auch, dass sie früher oder später auf 4 Kerne setzen werden.

Nightspider
2014-06-03, 09:57:40
QualComm und Co schaffen es ja auch die IPC zu erhöhen, die Taktraten extrem zu steigern und den Stromverbrauch zu senken. Oder ist Cyclone so viel sparsamer bei reinen CPU Berechnungen im Vergleich zB. zu einem Snapdragon 800?
Spätestens mit 20nm wären weiterhin nur 2 CPU Kerne ein Witz weil diese bei der geringen Die-Area.

Ailuros
2014-06-03, 14:02:35
QualComm und Co schaffen es ja auch die IPC zu erhöhen, die Taktraten extrem zu steigern und den Stromverbrauch zu senken. Oder ist Cyclone so viel sparsamer bei reinen CPU Berechnungen im Vergleich zB. zu einem Snapdragon 800?
Spätestens mit 20nm wären weiterhin nur 2 CPU Kerne ein Witz weil diese bei der geringen Die-Area.

Es ist etwas komplizierter insgesamt; es ist nicht nur die CPU Architektur eher fuer die "Breite" als die Frequenz ausgelegt, sondern sie haben auch mit Absicht eine ziemlich grosszuegige Transistoren-Packdichte damit sie so viel Strom sparen koennen wie moeglich. Das letzte hat zwar mit A7 um einiges nachgelassen, aber es ist trotzdem keine Gute Idee unter den heutigen Bedingungen auf mehr Frequenz zu setzen; aendern sie einiges fundamental dann wohl schon.

QCOM's CPU designs sind fuer hohe Frequenzen ausgelegt.

Sonst bleibt nach wie vor die Frage ob und um wieviel ein design wie der Cyclone wirklich noch sinnvoll in die Breite gehen kann. Auf jeden Fall sind in meinem Buch sehr breite dual core CPUs selbst fuer die Verhaeltnisse der absehbahren Zukunft kein taboo. Die Anzahl der cores ist doch wurscht so lange man mit N dieser von A zu Z mit bestmoeglicher Effizienz ankommt.

Hat man im Gegenfall Zwerg-kerne wie ARM A7/A53 als Gegenbeispiel ist es fundamental Irrsinn mit der so maessigen Leistung die die Dinger haben nur auf 2 cores zu beruhen.

Avalox
2014-06-08, 10:28:46
Hier hat mal jemand Swift Code gegen ObjC kurz und dirty gebencht.

http://www.splasmata.com/?p=2798

Unicous
2014-06-08, 11:05:37
Scheint noch nich "dit Jelbe vom Ei" zu sein.:tongue:

Deutlich langsamer als der "native" Code. Kann man nur hoffen, dass das wirklich nur am quick'n'dirty Versuch lag, aber Text sagt ja etwas Anderes. Da muss wohl Apple noch eine Schippe drauflegen um Leistungsparität bei zu erreichen, die getesteten Code-Schnipsel/Funktionen scheinen ja eher triviales Zeug zu sein.

sth
2014-06-08, 13:18:04
Siehe Update auf der Seite: Die Tests wurden mit deaktivierten Compiler-Optimierungen gemacht. Swift profitiert allerdings enorm von diesen und sie sind auch Standardmäßig aktiv wenn man in Xcode ein Projekt anlegt.

Compiler optimization is *much* more important for Swift than ObjC. On a test I have:

Off: 0.65s ObjC, 6s Swift
On: 0.34s ObjC, 0.14s Swift
https://twitter.com/Catfish_Man/status/473752917347139584

Unicous
2014-06-08, 13:21:57
Ich habe die aktualisierten Werte bereits gesehen. Ändert aber nichts an der Tatsache, das Swift (noch?) nicht so swift ist wie Apple behauptet. Sie haben ja behauptet, dass es sozusagen schon "out of the box" schneller ist. Und das stimmt auch nachdem die Optimierungen greifen nicht (edit: immer).

Avalox
2014-06-08, 13:25:44
Siehe Update auf der Seite: Die Tests wurden mit deaktivierten Compiler-Optimierungen gemacht.

Doch sind alle mit aktivierten Compiler Optimierungen längst neu gepostet gewesen, als ich die Seite verlinkt habe.

Die Benches auf der Seite sind alle mit aktivierten compiler optimizations.

sth
2014-06-08, 13:34:59
Okay, da ist Swift tatsächlich um einiges langsamer. Mal schauen, wie es in real-world Anwendungen aussieht. Ein Vorteil von Swift ist, dass es z.B. nicht alles durch objc_msgSend() dispatchen muss, was an vielen Stellen größere Performance-Gewinne bringen könnte. Ich tippe mal, dass sich Apple bei ihren Benchmarks solche Rosinen rausgepickt hat. Reale Beispiele gibt es halt leider noch keine, da noch kein 3rd-Party-Developer eine komplette App in Swift geschrieben hat. Die leute fangen gerade erst an zu entdecken (https://twitter.com/gregtitus/status/475176715367370752), was man mit der Sprache wie machen kann und die Sprache selbst ist auch noch "Beta". Mal sehen, wo Swift in einem Jahr steht.

BTW: Die WWDC Session-Videos sind dieses Jahr komplett öffentlich zugänglich: http://developer.apple.com/wwdc/videos.

Die NDA ist ebenfalls gelockert. Das nutzen interessanterweise auch Apples Mitarbeiter und diskutieren (https://twitter.com/gavkar/status/473720804065017856) auf diversen Kanälen über die neuen Entwicklungen, siehe z.B. Chris Lattner (https://twitter.com/clattner_llvm/with_replies) (Swift) oder Gokhan Avkarogullari (https://twitter.com/gavkar/with_replies) (Metal).

Ganon
2014-06-08, 13:55:52
Naja, im Gegensatz zu Objective-C macht Swift wohl auf allen Ebenen Range-Checks und Co. soweit ich das in Erinnerung habe. Muss man bei solchen Vergleichen schon in Betracht ziehen. Man muss diese Checks manuell deaktivieren.

Nightspider
2014-06-08, 13:57:45
Gibt es schon Spekulationen zum A8?

Oder zum Saphirglas?

deekey777
2014-06-08, 15:28:13
Gibt es schon Spekulationen zum A8?

Oder zum Saphirglas?
Spekulationen zum A8 gibt es schon seit der Veröffentlichung des A7. X-D

Apple bringt jährlich seit dem A4 neue CPU-Architekturen (stimmt so nicht wirklich, aber spätestens mit dem A6 und dem A7 bringt Apple neue Architekturen, ist gut möglich, dass der A8 ein erweiterter A7 ist).

robbitop
2014-06-08, 20:32:51
Es stimmt schon. Nur sind es erst seit dem A6 eigene CPU Architekturen. Aber seit A4 jedes Mal eine andere (neue). Bis dato wurde nie eine µ-Arch nur aufgebrezelt. Wird aber früher oder später nicht anders möglich sein. :D

Coda
2014-06-08, 20:46:53
Ich glaube nicht, dass Cyclone ein komplettes Neudesign nach Swift war.

Sunrise
2014-06-08, 20:55:35
Gibt es schon Spekulationen zum A8?
Wenn Apple wieder CPU-Performance und GPU-Performance verdoppeln will, dann muss man sich da was überlegen, da nur ein Umstieg von 28nm->20nm erfolgt.

Für mich persönlich gilt deshalb immernoch das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10134754#post10134754) als das wahrscheinlichste Szenario.

Bei Apple wundert mich allerdings nichts mehr. Die hauen jetzt schon seit Jahren richtig auf die Kacke, ums mal auf den Punkt zu bringen. Bei nur 102mm² des A7 kann man aber beim A8 problemlos auch in die Breite gehen, da die iPhones dieses Mal größer werden und im iPad war das sowieso nie ein Problem. Das größere Akku lässt auch etwas mehr Spielraum. Geht halt etwas auf die Marge, aber das interessiert Apple nicht, die müssen dieses mal wieder vorlegen, denn Intel holt langsam aber sicher auch auf.

Wobei mir gerade einfällt, dass man ja scheinbar die Preise erhöhen will, was ein klares Zeichen für ein neues Monster sein sollte.

robbitop
2014-06-09, 08:35:35
Ich glaube nicht, dass Cyclone ein komplettes Neudesign nach Swift war.

Woran machst du das fest? IIRC schreiben CPU Experten wie Hans de Vries und David Canter was anderes. Die Arch sieht brutal anders aus (Cache Grösse, Breite, Pipelinestufen, Anzahl der Pipeline, Decodermenge etc) und man macht fast doppelte IPC von Swift.

Ailuros
2014-06-09, 12:06:41
Wenn Apple wieder CPU-Performance und GPU-Performance verdoppeln will, dann muss man sich da was überlegen, da nur ein Umstieg von 28nm->20nm erfolgt.

Für mich persönlich gilt deshalb immernoch das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10134754#post10134754) als das wahrscheinlichste Szenario.

Bei Apple wundert mich allerdings nichts mehr. Die hauen jetzt schon seit Jahren richtig auf die Kacke, ums mal auf den Punkt zu bringen. Bei nur 102mm² des A7 kann man aber beim A8 problemlos auch in die Breite gehen, da die iPhones dieses Mal größer werden und im iPad war das sowieso nie ein Problem. Das größere Akku lässt auch etwas mehr Spielraum. Geht halt etwas auf die Marge, aber das interessiert Apple nicht, die müssen dieses mal wieder vorlegen, denn Intel holt langsam aber sicher auch auf.

Wobei mir gerade einfällt, dass man ja scheinbar die Preise erhöhen will, was ein klares Zeichen für ein neues Monster sein sollte.

* Wenn Du die CPU Leistung wirklich verdoppeln willst, dann ist ein quad Cyclone config wohl nicht die realistische Loesung; ausser man zielt nur marketing-Bumsfallera Zahlen an.

* Gleiches gilt auch fuer die quad core GPU; da sie wohl schwer auf =/>900MHz die GPU takten werden (theoretisch unmoeglich ist es nicht, nur muessten sie ihre SoC Entwicklungs-Strategie radikal aendern...). Im Vergleich zum heutigen 6430 bringt Dir selbst ein XT quad core nichts uebermaessig besonderes ausser sie schaffen aus Treiber-Optimierungen (Metal Dingsda inklusive) bis zu 50% Zusatz-Leistung zu kitzeln. Unrealistisch sind selbst die 50% nicht, aber es bringt sie dann wieder randmaessig an die Leistungsschwelle fast jeglicher Konkurrenz (etwas mehr zum Metal Zeug und stets IMHO im Metal thread im Technologie-Forum).

Coda
2014-06-09, 12:24:49
Naja, im Gegensatz zu Objective-C macht Swift wohl auf allen Ebenen Range-Checks und Co. soweit ich das in Erinnerung habe. Muss man bei solchen Vergleichen schon in Betracht ziehen. Man muss diese Checks manuell deaktivieren.
Java und .NET und Python tun das auch und sind nicht so schnarchlahm.

Das man die Checks ausschalten kann halte ich übrigens für einen massiven Fehler, vor allem als globale Flag.

Sunrise
2014-06-09, 21:29:56
* Wenn Du die CPU Leistung wirklich verdoppeln willst, dann ist ein quad Cyclone config wohl nicht die realistische Loesung;
...
* Gleiches gilt auch fuer die quad core GPU...
Ist eben die Frage, was realistisch in dem Fall wirklich ist.

Wenn ich es mir aussuchen könnte, würde ich natürlich wieder eine neue Architektur vorziehen, die selbst Cyclone in den Schatten stellt. Nur ist Cyclone ja schon ziemlich stark und wird derzeit noch nichtmal ansatzweise voll ausgefahren. Auf der anderen Seite muss Apple wieder vorlegen.

Ist es also wahrscheinlich, dass Apple nach Cyclone schon wieder was Neues aus dem Boden stampft? Wenn man die Wahl hat, natürlich, dann wäre es definitiv besser, noch mehr IPC rauszuquetschen. Irgendwann kommt man da aber auch ans Limit. Man könnte Cyclone also sicher auch noch weiter als Dual-Core aufbohren. Nur, reicht das aus?

Bzgl. Rogue 6 XT (http://www.imgtec.com/News/detail.asp?ID=821):

"Series6XT cores achieve up to a 50% performance increase on the latest industry standard benchmarks compared to equivalent configurations of previous generation cores. And with a significant increase in raw GFLOPS, Series6XT delivers the industry’s best performance in both GFLOPS/mm2 and GFLOPS/mW."

"PowerGearing G6XT advanced power management"

Da sollte also schon einiges mehr möglich sein, vor allem weil das auf dem gleichen Prozess basiert. Da hätte man dann evtl. sogar Platz für die 6 Cluster-Variante. Also GX6450 and GX6650, das ist die Frage.

Ailuros
2014-06-09, 22:35:10
Woher die bis zu 50% kommen sollen bei 6XT will ich erstmal sehen. Das einzige dass sie verraten haben ist dass anstatt 3 FP16 ALUs pro SIMD lane sie jetzt 4 in 6XT cores haben.

Series6:
FP16 zu FP32 ratio 1.5x
Series6XT
FP16 zu FP32 ratio 2.0x

....da fehlt mir einiges für +50%. Mal davon abgesehen dass 6XT zu jung als IP klingt.

Ich konnte falsch liegen aber für 2x Mal A7 Grafikleistung brauchen sie zumindest einen 6630 bei =/>650MHz. Die cluster Abschaltung bekommst Du auch bei diesem.

deekey777
2014-07-02, 13:54:47
Samsung soll weiter Chips für iPhone und iPad bauen (http://www.heise.de/newsticker/meldung/Samsung-soll-weiter-Chips-fuer-iPhone-und-iPad-bauen-2245291.html)
Neben Samsung soll auch GF an der Produktion des A9 beteiligt sein, so soll die Fab 8 in Malte gemeinsam benutzt werden. TSMC will auch dabei sein.

Was den A8 angeht:

Wer den A8-Chip baut, der vermutlich im kommenden "iPhone 6" steckt, ist bislang unklar. Im März hatte es Gerüchte gegeben, dass hier TSMC den Zuschlag erhalten hat.

robbitop
2014-07-02, 15:23:12
Spätestens mit 14 nm wird es für Apple (und andere Kunden) sehr einfach sein, einen SoC bei GF und Samsung fertigen zu lassen, da sie sich dann die Prozesstechnologie teilen werden.

Ailuros
2014-07-02, 15:26:35
Spätestens mit 14 nm wird es für Apple (und andere Kunden) sehr einfach sein, einen SoC bei GF und Samsung fertigen zu lassen, da sie sich dann die Prozesstechnologie teilen werden.

Das ist auch damit gemeint und es ist bei weitem schon lange keine Neuigkeit mehr.

robbitop
2014-07-03, 10:12:10
Habe ich behauptet, es wäre eine Neuigkeit? ;)

Undertaker
2014-07-12, 13:40:10
Noch gar keine Kommentare hierzu?

http://www.computerbase.de/2014-07/apple-a8-soc-als-zweikerner-mit-2.0-bis-2.6-ghz/

Imo eine zu große Taktsteigerung, um diese allein durch den 20nm-Umstieg erzielen zu können. Selbst wenn die Pipeline aber etwas umgebaut wurde (und die IPC leicht unter Cyclone liegt), sieht das noch immer seeehr mächtig aus.

Als Anhaltspunkt: Die Integer-IPC von Cyclone hätte ich 10-20% vor Jaguar eingeordnet.

Nightspider
2014-07-12, 13:55:19
Cyclone hätte wahrscheinlich auch schon deutlich höhere Taktraten mitgemacht.

Apple konnte sie sich nur sparen, weil sie alleine durch die IPC schon doppelte iPhone 5 Leistung erreichten.

Mit >= 2Ghz wäre das kommende iPhone immer doppelt so schnell. Taktrate schlägt schließlich 1:1 durch im Gegensatz zu IPC wo nicht alle Programme gleichermaßen profitieren.

So würde Apple die Fluffigkeit von iOS weiter erhöhen und hält sich die Option für einen QuadCore bis 16FF oder ~10nm Prozesse auf.

Ich hoffe Apple verbaut gleich 3GB RAM bei den neuen iPads aber 2GB müssen mindestens her.

lumines
2014-07-12, 14:04:02
Ich hoffe Apple verbaut gleich 3GB RAM bei den neuen iPads aber 2GB müssen mindestens her.

Apple hat den RAM noch nie überproportional erhöht. Von 2 GB RAM kann man aber wohl ausgehen. Wahrscheinlich wäre das mittlerweile auch nützlicher als wieder die CPU-Leistung zu verdoppeln. Die aktuellen iOS-Geräte sind schon sehr RAM-limitiert, vor allem das iPad.

Undertaker
2014-07-12, 14:07:50
Cyclone hätte wahrscheinlich auch schon deutlich höhere Taktraten mitgemacht.

Nicht im zur Verfügung stehenden Verlustleistungs-Fenster. Allein die beiden CPU-Kerne des A7 schlucken bis zu 8 Watt, bei realistischer Single-Thread-Auslastung noch immer ~3 Watt (siehe Anandtech) @ 1,4 GHz. Da gab es unter 28nm kein Potential für höhere Taktraten, zumindest nicht für Boosts die mehr als ein paar Sekunden halten sollen.

Nightspider
2014-07-12, 14:17:00
Sag ich ja auch nicht. Die neuen iPhones werden aber größer und bekommen auch größere Akkus. Da kann die CPU schon paar Prozente mehr verbrauchen.

Undertaker
2014-07-12, 14:22:29
Ich bin ja sogar vom 10" großen iPad ausgegangen, zu dem die obengenannten Verbrauchswerte gehören. Das iPhone 5S taktet 100 MHz langsamer und throttelt eher und stärker.

Das man jetzt von 1,3-1,4 GHz auf 2,0 bis 2,6 GHz bei mindestens konstanter IPC kommt, klingt mir für den nicht wesentlich besseren 20nm-Prozess zunächst einmal unrealistisch. Aber wie gesagt: Bei so einem Taktsprung und der Ausgangsleistung des A7 wäre auch ein leichter IPC-Rückgang kein Beinbruch.

Ailuros
2014-07-12, 15:23:58
Ich bin ja sogar vom 10" großen iPad ausgegangen, zu dem die obengenannten Verbrauchswerte gehören. Das iPhone 5S taktet 100 MHz langsamer und throttelt eher und stärker.

Ich bin immer noch nicht sicher dass es wirklich 1.3 und nicht 1.2GHz fuer's iPhone5S sind ist aber wirklich total nebenwichtig.

Das man jetzt von 1,3-1,4 GHz auf 2,0 bis 2,6 GHz bei mindestens konstanter IPC kommt, klingt mir für den nicht wesentlich besseren 20nm-Prozess zunächst einmal unrealistisch. Aber wie gesagt: Bei so einem Taktsprung und der Ausgangsleistung des A7 wäre auch ein leichter IPC-Rückgang kein Beinbruch.

Apple braucht IMHO einen SoC fuer iPhones und einen fuer iPads. Ich will ernsthaft hoffen dass dafuer A7 nur eine Eintagsfliege war.

Ich bin zwar nur ein Laie aber ich wuerde einen A7X shrink@20SoC gestalten mit dual Cyclone@1.8GHz und einem gleichen quad cluster 6430 bei 600MHz. Es ist ja nicht so dass QCOM irgendwelche extravagante GPU Leistung im Aermel hat ueber die man sich allzu grosse Sorgen machen muss.

lumines
2014-07-12, 15:28:55
Apple braucht IMHO einen SoC fuer iPhones und einen fuer iPads. Ich will ernsthaft hoffen dass dafuer A7 nur eine Eintagsfliege war.

… was dann wiederum die Plattform weiter fragmentiert und das möchte Apple nicht. Sie wollen möglichst homogene Leistung innerhalb einer Generation.

Ailuros
2014-07-12, 15:36:40
… was dann wiederum die Plattform weiter fragmentiert und das möchte Apple nicht. Sie wollen möglichst homogene Leistung innerhalb einer Generation.

Was aber beim A7 zu einem zu leistungschwachen iPadAir fuehrte.

robbitop
2014-07-12, 15:40:51
Noch gar keine Kommentare hierzu?

http://www.computerbase.de/2014-07/apple-a8-soc-als-zweikerner-mit-2.0-bis-2.6-ghz/

Imo eine zu große Taktsteigerung, um diese allein durch den 20nm-Umstieg erzielen zu können. Selbst wenn die Pipeline aber etwas umgebaut wurde (und die IPC leicht unter Cyclone liegt), sieht das noch immer seeehr mächtig aus.

Als Anhaltspunkt: Die Integer-IPC von Cyclone hätte ich 10-20% vor Jaguar eingeordnet.

Ich bin ja sogar vom 10" großen iPad ausgegangen, zu dem die obengenannten Verbrauchswerte gehören. Das iPhone 5S taktet 100 MHz langsamer und throttelt eher und stärker.

Das man jetzt von 1,3-1,4 GHz auf 2,0 bis 2,6 GHz bei mindestens konstanter IPC kommt, klingt mir für den nicht wesentlich besseren 20nm-Prozess zunächst einmal unrealistisch. Aber wie gesagt: Bei so einem Taktsprung und der Ausgangsleistung des A7 wäre auch ein leichter IPC-Rückgang kein Beinbruch.


Spätestens seit Swift und Cyclone sollte klar sein, dass Apple Dinge umsetzen kann, die keiner erwartet. Insofern wäre ich da vorsichtig mit "geht nicht" und "reicht nicht". ;) Seit A4 haben sie jede Generation die GPU und CPU Leistung zum nächsten SoC verdoppelt.

Was aber beim A7 zu einem zu leistungschwachen iPadAir fuehrte.
Welches kaufbare Tablet hat denn deutlich mehr Leistung?

Ailuros
2014-07-12, 16:01:24
Welches kaufbare Tablet hat denn deutlich mehr Leistung?

Das Xiaomi MiPad mit 16GB kostet 235 Euros und ist auch laut der Kishonti Datenbank um >2x Mal so schnell was die GPU Leistung betrifft.

http://gfxbench.com/compare.jsp?benchmark=gfx30&D1=Xiaomi+MiPad&os1=Android&api1=gl&D2=Apple+iPad+Air&cols=2

http://www.merimobiles.com/the-xiaomi-mipad-16gb_p/meri10163.htm

Ist ueber 2x Mal "deutlich" genug oder muss es bei Dir eine 7:1 brasilianische Niederlage sein? :freak:

robbitop
2014-07-12, 16:04:59
Klar - wir sind doch jetzt verwöhnt in Deutschland. :D

Im Ernst:

Ach das Ding hat doch den neuen Tegra SoC? Nagut. Aber das Gerät ist auch 9 Monate nach dem iPad Air rausgekommen und muss sich bald gegen den Nachfolger stellen.

Nach der Logik sind alle aktuellen SoCs und (damit alle Tablets von allen großen Herstellern!) neben dem Tegra 5 also "leistungsschwach"? :D

Ailuros
2014-07-12, 16:11:30
Klar - wir sind doch jetzt verwöhnt in Deutschland. :D

Im Ernst:

Ach das Ding hat doch den neuen Tegra SoC? Nagut. Aber das Gerät ist auch 9 Monate nach dem iPad Air rausgekommen und muss sich bald gegen den Nachfolger stellen.

Nach der Logik sind alle aktuellen SoCs und (damit alle Tablets von allen großen Herstellern!) neben dem Tegra 5 also "leistungsschwach"? :D

Der Unterschied ist bei 2.3x Mal momentan; der Weg von maximal 13.2 auf 30fps ist nicht gerade kurz. Optimiert Apple zu stark mit dem iPhone6 Verbrauch im Hinterkopf wird es verdammt schwer sein mit dem K1 gleichzuziehen.

Die 9 Monate sind mir scheissegal; Du hast mich nach einem kaufbarem DEUTLICH schnelleren tablet gefragt. Vor Herbst 2014 werden neue Apple tablets auch nicht verfuegbar sein.

fondness
2014-07-12, 16:15:47
K1 ist IMO ein anderes Segment und damit nicht vergleichbar.

robbitop
2014-07-12, 16:33:54
@Ailuros
Trotzdem ist deine Aussage polemisch. Das iPad Air als "leistungsschwach" zu bezeichnen. Dann müsstest du im gleichen Atemzug alle anderen Produkte und SoCs auch als "leistungsschwach" bezeichnen. Und es besser auch direkt auf die GPU Leistung präzisieren. ;)

btw: Das Tablet ist in Europa noch praktisch kaum erhältlich. ;)


Was man allerdings sagen muss, dass der K1 schon eine verdammt flinke GPU hat. Und das bei super modernem Featureset. :up:
Leistung war ja bei den Tegra GPUs selten das Problem. Nur das Featureset war nicht besonders doll. Das hat man nun endlich gefixt. Wenn jetzt Denver auch noch so toll ist, wie die GPU im K1, dann hat NV es endlich geschafft, richtig gute SoCs zu bauen. Wenn man das durchhält, kommt der Marketshare von allein. :)

Undertaker
2014-07-12, 17:26:23
Spätestens seit Swift und Cyclone sollte klar sein, dass Apple Dinge umsetzen kann, die keiner erwartet. Insofern wäre ich da vorsichtig mit "geht nicht" und "reicht nicht". ;) Seit A4 haben sie jede Generation die GPU und CPU Leistung zum nächsten SoC verdoppelt.

Apple ist sicher einiges zuzutrauen, aber zaubern können sie nicht. Cyclone hatte jetzt nicht die schlechteste Perf/Watt, sodass ich abseits der Fertigungsverbesserung nur normale Effizienzsteigerungen erwarte. Bei doppelter Taktrate, gleicher IPC und gleichem Verbrauch wäre das Ding ähnlich schnell wie (und sparsamer als) manch kleiner Haswell-ULV, dass kann ich mir noch nicht so ganz vorstellen. Apple mag im SoC-Markt die größten Summen in die CPU-Entwicklung investieren, aber nach drei eigenen Generationen Intel zu überholen (und zwar nicht nur den low-cost Atom) ist imo unrealistisch. Da lass ich mich aber gerne überraschen. ;) Denkbar wäre ja auch ein wirklich nur extrem kurz anliegender Turbo.

robbitop
2014-07-12, 17:41:35
Apple hat sich die besten Leute der Industrie zusammengeholt. Mit der IPC, die Cyclone bot, hat keiner gerechnet. Wer weiß, was sie mit A8 bringen... :)

Im Prinzip reichen im SFF Bereich kurze Boosts aus. Eine App starten oder eine Webseite aufbauen. Es muss halt snappy sein. Aber kaum jemand benötigt konstant die Leistung.

Bei Benchmarks/Spielen sieht es wieder anders aus. Aber wer nutzt sowas schon ernsthaft? :)

Undertaker
2014-07-12, 17:52:44
Apple hat sich die besten Leute der Industrie zusammengeholt.

Das sagt sich so schön daher... Aber Intel hat hier doch einiges mehr an Erfahrung, ist deutlich stärker auf die reine CPU-Entwicklung fixiert, hat sicherlich keine schlechteren Leute und vor allem perfekt auf die eigenen CPUs optimierte Prozesse. Nunja, mal abwarten.

Cyclone war zwar bzgl. der IPC extrem überraschend, doch in Verbindung mit dem entsprechend niedrigeren Takt und der doch recht hohen Leistungsaufnahme erscheint das Gebotene sehr wohl nachvollziehbar.

robbitop
2014-07-12, 18:37:49
Intel ist aber auch erst seit sehr kurzem überhaupt erst im SFF angelangt. Intels jahrzehntelange Erfahrung liegt eher bei CPUs als bei SFF SoCs.

Coda
2014-07-12, 18:39:32
SFF?

Nightspider
2014-07-12, 18:56:29
Neu hier im Forum?

occ-kh@Mirko
2014-07-12, 19:02:02
SFF?
War wohl: small form factor gemeint?

Gipsel
2014-07-12, 19:03:51
Was es nicht so ganz trifft. Darauf wollte Coda wohl hinaus. ;)

Unicous
2014-07-12, 19:10:16
Was es nicht so ganz trifft. Darauf wollte Coda wohl hinaus. ;)

Wir haben endlich einen offiziellen En-Coda im Forum?

Ich wollte schon eine Runde Google und ein Vokabular für vollständige Sätze spendieren aber so gehts auch.

occ-kh@Mirko
2014-07-12, 19:12:37
SFF-SIG und CoreExpressM (COM), man kann sich da von e wie embedded verleiten lassen, was auf eine SoC ja definitiv zutreffen kann. Ich war nur der versuchte Dolmetscher...;). Habs nicht bös gemeint.

Gipsel
2014-07-12, 19:34:47
Wir haben endlich einen offiziellen En-Coda im Forum?

Ich wollte schon eine Runde Google und ein Vokabular für vollständige Sätze spendieren aber so gehts auch.Wenn alle vor dem Posten mal ein wenig mehr nachdenken würden, wäre schon viel getan. :rolleyes:

Aber zurück zum Thema!

Nightspider
2014-07-12, 19:44:45
Oha, das Tablets und Smartphones schon gar nicht mehr zu SFF Geräten zählen hätte ich jetzt auch nicht mehr gedacht.

Also müssen wir genauer zwischen SFF (ab 1Liter Volumen) und mobilen Geräten unterscheiden. ;)

Wir haben endlich einen offiziellen En-Coda im Forum?

;D

occ-kh@Mirko
2014-07-12, 20:03:10
SFF SOC siehe @robbitop nicht @Coda, aber egal...;).

So wie Apple behauptet soll der A7 ja immer noch unterfordert sein. Man hatte Intel schon 2011 aufgefordert etwas an dem Energieeffiziensverhalten der eigenen Architektur zu tun, jedenfalls den Teil mit dem man bei Apple unter Vertrag steht. Daraufhin haben die schnell ihre Roadmaps abgeändert, was aufgenommen und das wars...wird Apple wohl nicht vollends gefallen haben.

Die sind sich trotzdem nicht sicher, ob sie dem reinen Apple-PC Geschäft damit nicht doch einen Todesstoss verpassen, schon der damalige Wechsel zu Intel hattte einen Aufschrei ausgelöst. Vllt. will man das wieder gut machen.

Von daher, ein derzeit sehr interessanter Bereich, bin gespannt was Intel noch so aus der Tasche ziehen kann. Wenn man Apple glaubt sollen bereits Prototypen mit (ARM) 64-Bit-Quad-Core-Prozessoren von denen dann vier bis acht im einem Macbook implentiert wurden, gut funtzen. Im Übrigen ohne Touchscreen etc. oder als Hybride sondern Apple typisch mit zusätzlichem Magic Trackpad.

Undertaker
2014-07-12, 20:41:34
Intel ist aber auch erst seit sehr kurzem überhaupt erst im SFF angelangt. Intels jahrzehntelange Erfahrung liegt eher bei CPUs als bei SFF SoCs.

Wenn man statt großen Rädern kleine Räder bauen will, muss man das Rad doch nicht vollständig neu erfinden. Rein was die Effizienz einer Architektur betrifft, sehe ich Apple nach nur 3 Jahren nicht plötzlich vor Intel (die auch schon einige low-Power Architekturen entworfen haben). Hinzu kommt wie gesagt der Fakt, dass der A7 erst ein Jahr alt und an sich schon recht effizient ist.

robbitop
2014-07-12, 21:48:30
Intel hat mit Silvermont die erste brauchbare SFF µ-Arch gebracht. Die Silverthrone µ-Arch war nicht so berauschend.

Noch ist Intel im SFF Bereich noch nicht so unbesiegbar wie im PC Bereich. :) Zum Glück...

Ailuros
2014-07-12, 21:57:46
@Ailuros
Trotzdem ist deine Aussage polemisch.

Ich verfolge schon seit geraumer Zeit den Markt unter anderem schon seit dem Zeitpunkt wo viele es als Bloedsinn hielten dass GPUs irgend einen Sinn in dem Markt machen werden. Meine Perspektive ist stets GPU-zentrisch und ich sehe momentan nichts anderes als die GK20A im K1 mit grossem Abstand in den Gfxbench Resultaten.

Es liegt gar nichts polemisches daran auf eine einfache Frage zu antworten; wenn Du es als "polemisch" empfindest solltest Du vielleicht eher den fruitco fanboy zaehmen denn es ist eben immer so dass jegliche Wahrheit die jeweiligen NV, Apple, Intel oder sonst noch was fanboys stoert. Der Schreibstil wird eben nur dann aggressiv wenn der fanboy detector auf rot schlaegt :P


Das iPad Air als "leistungsschwach" zu bezeichnen. Dann müsstest du im gleichen Atemzug alle anderen Produkte und SoCs auch als "leistungsschwach" bezeichnen. Und es besser auch direkt auf die GPU Leistung präzisieren. ;)

Tut mir leid wenn es Deine Gefuehle verletzt aber ein Unterschied von bis zu 2.3x Mal ist nicht klein. Und ja das iPad Air ist ein Apple tablet dass genauso schnell ist wie das iPhone5S.

http://gfxbench.com/result.jsp?benchmark=gfx30&test=545&order=median&text-filter=apple&base=device

btw: Das Tablet ist in Europa noch praktisch kaum erhältlich. ;)

Wieso hast Du es bestellt und es ist nicht angekommen oder was? Wie war es nochmal mit dem "polemischen" Maerchen oben? Merimobiles ist einer der online chinesischen retailers die weltweit verschicken; im Notfall musst Du dann auch noch den Zoll mitberechnen, hat aber mit Verfuegbarkeit nichts zu tun.

Was man allerdings sagen muss, dass der K1 schon eine verdammt flinke GPU hat. Und das bei super modernem Featureset. :up:
Leistung war ja bei den Tegra GPUs selten das Problem. Nur das Featureset war nicht besonders doll. Das hat man nun endlich gefixt. Wenn jetzt Denver auch noch so toll ist, wie die GPU im K1, dann hat NV es endlich geschafft, richtig gute SoCs zu bauen. Wenn man das durchhält, kommt der Marketshare von allein. :)

Was sonst ist nicht bekannt? Um den Bogen zurueck aufs Thema zu machen: K1 bzw. GK20A hat den Pegel fuer GPU Leistung diesmal verdammt hoch angelegt. Ja Apple kann gleichziehen wenn sie es nur wollen und der Punkt ist hier eigentlich dass sie es machen sollten und sich eben nicht an irgend einer lahmarschigen Strategie wie "ein SoC fuer alles" bzw. zu bescheidene perf/mW haengen zu bleiben dass alles bloss noch in das naechste iPhone auch noch passt.

Beim A7 war es das erste Mal in der i-Geschichte wo ein iPhone sich in GPU benchmarks sich mit gleicher Leistung als ein iPad zeigt; ob Du jetzt sagen willst dass das iPhone5S zu schnell oder das iPad Air zu lahmarschig ist ist mir total gleichgueltig, denn es aendert kein bisschen etwas an dieser Realitaet.

Undertaker
2014-07-12, 22:17:46
Intel hat mit Silvermont die erste brauchbare SFF µ-Arch gebracht. Die Silverthrone µ-Arch war nicht so berauschend.

War das so? ;) Silverthorne kam immerhin schon 2008 auf den Markt und hatte – allerdings damals noch ohne Chipsatz – gerade einmal ~2,4 Watt TDP in 45 nm. Man vergleiche dazu mal den etwa zur gleichen Zeit erschienen Cortex-A8... Problem war halt, dass dann viele Jahre Stagnation herrschte (bezogen auf die CPU-Architektur).

Da prinzipiell aber auch die Core-Architektur ziemlich gut bis knapp unter 10 Watt skaliert, würde ich mich gar nicht mal so sehr auf den Atom festnageln.

robbitop
2014-07-12, 23:19:25
Ich verfolge schon seit geraumer Zeit den Markt unter anderem schon seit dem Zeitpunkt wo viele es als Bloedsinn hielten dass GPUs irgend einen Sinn in dem Markt machen werden. Meine Perspektive ist stets GPU-zentrisch und ich sehe momentan nichts anderes als die GK20A im K1 mit grossem Abstand in den Gfxbench Resultaten.

GK20A lässt jeden (2013er) SoC GPU seitig alt aussehen.


Es liegt gar nichts polemisches daran auf eine einfache Frage zu antworten; wenn Du es als "polemisch" empfindest solltest Du vielleicht eher den fruitco fanboy zaehmen denn es ist eben immer so dass jegliche Wahrheit die jeweiligen NV, Apple, Intel oder sonst noch was fanboys stoert. Der Schreibstil wird eben nur dann aggressiv wenn der fanboy detector auf rot schlaegt :P

Fanboys? Fan detector? :|
Und ja deine Aussage war polemisch.

Das iPad Air völlig undifferenziert als "leistungsschwach" zu generalisieren ist in dem Zusammenhang einfach zu unpräzise. Dann sind alle Produkte auf dem Markt "leistungsschwach".

Den K1 als GPU stark zu bezeichnen, wäre korrekt.


Tut mir leid wenn es Deine Gefuehle verletzt aber ein Unterschied von bis zu 2.3x Mal ist nicht klein.
Gefühle? :|

Eine korrekte Aussage wäre, dass der K1 eine GPU Leistung hat, die sämtliche SoCs (des Vorjahres!) alt aussehen läßt. Und nur das wollte ich klar stellen.

Und ja das iPad Air ist ein Apple tablet dass genauso schnell ist wie das iPhone5S.
Ja das ist richtig und auch schade. Und dennoch konnte sich A7 gegen seine 2013er Konkurrenz aus dem Hause Qualcomm, NV und Samsung behaupten.



Wieso hast Du es bestellt und es ist nicht angekommen oder was?
Ich habe kurz recherchiert bei Geizhals und bei ebay, ob man es hier kaufen kann.

Wie war es nochmal mit dem "polemischen" Maerchen oben? Merimobiles ist einer der online chinesischen retailers die weltweit verschicken; im Notfall musst Du dann auch noch den Zoll mitberechnen, hat aber mit Verfuegbarkeit nichts zu tun.
Ja ... über einen chinesischen Retailer... das ist echte Verfügbarkeit.. :|



Was sonst ist nicht bekannt? Um den Bogen zurueck aufs Thema zu machen: K1 bzw. GK20A hat den Pegel fuer GPU Leistung diesmal verdammt hoch angelegt.
Absolut. Und diese Aussage kann man auch unterschreiben. So und nicht anders ist es. Hättest so formuliert, wäre es korrekt und ich hätte dich nicht darauf hinweisen zu brauchen.

Ja Apple kann gleichziehen wenn sie es nur wollen und der Punkt ist hier eigentlich dass sie es machen sollten und sich eben nicht an irgend einer lahmarschigen Strategie wie "ein SoC fuer alles" bzw. zu bescheidene perf/mW haengen zu bleiben dass alles bloss noch in das naechste iPhone auch noch passt.

Beim A7 war es das erste Mal in der i-Geschichte wo ein iPhone sich in GPU benchmarks sich mit gleicher Leistung als ein iPad zeigt; ob Du jetzt sagen willst dass das iPhone5S zu schnell oder das iPad Air zu lahmarschig ist ist mir total gleichgueltig, denn es aendert kein bisschen etwas an dieser Realitaet.
Sicher wäre es schöner, wenn es beim Tablet einen A8x gäbe. Ohne Frage. Aber man muss schon objektiv bleiben. Man muss SoCs der gleichen Generation vergleichen. Und wie man sah konnte sich A7 auch ohne "x" gegen die SoCs der gleichen Generation behaupten.

Hätte es jetzt einen K1 oder ähnliches im gleichen Zeitraum gegeben, wäre eine scharfe Kritik auch absolut angebracht gewesen.

War das so? ;)
Ja das war so. ;)


Silverthorne kam immerhin schon 2008 auf den Markt und hatte – allerdings damals noch ohne Chipsatz – gerade einmal ~2,4 Watt TDP in 45 nm.
Eben. Ohne Chipsatz. Ohne GPU. Ohne Speichercontroller. Ohne I/O. Somit kein brauchbares SFF Produkt. Ein A8 hatte für den reinen CPU Kern IIRC nur ein Bruchteil dessen gehabt. Da hat der ganze SoC ~2,4 W benötigt. Aber die Diskussion ist müßig. Sieht man ja auch allein aufgrund der Designwins, die erst jetzt mit Silvermont so langsam signifikant ansteigen.

Man vergleiche dazu mal den etwa zur gleichen Zeit erschienen Cortex-A8... Problem war halt, dass dann viele Jahre Stagnation herrschte (bezogen auf die CPU-Architektur).
Ein Cortex A8 SoC hatte für den reinen CPU Kern IIRC nur ein Bruchteil dessen gehabt. Da hat der ganze SoC ~2,4 W benötigt. Aber die Diskussion ist müßig. Sieht man ja auch allein aufgrund der Designwins, die erst jetzt mit Silvermont so langsam signifikant ansteigen.


Da prinzipiell aber auch die Core-Architektur ziemlich gut bis knapp unter 10 Watt skaliert, würde ich mich gar nicht mal so sehr auf den Atom festnageln.
Das Problem ist dort der Preis. Die Core SoCs, die schön runterselektiert sind, dass sie auch in richtig schmale Tablets passen, lässt sich Intel einfach zu teuer bezahlen, als dass es eine große Auswirkung auf den Massenmarkt hätte.

Core M ist begeisternd! Aber halt teuer. Und kommt halt gerade so mit viel Selektion an die TDPs (nicht SDPs!) von den absoluten High End SoCs im SFF Markt heran.

Intel ist auf jeden Fall sehr sehr stark. Keine Frage. Aber ich denke, im SFF kommt man noch an sie ran. Im PC Bereich führt dort kein Weg vorbei. Und für den Markt ist das auch nicht gut, wenn es ein Monopol gibt.

Nightspider
2014-07-13, 01:19:42
In jedem Fall wird spannend wo A8, Tegra 5 und Co. im Vergleich zu Airmont (14nm) landen werden.
Mit etwas Glück werden wir kurz nach dem iPad 6 Release schon Benchmarks zu Intels Airmont SoCs sehen. Diese sollen ja zwischen 4Q14 und 1Q15 erscheinen.

Oberhalb von ~500 Euro dürfte ja Core M abräumen, also eigentlich auch noch bei der iPad Konkurrenz. Ich hoffe nur das Core M, genauso wie Airmont, viel GPU-Leistung haben wird und nicht an der Bandbreite verhungern wird.

Ailuros
2014-07-13, 08:38:49
GK20A lässt jeden (2013er) SoC GPU seitig alt aussehen.

Erwartet wohl auch jeder bei einem neuer Generation tablet SoC. Die Frage hier ist ob es wirklich marketingtechnisch etwas bringt fuer Apple mit jedem neuem tablet release seit der "A7 Aera" andere tablets weniger "alt" aussehen zu lassen und ja ich komm nochmal darauf zurueck. GK20A ist in allen Bereichen zumindest 3x Mal so schnell wie Aurora (Tegra4 GPU), ergo behalt mal diese "unwichtige" Einzelheit im Hinterkopf.


Fanboys? Fan detector? :|
Und ja deine Aussage war polemisch.

Das iPad Air völlig undifferenziert als "leistungsschwach" zu generalisieren ist in dem Zusammenhang einfach zu unpräzise. Dann sind alle Produkte auf dem Markt "leistungsschwach".

Den K1 als GPU stark zu bezeichnen, wäre korrekt.

G6430@450MHz im iPadAir ist in Echtzeit in echten mobilen Spielen um wieviel schneller als die iPad4 GPU? Spar Dir die Muehe es sind im besten Fall +50% Unterschied. Natuerlich versohlt das erste einen 544MP4 ehlendig bei GPGPU nur bekommt der Ottonormalverbraucher auch nicht besonders viel davon mit.

Eine zu schwache iPadAir GPU heisst nicht nur dass es fuer jeglichen aggressiven Konkurrenten wie NV kinderleicht ist mit sehenswerter Differenz zu ueberholen sondern erlaubt auch billig-SoC Herstellern wie Allwinner sich um einiges schneller in die A7 GPU Leistungs-Region zu steigen.

Es ist eben nicht nur 9 Monate nach dem iPad Air ein 2.3x Mal schnelleres MiPad bei 235 Euro erhaeltlich sondern auch 10 Monate danach Allwinner A80T tablets die man jetzt bei 175 Euro schon vorbestellen kann. Mach Dir mal die Muehe und zeig mir wo in der Vergangenheit billig-tablets die iPad Leistung so schnell aufholen konnte.


Eine korrekte Aussage wäre, dass der K1 eine GPU Leistung hat, die sämtliche SoCs (des Vorjahres!) alt aussehen läßt. Und nur das wollte ich klar stellen.

Nutzt Dir nichts; ja die tablet Konkurrenz fuer Apple ist feister geworden aber auch nur weil es Apple selber teilweise erlaubt.

Ja das ist richtig und auch schade. Und dennoch konnte sich A7 gegen seine 2013er Konkurrenz aus dem Hause Qualcomm, NV und Samsung behaupten.

Qualcomm koennte sich nur wuenschen dass sie jaehrlich so viele tablet SoCs wie Allwinner oder auch Rockchip pro Jahr in China verkaufen wuerden. Der Ami und die EU Maerkte sind schon seit langem stagniert; drei Mal darfst Du raten wo die grossen Wetten der Zukunft liegen.

Und total OT vor kurzem wurde in China online retailern erlaubt auch i-Geraete zu verkaufen. Wie viele Tage glaubst Du hat es gedauert bis alle wieder entfernt wurden? Es hat zwar nichts mit dem obrigen zu tun, aber wenn man den Chinesen genug Luftraum laesst seine Produkte schneller einzuholen hat man so oder so weniger Chancen bei so brutalen Preis-Unterschieden.

Ich habe kurz recherchiert bei Geizhals und bei ebay, ob man es hier kaufen kann.


Ja ... über einen chinesischen Retailer... das ist echte Verfügbarkeit.. :|

Ich hab es vor drei Tagen fuer einen Freund bei merimobiles bestellt weil er keine Kreditkarte hat. Es wird in ca. 4 Wochen ohne Versandkosten ankommen (waer's eilig hat muss dann eben Versandkosten bezahlen), aber die Bestellung ging durch.

Absolut. Und diese Aussage kann man auch unterschreiben. So und nicht anders ist es. Hättest so formuliert, wäre es korrekt und ich hätte dich nicht darauf hinweisen zu brauchen.

Ich kann nicht jedes Mal nur fuer Dich einen Roman schreiben, dass Du alles gleich auf Anhieb schnallst. Die Implikationen zu allen Seiten sind tiefer als nur die Relation zum K1.

Sicher wäre es schöner, wenn es beim Tablet einen A8x gäbe. Ohne Frage. Aber man muss schon objektiv bleiben. Man muss SoCs der gleichen Generation vergleichen. Und wie man sah konnte sich A7 auch ohne "x" gegen die SoCs der gleichen Generation behaupten.

Hätte es jetzt einen K1 oder ähnliches im gleichen Zeitraum gegeben, wäre eine scharfe Kritik auch absolut angebracht gewesen.


Intel ist auf jeden Fall sehr sehr stark. Keine Frage. Aber ich denke, im SFF kommt man noch an sie ran. Im PC Bereich führt dort kein Weg vorbei. Und für den Markt ist das auch nicht gut, wenn es ein Monopol gibt.

Wenn Du SFF mit ULP austauschen wuerdest wuerde es auch keine Chance fuer daemliche oneliners geben von anderen nebenbei :weg:

Sonst zu Intel: jeglicher ULP SoC Erfolg in letzter Zeit basiert hauptsaechlich auf Baytrail und subsidies. Und ja ihre angezielten 40Mio Stueck werden sie auch so erreichen. Sonst hab ich im Intel ULP SoC thread schon auf die ersten Gfxbench3.0 Resultate vom kastrierten Merrifield verwiesen. Bleiben die Resultate dort stecken heisst es dass sie fuer diesen einen G6430 lediglich bei ~300MHz takten anstatt 533MHz und die CPU auf bis zu 1.6GHz. Dagegen ist wieder ein Allwinner A80 sowohl auf der CPU als auch auf der GPU front womoeglich besser angelegt.

Und hier sollte man auch anhaengen dass Intel's Problem fuer den riesigen China Markt kleiner sein wird als bei Apple da Intel natuerlich SoCs zu chinesischen Herstellern einfach verkaufen kann, wobei Apple den Luxus eben nicht hat.

robbitop
2014-07-13, 09:22:05
Erwartet wohl auch jeder bei einem neuer Generation tablet SoC. Die Frage hier ist ob es wirklich marketingtechnisch etwas bringt fuer Apple mit jedem neuem tablet release seit der "A7 Aera" andere tablets weniger "alt" aussehen zu lassen und ja ich komm nochmal darauf zurueck. GK20A ist in allen Bereichen zumindest 3x Mal so schnell wie Aurora (Tegra4 GPU), ergo behalt mal diese "unwichtige" Einzelheit im Hinterkopf.
Dass Tegra 5 so abgehen würde, konnte keiner wissen. Schon gar nicht, als A7 und sämtliche andere 2013er SoCs in der Entwicklung waren. Chapeau NVIDIA! :up:
Die Frage ist, wie sie sich gegen die 2014er SoCs stellen werden und ob sie solche Leistungssprünge beibehalten können.




G6430@450MHz im iPadAir ist in Echtzeit in echten mobilen Spielen um wieviel schneller als die iPad4 GPU? Spar Dir die Muehe es sind im besten Fall +50% Unterschied. Natuerlich versohlt das erste einen 544MP4 ehlendig bei GPGPU nur bekommt der Ottonormalverbraucher auch nicht besonders viel davon mit.

Es gibt auch wenige Peaks, die höher sind (aber im Generellen hast du Recht):
http://www.anandtech.com/show/7460/apple-ipad-air-review/4

Echte Spiele, die man benchen kann, kenne ich noch nicht. Deshalb Benchmarks:

T-Rex HD immerhin 68,5 % schneller.
3D Mark Graphics Test 2 86 % schneller

In vielen anderen Benches hingegen ist er nur wenig schneller als 544MP4. Insofern hast du generell nicht Unrecht. Serie 6 skaliert vor allem die aritmetische Leistung. Das wird ihm in zukünftigen Spielen/Benchmarks mit höherer Aritmetiklast aber zugute kommen.

Adreno 4xx ist auch nicht gerade ein Rakete gegenüber Adreno 3xx. Das gleiche zu Mali.


Eine zu schwache iPadAir GPU heisst nicht nur dass es fuer jeglichen aggressiven Konkurrenten wie NV kinderleicht ist mit sehenswerter Differenz zu ueberholen sondern erlaubt auch billig-SoC Herstellern wie Allwinner sich um einiges schneller in die A7 GPU Leistungs-Region zu steigen.

Es ist eben nicht nur 9 Monate nach dem iPad Air ein 2.3x Mal schnelleres MiPad bei 235 Euro erhaeltlich sondern auch 10 Monate danach Allwinner A80T tablets die man jetzt bei 175 Euro schon vorbestellen kann. Mach Dir mal die Muehe und zeig mir wo in der Vergangenheit billig-tablets die iPad Leistung so schnell aufholen konnte

Das ist nicht falsch. Aber wie gesagt: Produkte aus zwei verschiedenen Jahren zu vergleichen passt nicht ganz. Natürlich sind auch günstige Produkte aus dem nächsten Jahr schneller als teure aus diesem Jahr.
Selbst ein A7x hätte gegen Tegra 5 deutlich verloren.





Nutzt Dir nichts; ja die tablet Konkurrenz fuer Apple ist feister geworden aber auch nur weil es Apple selber teilweise erlaubt.
Siehe oben. Ein A7x hätte daran kaum was ändern können.



Qualcomm koennte sich nur wuenschen dass sie jaehrlich so viele tablet SoCs wie Allwinner oder auch Rockchip pro Jahr in China verkaufen wuerden. Der Ami und die EU Maerkte sind schon seit langem stagniert; drei Mal darfst Du raten wo die grossen Wetten der Zukunft liegen.
Dafür muss gerade in China alles spottbillig sein. Das heißt, du muss viel mehr Umsatz für deinen Gewinn machen. Gegebenfalls so viel, weil deine Kostenstruktur mit westlichen Arbeitslöhnen überhaupt nicht auf den chinesischen Markt passt.

Dann lieber weniger Umsatz und dafür mehr Umsatzrendite. Um jeden Preis Marktanteile zu haschen ist wirtschaftlich nicht immer sinnvoll. Auch Qualcomm muss Deckungsbeiträge kalkulieren und hat sicher andere Kosten als Allwinner oder Rockchip.

Und total OT vor kurzem wurde in China online retailern erlaubt auch i-Geraete zu verkaufen. Wie viele Tage glaubst Du hat es gedauert bis alle wieder entfernt wurden? Es hat zwar nichts mit dem obrigen zu tun, aber wenn man den Chinesen genug Luftraum laesst seine Produkte schneller einzuholen hat man so oder so weniger Chancen bei so brutalen Preis-Unterschieden.
In China hast du halt eine riesige "Schere". Du hast die sehr reichen Leute und dann lange gar nichts und dann die arme Masse. Ich war beruflich schon sehr häufig dort. Was die Leute dort "verdienen" ist ein schlechter Witz. Somit können die sich praktisch nichts leisten. Klar, dass man dort nur mit sehr sehr günstigen Produkten punkten kann. Die Frage ist nur, was verdient man am Ende dran?
Eine chinesische Firma mit chinesischen Lohnkosten verdient noch ein kleines bisschen was dran. Und eine westliche Firma mit westlichen Lohnkosten (ja R&D zählt da auch rein) hat da keine Chance.
Somit können die westlichen Hersteller dort praktisch nur an die (relativ gesehen!) wenigen Reichen verkaufen.



Ich hab es vor drei Tagen fuer einen Freund bei merimobiles bestellt weil er keine Kreditkarte hat. Es wird in ca. 4 Wochen ohne Versandkosten ankommen (waer's eilig hat muss dann eben Versandkosten bezahlen), aber die Bestellung ging durch.
Und das will nicht jeder machen. Echte Verfügbarkeit ist, wenn es im Inland erhältlich ist.



Ich kann nicht jedes Mal nur fuer Dich einen Roman schreiben, dass Du alles gleich auf Anhieb schnallst.
Die Implikationen zu allen Seiten sind tiefer als nur die Relation zum K1.
Es geht nicht um Romane sondern darum sich klar auszudrücken. Es wäre schön, wenn du zur Ausnahme auch mal Kritik annehmen würdest. ;)





Wenn Du SFF mit ULP austauschen wuerdest wuerde es auch keine Chance fuer daemliche oneliners geben von anderen nebenbei :weg:
Sicherlich richtig.



Und hier sollte man auch anhaengen dass Intel's Problem fuer den riesigen China Markt kleiner sein wird als bei Apple da Intel natuerlich SoCs zu chinesischen Herstellern einfach verkaufen kann, wobei Apple den Luxus eben nicht hat.
Apples Geschäftsmodell ist eine hohe Umsatzrendite. Die ist in China eben nur bei Randgruppen zu holen. Für die breite Masse ist ihre Kostenstruktur sicher nicht geeignet. Gewinn > Umsatz.

Undertaker
2014-07-13, 10:43:02
Eben. Ohne Chipsatz. Ohne GPU. Ohne Speichercontroller. Ohne I/O. Somit kein brauchbares SFF Produkt. Ein A8 hatte für den reinen CPU Kern IIRC nur ein Bruchteil dessen gehabt. Da hat der ganze SoC ~2,4 W benötigt. Aber die Diskussion ist müßig. Sieht man ja auch allein aufgrund der Designwins, die erst jetzt mit Silvermont so langsam signifikant ansteigen.

2008 hatte Intel kein brauchbares Umfeld was I/O oder GPU betraf. Ich spreche darum bewusst auch nur von der CPU-Architektur: Die war, nach einem Shrink und in den passenden SoC verpackt, selbst 2013 – also 5 Jahre nach dem Erscheinen ohne jegliche entscheidende Veränderung! – in Form eines Z2760 noch immer mit schnellen aktuellen ARM-Konkurrenten vergleichbar.

Aber um den Abschluss zu bekommen: Ich traue Apple vieles zu, aber eine knapp verdoppelte ST-Leistung ggü. dem A7 kann ich mir in 20nm (abseits extrem kurzer Boosts) nicht vorstellen.

Ailuros
2014-07-13, 16:23:25
Dass Tegra 5 so abgehen würde, konnte keiner wissen. Schon gar nicht, als A7 und sämtliche andere 2013er SoCs in der Entwicklung waren. Chapeau NVIDIA! :up:
Die Frage ist, wie sie sich gegen die 2014er SoCs stellen werden und ob sie solche Leistungssprünge beibehalten können.

Keiner steht fuer wen? Es gab vor mehr als einem Jahr relevante Aussagen bei B3D von einem QCOM CPU engineer bitteschoen in aller Oeffentlichkeit und was sonst von anderen erwartet wurde ist zwar alles off the record aber ich hab niemanden ueberrascht gesehen im Hintergrund.

Es gibt auch wenige Peaks, die höher sind (aber im Generellen hast du Recht):
http://www.anandtech.com/show/7460/apple-ipad-air-review/4

Echte Spiele, die man benchen kann, kenne ich noch nicht. Deshalb Benchmarks:

T-Rex HD immerhin 68,5 % schneller.
3D Mark Graphics Test 2 86 % schneller

In vielen anderen Benches hingegen ist er nur wenig schneller als 544MP4. Insofern hast du generell nicht Unrecht. Serie 6 skaliert vor allem die aritmetische Leistung. Das wird ihm in zukünftigen Spielen/Benchmarks mit höherer Aritmetiklast aber zugute kommen.

Genau deshalb behauptete Apple dass die A7 GPU um 2x Mal schneller ist weil ein Schnitt von GPGPU und 3D gezogen wurden. Da geht's von bis zu 20x Mal schneller bis zu 0.5x Mal schneller.

Adreno 4xx ist auch nicht gerade ein Rakete gegenüber Adreno 3xx. Das gleiche zu Mali.

Hab ich nicht versaeumt zu erwaehnen, fuer Adreno 4xx aber hier ist das Problem eher DX11 dass zu viel Transistoren geschluckt hat. Adreno330@580MHz im GalaxyS5 und co. ist aber nur einen Atem unter dem A7 GPU Nivaeu. ARM ist eine andere lange Geschichte.


Das ist nicht falsch. Aber wie gesagt: Produkte aus zwei verschiedenen Jahren zu vergleichen passt nicht ganz. Natürlich sind auch günstige Produkte aus dem nächsten Jahr schneller als teure aus diesem Jahr.
Selbst ein A7x hätte gegen Tegra 5 deutlich verloren.

Man kann wuerdevoll verlieren oder sich auch total blamieren. Im gegebenen Fall zwar kein 7:1 aber waere es 19 vs. 27 fps gewesen haette sich auch keiner beschwert. Und das waere dann auch ein echtes 2x Mal iPad4 GPU Leistung fuer mainstream 3D gewesen.


Dafür muss gerade in China alles spottbillig sein. Das heißt, du muss viel mehr Umsatz für deinen Gewinn machen. Gegebenfalls so viel, weil deine Kostenstruktur mit westlichen Arbeitslöhnen überhaupt nicht auf den chinesischen Markt passt.

Dann lieber weniger Umsatz und dafür mehr Umsatzrendite. Um jeden Preis Marktanteile zu haschen ist wirtschaftlich nicht immer sinnvoll. Auch Qualcomm muss Deckungsbeiträge kalkulieren und hat sicher andere Kosten als Allwinner oder Rockchip.

QCOM hat keinen anstaendigen tablet SoC; das Preis-/Leistungsverhaeltnis laesst hier viel zu viel zu wuenschen uebrig. Wer zum Henker wird sagen wir mal >$30 fuer einen SoC bezahlen der 17-18 fps in Manhattan landet, waehrend Du fuer weniger als halb so viel schon 11 fps von einem A80 bekommst? Noch schlimmer die CPU im letzten ist alles andere als "Kleinkram".


In China hast du halt eine riesige "Schere". Du hast die sehr reichen Leute und dann lange gar nichts und dann die arme Masse. Ich war beruflich schon sehr häufig dort. Was die Leute dort "verdienen" ist ein schlechter Witz. Somit können die sich praktisch nichts leisten. Klar, dass man dort nur mit sehr sehr günstigen Produkten punkten kann. Die Frage ist nur, was verdient man am Ende dran?
Eine chinesische Firma mit chinesischen Lohnkosten verdient noch ein kleines bisschen was dran. Und eine westliche Firma mit westlichen Lohnkosten (ja R&D zählt da auch rein) hat da keine Chance.
Somit können die westlichen Hersteller dort praktisch nur an die (relativ gesehen!) wenigen Reichen verkaufen.

Was interessiert die Debatte genau was fuer Margen jeder SoC Hersteller genau hat? Es sollte wohl klar sein dass wenn man so billig verkauft auch sehr geringe Margen hat.


Und das will nicht jeder machen. Echte Verfügbarkeit ist, wenn es im Inland erhältlich ist.

Du kannst von mir aus lange um den Brei tanzen, das Ding ist kaufbar basta.

Es geht nicht um Romane sondern darum sich klar auszudrücken. Es wäre schön, wenn du zur Ausnahme auch mal Kritik annehmen würdest. ;)

Nach all den Jahren ist diese daemliche Laier ziemlich langweilig geworden; ich druecke mich klar genug aus und diejenigen die einen Durchblick im Markt haben verstehen es auch auf Anhieb. Es waere schoen wenn Du zur Aussnahme mal das einstecken wuerdest was Du einstecken solltest. Das MiPad ist verfuegbar und deutlich schneller als jegliches iPad.


Apples Geschäftsmodell ist eine hohe Umsatzrendite. Die ist in China eben nur bei Randgruppen zu holen. Für die breite Masse ist ihre Kostenstruktur sicher nicht geeignet. Gewinn > Umsatz.

Du kannst von da ab selber weiterspekulieren wie begrenzt genau Apple's Zukunft genau sein wird. Und es geht hier nicht darum ob Apple daran wirklich interessiert ist etwas zu aendern; es geht hier lediglich um die Leistung ihrer Produkte und wie leicht es Apple ihrer indirekten Konkurrenten es machen koennte sie einzuholen.

Wenn ich jetzt das Dilemma setzte ob A8 nur marginal schneller sein soll als A7 gegen wirklich 2x Mal schneller auf allen Fronten wird wohl keiner von Euch das erste haben wollen. Das erste passt wunderschoen in einen smartphone mit groesseren displays Plan, das zweite hat dann andere Folgen. Einen Fall wo eben Apple ziemlich deutlich vor der Konkurrenz liegt und es relativ lange dauern wird sie einzuholen gibt es eben nicht mehr.

Noch wichtiger handelt es sich lediglich um physikalische Begrenzungen oder ist es tatsaechlich so dass es mit der hw Rennaisance der Vergangenheit doch vorbei ist? Ja ich weiss ich stell Fragen.....:rolleyes:

Vorgeschmack:
PJ8lKTJbwvY

Coda
2014-07-13, 16:51:20
Neu hier im Forum?
Ich kannte die Abkürzung tatsächlich nicht.

robbitop
2014-07-14, 16:02:26
Keiner steht fuer wen? Es gab vor mehr als einem Jahr relevante Aussagen bei B3D von einem QCOM CPU engineer bitteschoen in aller Oeffentlichkeit und was sonst von anderen erwartet wurde ist zwar alles off the record aber ich hab niemanden ueberrascht gesehen im Hintergrund.


Dann stellt sich die Frage, ob sich das auch in der 2014er Lineup von Apple, QCOM und Samsung wiederspiegelt. Ansonsten wäre es seltsam nicht überrascht zu sei,n aber auch nicht gegenzusteuern.


Genau deshalb behauptete Apple dass die A7 GPU um 2x Mal schneller ist weil ein Schnitt von GPGPU und 3D gezogen wurden. Da geht's von bis zu 20x Mal schneller bis zu 0.5x Mal schneller.

Die Arithmetiklast wird, so wie im PC Bereich, auch kontinuierlich steigen. Und wenn sie das tut, weitet sich der Abstand von A6 zu A7. Allerdings ist es die Frage, ob dann noch jemand einen A7 besitzt und sich darüber freut. :)



Hab ich nicht versaeumt zu erwaehnen, fuer Adreno 4xx aber hier ist das Problem eher DX11 dass zu viel Transistoren geschluckt hat. Adreno330@580MHz im GalaxyS5 und co. ist aber nur einen Atem unter dem A7 GPU Nivaeu. ARM ist eine andere lange Geschichte.
Woran es auch immer liegen mag. Der Punkt ist, dass alle vom Tegra 5 nass gemacht werden.




Man kann wuerdevoll verlieren oder sich auch total blamieren. Im gegebenen Fall zwar kein 7:1 aber waere es 19 vs. 27 fps gewesen haette sich auch keiner beschwert. Und das waere dann auch ein echtes 2x Mal iPad4 GPU Leistung fuer mainstream 3D gewesen.
Wäre sicher nicht verkehrt gewesen.




QCOM hat keinen anstaendigen tablet SoC; das Preis-/Leistungsverhaeltnis laesst hier viel zu viel zu wuenschen uebrig. Wer zum Henker wird sagen wir mal >$30 fuer einen SoC bezahlen der 17-18 fps in Manhattan landet, waehrend Du fuer weniger als halb so viel schon 11 fps von einem A80 bekommst? Noch schlimmer die CPU im letzten ist alles andere als "Kleinkram".

Für 2014 ist Adreno 4xx bisher wirklich nicht so doll. Für 2013 wäre die Leistung absolut marktgerecht gewesen.



Was interessiert die Debatte genau was fuer Margen jeder SoC Hersteller genau hat? Es sollte wohl klar sein dass wenn man so billig verkauft auch sehr geringe Margen hat.
Ich stelle einfach nur in Frage, wie relevant diese Wachstumsmärkte wie China sind, wenn man da nur super schmale Margen holen kann.




Du kannst von mir aus lange um den Brei tanzen, das Ding ist kaufbar basta.
In China ja. In Europa nein.



Nach all den Jahren ist diese daemliche Laier ziemlich langweilig geworden; ich druecke mich klar genug aus und diejenigen die einen Durchblick im Markt haben verstehen es auch auf Anhieb. Es waere schoen wenn Du zur Aussnahme mal das einstecken wuerdest was Du einstecken solltest.
Die Aussage war eben nicht klar ausgedrückt. Aber offenbar bist du nicht kritikfähig.


Das MiPad ist verfuegbar und deutlich schneller als jegliches iPad.
Ersteres: bedingt. Zweiteres: ja ohne zweifel.




Du kannst von da ab selber weiterspekulieren wie begrenzt genau Apple's Zukunft genau sein wird. Und es geht hier nicht darum ob Apple daran wirklich interessiert ist etwas zu aendern; es geht hier lediglich um die Leistung ihrer Produkte und wie leicht es Apple ihrer indirekten Konkurrenten es machen koennte sie einzuholen.
Es kochen am Ende alle nur mit Wasser. Einholbar ist jeder. Und ich vermute mal, dass der Großteil der Käufer seine Geräteentscheidung nicht nach dem neusten Manhatten Benchmark trifft. ;)

Wenn ich jetzt das Dilemma setzte ob A8 nur marginal schneller sein soll als A7 gegen wirklich 2x Mal schneller auf allen Fronten wird wohl keiner von Euch das erste haben wollen. Das erste passt wunderschoen in einen smartphone mit groesseren displays Plan, das zweite hat dann andere Folgen. Einen Fall wo eben Apple ziemlich deutlich vor der Konkurrenz liegt und es relativ lange dauern wird sie einzuholen gibt es eben nicht mehr.
Noch wichtiger handelt es sich lediglich um physikalische Begrenzungen oder ist es tatsaechlich so dass es mit der hw Rennaisance der Vergangenheit doch vorbei ist? Ja ich weiss ich stell Fragen.....:rolleyes:


Natürlich wäre es für den Kunden besser, wenn man 2 SoCs bringt. Die Frage stellt sich doch überhaupt nicht. Wer ernsthaft als Kunde dagegen ist, hat sie nicht alle.

Ailuros
2014-07-14, 21:09:36
Dann stellt sich die Frage, ob sich das auch in der 2014er Lineup von Apple, QCOM und Samsung wiederspiegelt. Ansonsten wäre es seltsam nicht überrascht zu sei,n aber auch nicht gegenzusteuern.

Hat jemand je erzaehlt dass jeglicher IHV kurzfristig reagieren kann? So in der Art "ach ja wir haben erfahren dass N in 1-1.5 Jahr X GPU veroeffentlichen wird; jetzt schmeissen wir unsere 2 Jahre Entwicklujng in die Muelltonne und fangen von Null an weil wir ja genug resources dafuer haben?...." :freak:

Eigentlich erwarteten viele skalare ALUs in der ULP GeForce schon seit Tegra4.

Die Arithmetiklast wird, so wie im PC Bereich, auch kontinuierlich steigen. Und wenn sie das tut, weitet sich der Abstand von A6 zu A7. Allerdings ist es die Frage, ob dann noch jemand einen A7 besitzt und sich darüber freut. :)

Es ist zwar OT aber ich bin eher neugierig wie die mobilen ISVs auf Metal reagieren werden.

Woran es auch immer liegen mag. Der Punkt ist, dass alle vom Tegra 5 nass gemacht werden.

Hat Apple mit dem 64bit Cyclone angerichtet; mal sehen ob sie mit GK20A zumindest gleichziehen koennen.


Für 2014 ist Adreno 4xx bisher wirklich nicht so doll. Für 2013 wäre die Leistung absolut marktgerecht gewesen.

Du hast das wesentlichste vergessen: die 17.7 fps die der Adreno420 erreicht in Manhattan offscreen ist auf einer developer Platform. Es sollte klar sein dass Jetson K1 noch einen gutes Stueck schneller ist als das MiPad aus verstaendlichen Gruenden ;)


In China ja. In Europa nein.

Wenn ein online retailer weltweit verschickt, reimst Du Dir hier einen Haufen Mist ein. Ich kann es kaufen am anderen Arsch der Welt und der Arsch ist nicht mehr als ca. 3000 kilometer von Deiner Nachbarschaft entfernt.

Die Aussage war eben nicht klar ausgedrückt. Aber offenbar bist du nicht kritikfähig.

Ich bin sehr wohl kritikfaehig. Mir wachste schon immer so das Maul wie es mir passte sowohl in Echtzeit auch in jedem Internet und obwohl es oefters nie billig war bin ich auch stets dabei geblieben. Ich nehme es auch nicht zurueck eben weil ich das Recht meiner Meinung habe.


Es kochen am Ende alle nur mit Wasser. Einholbar ist jeder. Und ich vermute mal, dass der Großteil der Käufer seine Geräteentscheidung nicht nach dem neusten Manhatten Benchmark trifft. ;)

Wenn oeffentliche benchmarks so "egal" waeren wie Du es praesentieren willst, wuerden IHVs auch Apple inklusive keine Kopfstaende stehen so lang wie moeglich in diesen an der Spitze zu sein.

Natürlich wäre es für den Kunden besser, wenn man 2 SoCs bringt. Die Frage stellt sich doch überhaupt nicht. Wer ernsthaft als Kunde dagegen ist, hat sie nicht alle.

2 SoCs sind nichtmal eine Notwendigkeit; es reicht ein SoC mit variablen CPU + GPU Frequenzen je nach Zielmarkt vollkommen aus. Muesste auch bei den binning yields um einiges mehr helfen.

robbitop
2014-07-15, 09:01:37
Hat jemand je erzaehlt dass jeglicher IHV kurzfristig reagieren kann? So in der Art "ach ja wir haben erfahren dass N in 1-1.5 Jahr X GPU veroeffentlichen wird; jetzt schmeissen wir unsere 2 Jahre Entwicklujng in die Muelltonne und fangen von Null an weil wir ja genug resources dafuer haben?...." :freak:
1,5 Jahre vor Marktstart kann man zumindest noch die Anzahl der Einheiten erhöhen. Siehe die insider GPU Stories bei Anandtech. Dort wurden solche Sachen auch in vergleichbaren Zeiträumen entschieden.

Natürlich kann man dann nicht bei 0 anfangen und was neues machen. Aber reine Skalierung in begrenztem Umfang sollte möglich sein.


Eigentlich erwarteten viele skalare ALUs in der ULP GeForce schon seit Tegra4.
Um so mehr ein Grund, mit der eigenen ALU Kapaizät nach oben zu korrigieren.



Es ist zwar OT aber ich bin eher neugierig wie die mobilen ISVs auf Metal reagieren werden.
Ich ebenso. Vor allem bin ich auf die Resultate im Durchschnitt gespannt. Das wird etwas CPU Leistung freischaufeln.



Hat Apple mit dem 64bit Cyclone angerichtet; mal sehen ob sie mit GK20A zumindest gleichziehen koennen.
Mit einem A8x vermutlich eher als mit einem A8. ;)


Wenn ein online retailer weltweit verschickt, reimst Du Dir hier einen Haufen Mist ein. Ich kann es kaufen am anderen Arsch der Welt und der Arsch ist nicht mehr als ca. 3000 kilometer von Deiner Nachbarschaft entfernt.
Defintionssache. Import ist nicht jedermanns Sache. Wenn es richtig im Land verfügbar ist, ist es für MICH kaufbar.
Aber lassen wir das. We agree to disagree.



Ich bin sehr wohl kritikfaehig. Mir wachste schon immer so das Maul wie es mir passte sowohl in Echtzeit auch in jedem Internet und obwohl es oefters nie billig war bin ich auch stets dabei geblieben. Ich nehme es auch nicht zurueck eben weil ich das Recht meiner Meinung habe.
So viel zum Thema Kritikfähigkeit :D




Wenn oeffentliche benchmarks so "egal" waeren wie Du es praesentieren willst, wuerden IHVs auch Apple inklusive keine Kopfstaende stehen so lang wie moeglich in diesen an der Spitze zu sein.
Das ist ein valider Punkt. Nur stelle ich mir ernsthaft die Frage, was der Endanwender davon hat. Die Spiele auf den ULP Plattformen sind nahezu alle Casual und nicht besonders gut. Die wenigsten begeistern länger als 5 min.
Vielleicht bin ich aber auch nur zu anspruchsvoll. ;(

Selbst die PSP und der DS hatten dieses Problem (als Smartphones noch eine Randgruppe waren und sie den Markt für sich allein hatten) - obwohl die Spiele deutlich besser als die Smartphone/Tablet Spiele waren, waren diese immernoch deutlich schlechter produziert als auf den großen Plattformen.

Ich wäre der erste, der von einer mobilen Plattform begeistert wäre. Wenn es denn die Spiele dazu gäbe. Aber der Markt ist vermutlich zu klein.

Hardwareseitig ist das Potenzial ja da (ich weiß, reine Träumerei), wenn man sich K1 anschaut. Ich kann mir vorstellen, dass sogar noch mehr ginge als K1. Man stelle sich vor, dass Intel mit seinem 14 nm Prozess wirklich alles ausreizte. Einen 4 Core Atom @2 GHz + Maximalausbau vom Serie6 XT + hohe Taktraten. Das Ganze in einer Art Gaming Tabletplattform. Aber dafür gäbe es keine adäquaten Spiele. Das Ding könnte spielend GTA5 darstellen (wenn Rockstar das wollte) - vermutlich sogar etwas besser als auf der PS360.



2 SoCs sind nichtmal eine Notwendigkeit; es reicht ein SoC mit variablen CPU + GPU Frequenzen je nach Zielmarkt vollkommen aus. Muesste auch bei den binning yields um einiges mehr helfen.

Zustimmung.

Ailuros
2014-07-15, 09:27:23
1,5 Jahre vor Marktstart kann man zumindest noch die Anzahl der Einheiten erhöhen. Siehe die insider GPU Stories bei Anandtech. Dort wurden solche Sachen auch in vergleichbaren Zeiträumen entschieden.

Natürlich kann man dann nicht bei 0 anfangen und was neues machen. Aber reine Skalierung in begrenztem Umfang sollte möglich sein.

Weil IHVs mit die area nur noch so herumschmeissen koennen oder?

Um so mehr ein Grund, mit der eigenen ALU Kapaizät nach oben zu korrigieren.

Ueberfluessig; fuer Apple im A7 im gegebenen Fall hat Apple im Gegensatz zu einigen anderen den Rogue vorbildlich integriert hat ihn aber leider fuer die tablets auf zu bescheidener Frequenz getaktet. Die meisten spielen auch mit den Frequenzen herum, wobei das beste Beispiel Qualcomm's Adreno330 ist der heute schon bei 580MHz angelangt ist und das nur fuer smartphones. Mit 8*SIMD16/8TMUs ist es alles anderes als eine geringe Frequenz.


Mit einem A8x vermutlich eher als mit einem A8. ;)

Wenn es aber ueberhaupt einen solchen geben wird.

Defintionssache. Import ist nicht jedermanns Sache. Wenn es richtig im Land verfügbar ist, ist es für MICH kaufbar.
Aber lassen wir das. We agree to disagree.

Weisst Du ich waere schoen bloed wenn ich nicht egal von wo im Ausland hw bestellen wuerde. Selbst mit Verdandkosten ist es oefters um einiges billiger und noch mehr aus China weil die auf die Schachtel drucken dass sie Wahre weniger als $50 wert ist und es beim Zoll hier einfach nur durchkommt.

Ich benutze auch stellenweise amazon.de oder amazon.uk je nachdem wenn es mal einen guten deal fuer etwas gibt. Den Aufpreis den so mancher Idiot hier verlangt bin ich nicht bereit zu bezahlen.

Das ist ein valider Punkt. Nur stelle ich mir ernsthaft die Frage, was der Endanwender davon hat. Die Spiele auf den ULP Plattformen sind nahezu alle Casual und nicht besonders gut. Die wenigsten begeistern länger als 5 min.
Vielleicht bin ich aber auch nur zu anspruchsvoll. ;(

Selbst die PSP und der DS hatten dieses Problem (als Smartphones noch eine Randgruppe waren und sie den Markt für sich allein hatten) - obwohl die Spiele deutlich besser als die Smartphone/Tablet Spiele waren, waren diese immernoch deutlich schlechter produziert als auf den großen Plattformen.

Ich wäre der erste, der von einer mobilen Plattform begeistert wäre. Wenn es denn die Spiele dazu gäbe. Aber der Markt ist vermutlich zu klein.

Hardwareseitig ist das Potenzial ja da (ich weiß, reine Träumerei), wenn man sich K1 anschaut. Ich kann mir vorstellen, dass sogar noch mehr ginge als K1. Man stelle sich vor, dass Intel mit seinem 14 nm Prozess wirklich alles ausreizte. Einen 4 Core Atom @2 GHz + Maximalausbau vom Serie6 XT + hohe Taktraten. Das Ganze in einer Art Gaming Tabletplattform. Aber dafür gäbe es keine adäquaten Spiele. Das Ding könnte spielend GTA5 darstellen (wenn Rockstar das wollte) - vermutlich sogar etwas besser als auf der PS360.

Es ist Apple der IHV der tablets als erster generiert hat und auch derjenige der ziemlich viel beigetragen hat zur Kategorie-Definierung von tablets. Es waren schon immer Gelegenheitsspielchen fuer ULP mobile Geraete und da diese entweder umsonst oder spottbillig sind (weil auch verdammt kurz) ein solcher Erfolg fuer diese in den jeweiligen application stores.

Fuer anspruchsvolleres Material hat jeder beteiligte stets Kopfschmerzen wie download bandwidth, storage und dergleichen und das gilt auch nicht nur fuer Apple. Momentan kann alles leider nur so begrenzt bleiben.

robbitop
2014-07-15, 09:40:05
Weil IHVs mit die area nur noch so herumschmeissen koennen oder?

Wenn man unbedingt einen Benchmark gewinnen will, wie du vorhin angedeutet hast, schon.
Viel wichtiger ist vermutlich, dass die Leistungsaufnahme nicht explodiert.


Ueberfluessig; fuer Apple im A7 im gegebenen Fall hat Apple im Gegensatz zu einigen anderen den Rogue vorbildlich integriert hat ihn aber leider fuer die tablets auf zu bescheidener Frequenz getaktet. Die meisten spielen auch mit den Frequenzen herum, wobei das beste Beispiel Qualcomm's Adreno330 ist der heute schon bei 580MHz angelangt ist und das nur fuer smartphones. Mit 8*SIMD16/8TMUs ist es alles anderes als eine geringe Frequenz.
Apple hat meistens die GPUs relativ niedrig getaktet. Ggf. würden die Dinger bei doppeltem Takt einfach zu viel Strom benötigen?



Wenn es aber ueberhaupt einen solchen geben wird.
Let's hope so.



Weisst Du ich waere schoen bloed wenn ich nicht egal von wo im Ausland hw bestellen wuerde. Selbst mit Verdandkosten ist es oefters um einiges billiger und noch mehr aus China weil die auf die Schachtel drucken dass sie Wahre weniger als $50 wert ist und es beim Zoll hier einfach nur durchkommt.
Kann sein, dass es hier etwas anders ist. IMO hat man hier selten große Benefits, wenn man etwas importiert. Hinzu kommt, dass Garantieabwicklung schwierig wird. Für mich ein K.O. Grund Hardware zu importieren. Ein weiterer K.O. Grund wäre, wenn es beim Zoll hängen bliebe und ich dort hinfahren müsste.


Fuer anspruchsvolleres Material hat jeder beteiligte stets Kopfschmerzen wie download bandwidth, storage und dergleichen und das gilt auch nicht nur fuer Apple. Momentan kann alles leider nur so begrenzt bleiben.
Der größte Kopfschmerz ist vermutlich eher, dass man nicht so vein großes Budget haben kann wie auf den großen Plattformen. Dadurch werden die Spiele idR auch schlechter produziert.

Aber ja: Storrage ist ein Problem. Lächerlich, dass selbst in 2014 die meisten Smartphones auf 16 GiB kleben, wovon abzüglich OS vielleicht noch 12 GB nutzbar sind.
Und das in Zeiten, wo man SSDs billiger denn je bekommt. 1 GiB hochwertige SSD kosten heute ~30 ct.

smalM
2014-07-15, 10:29:14
Hat jemand je erzaehlt dass jeglicher IHV kurzfristig reagieren kann? So in der Art "ach ja wir haben erfahren dass N in 1-1.5 Jahr X GPU veroeffentlichen wird; jetzt schmeissen wir unsere 2 Jahre Entwicklujng in die Muelltonne und fangen von Null an weil wir ja genug resources dafuer haben?...." :freak:

Ersetze "GPU" durch "CPU" und "weil wir ja genug Resourcen dafür haben" durch "weil wir von der Entwicklung bei der Konkurrenz überrollt wurden".
So hat Qualcomm offensichtlich mindestens ein Jahr der Krait-32-Weiterentwicklungen nach der Vorstellung des Apple A7 in die Tonne getreten und muß deshalb als Zwischenschritt zum Krait-64 ARMv8 von der Stange anbieten.

Ich (insbesondere als iPad Air 2 Interessent) kann nur hoffen, daß Apple das mit dem Plan "ein SoC-Modell pro Generation ist genug" auch getan hat...

Ailuros
2014-07-15, 11:16:50
Ersetze "GPU" durch "CPU" und "weil wir ja genug Resourcen dafür haben" durch "weil wir von der Entwicklung bei der Konkurrenz überrollt wurden".
So hat Qualcomm offensichtlich mindestens ein Jahr der Krait-32-Weiterentwicklungen nach der Vorstellung des Apple A7 in die Tonne getreten und muß deshalb als Zwischenschritt zum Krait-64 ARMv8 von der Stange anbieten.

Kein Zweifel; nur war das vorige darauf geziehlt dass die IHVs keine resources hatten auf GK20A zu reagieren. Im gegebenen Fall haette nach der Logik QCOM auch theoretisch GPU IP von einer dritten Firma lizenzieren koennen aber es waere wohl zu viel des Guten gewesen mit kunterbunter Lizenzierung von allen Seiten.

Ich (insbesondere als iPad Air 2 Interessent) kann nur hoffen, daß Apple das mit dem Plan "ein SoC-Modell pro Generation ist genug" auch getan hat...

So lange sie wenigstens das Verstaendnis haben dieses analog pro Marktsparte zu takten kein Problem.

robbitop
2014-07-15, 11:51:47
Nach dem GK20A-Asskick wird Apple, Samsung und QCOM sicher die Weichen stellen für separate Tablet SoCs. Nur geht das eben nicht sofort zum nächsten SoC. :(

Ailuros
2014-07-15, 12:19:49
Nach dem GK20A-Asskick wird Apple, Samsung und QCOM sicher die Weichen stellen für separate Tablet SoCs. Nur geht das eben nicht sofort zum nächsten SoC. :(

Wenn Apple zumindest ~250GFLOPs (G6630@650MHz) von der GPU erreicht im A8 haben sie keine besondere Sorgen; die eigentlichen Sorgenkinder sind eher die anderen zwei wo auch die pro FLOP Effizienz ziemlich zu wuenschen uebrig laesst.